Китайский стартап MiniMax представил новую открытую языковую модель MiniMax-M1 для работы с большими объемами текста и сложными логическими задачами. Модель поддерживает контекст до одного миллиона токенов и имеет «бюджет мышления» до 80 тысяч токенов, что позволяет ей анализировать длинные тексты. MiniMax-M1 работает на основе эффективного подхода с подкреплением, благодаря чему модель меньше по размеру по сравнению с другими открытыми аналогами.
MiniMax-M1 доступна бесплатно под лицензией Apache-2.0, и её можно найти в двух версиях на платформе Hugging Face. Во время тестирования, в частности на OpenAI MRCR, который оценивает сложное многоступенчатое рассуждение, модель показала лучшие результаты, чем DeepSeek-R1-0528 и Qwen3-235B-A22B, и приблизилась к уровню закрытой модели Gemini 2.5 Pro.
MiniMax основана в Шанхае в конце 2021 года и получила поддержку от инвесторов, среди которых Alibaba. Компания специализируется на языковых и мультимодальных ИИ. Ранее в этом году она выпустила MiniMax-Text-01, которая может работать с контекстом до четырех миллионов токенов, а также систему MiniMax-VL-01 для обработки текста и изображений.