Компания Mistral AI объявила о выпуске обновленной версии своей модели для программирования Codestral 25.01. Эта модель направлена на улучшение рабочих процессов разработки программного обеспечения. Новый релиз базируется на успехах предыдущей версии Codestral, которую широко использовали разработчики для создания и заполнения промежутков в коде, исправления ошибок и генерации тестов.
Codestral 25.01 демонстрирует несколько улучшений: модель стала примерно вдвое быстрее благодаря оптимизации архитектуры и более эффективному токенизатору. Она поддерживает большие базы кода и более сложные задачи с контекстной длиной в 256 тысяч токенов. На тестах производительности модель превосходит ведущие модели с параметрами до 100 миллиардов в задачах заполнения промежутков для разных языков программирования. Например, она достигает среднего балла 95.3% для задач FIM, превосходя конкурентов, таких как GPT-3.5 Turbo API от OpenAI.
Этот релиз доступен для разработчиков через IDE-плагины для платформ, таких как Visual Studio Code и JetBrains. Для корпоративных пользователей, которые требуют локального развертывания или сохранения данных, модель предлагается через платформу Continue. API доступен на Google Cloud’s Vertex AI, а приватные предыдущие версии — на Azure AI Foundry, с планами запуска на Amazon Bedrock.