Подразделение Microsoft AI представило две собственные ИИ-модели: языковую MAI-Voice-1 и текстовую MAI-1-preview. Модель MAI-Voice-1 создает минуту аудио менее чем за секунду на одном графическом процессоре. Она уже работает в функциях Copilot Daily, где ИИ-ведущий озвучивает главные новости дня, а также помогает формировать подкаст-обсуждения для объяснения тем. Попробовать MAI-Voice-1 можно на Copilot Labs — там пользователи вводят текст, выбирают голос и стиль речи.
MAI-1-preview — это первая базовая текстовая модель Microsoft, которую обучали на примерно 15 000 графических процессоров Nvidia H100. Она создана для тех, кто ищет ИИ, выполняющий инструкции и дающий полезные ответы на повседневные запросы. Сейчас MAI-1-preview проходит публичное тестирование на платформе LMArena и постепенно появляется в Copilot, который до сих пор использовал большие языковые модели OpenAI.
Руководитель Microsoft AI Мустафа Сулейман подчеркнул, что MAI-1-preview разрабатывали с фокусом на бытовое использование, а не для бизнеса. Компания оптимизирует модели для потребителей, применяя собственные данные и ресурсы. Microsoft планирует в дальнейшем интегрировать свои ИИ-модели в Windows, Office и Azure, и уже использует новый вычислительный кластер на основе чипов Nvidia GB200.
Разработчики, которые желают получить ранний доступ, могут подать заявку на API. Microsoft также работает над тем, чтобы удалить из моделей черты, которые могут создать впечатление наличия эмоций или намерений, и стремится сделать взаимодействие с ИИ более прозрачным для пользователей.