Японская лаборатория Sakana AI представила новую технику, которая позволяет нескольким крупным языковым моделям работать вместе над одной задачей. Система Multi-LLM AB-MCTS объединяет возможности различных ИИ, чтобы решать сложные задачи, которые не под силу ни одной отдельной модели. Подход заключается в том, что каждая модель участвует в процессе проб и ошибок, а затем коллективно находит лучшее решение.
В основе этой разработки лежит алгоритм Adaptive Branching Monte Carlo Tree Search, который позволяет модели решать, стоит ли улучшать уже полученный ответ или создавать новый. Система не только выбирает стратегию поиска, но и определяет, какая именно модель лучше справится с конкретным этапом задачи. В начале все модели задействуются поровну, но со временем алгоритм отдает предпочтение тем, которые показывают лучшие результаты.
Исследователи испытали Multi-LLM AB-MCTS на тесте ARC-AGI-2, который проверяет способность ИИ решать сложные задачи визуального мышления. Коллектив моделей, среди которых были o4-mini, Gemini 2.5 Pro и DeepSeek-R1, смог правильно выполнить более 30% из 120 заданий, что значительно превышает результаты отдельных моделей. В некоторых случаях решение одной модели оказывалось ошибочным, но система передавала его другим моделям, которые находили и исправляли ошибки.
Специалисты отмечают, что такой подход помогает уменьшить количество ошибочных ответов и позволяет сочетать сильные стороны различных моделей. Это может быть полезно для бизнеса, где важна точность и надежность работы ИИ. Для разработчиков Sakana AI открыла доступ к алгоритму через open-source фреймворк TreeQuest, который можно использовать в собственных проектах с коммерческой целью.