Новая языковая модель с рекордным контекстом

Новая языковая модель с рекордным контекстом

Представлена новая модель Qwen2.5-1M, способная обрабатывать контекст на уровне 1 миллиона токенов, что позволяет загружать в чат целые книги и задавать по ним вопросы.

Для сравнения, модель DeepSeek V3 имеет контекстное окно всего в 128 тысяч токенов, тогда как ожидаемая модель OpenAI o3-mini будет поддерживать около 256 тысяч токенов, когда выйдет.

Использование Qwen2.5-1M является бесплатным и доступно через веб-браузер. Среди возможностей данной модели — написание кода, веб-поиск, а также генерация изображений и видео.

Новая языковая модель с рекордным контекстом

Новая языковая модель с рекордным контекстом

Источник: @typespace

Похожие новости

Нейросеть GigaChat расширяет возможности логического анализа

Разработчики GigaChat внедрили в систему режим «Рассуждать», который позволяет искусственному интеллекту работать с логическими цепочками. Теперь нейросеть способна строить последовательные рассуждения, проверять промежуточные шаги, обрабатывать данные и делать обоснованные выводы.…

Илон Маск анонсировал внедрение голосового ИИ Grok в автомобили Tesla

В результате подтвержденных заявлений, стало известно, что голосовой интеллектуальный ассистент Grok, разработанный стартапом xAI под руководством Илона Маска, уже скоро появится в моделях Tesla. Внедрение этой технологии станет важным шагом…