YandexGPT

Материал из Systems analysis wiki
Перейти к навигации Перейти к поиску

YandexGPT (Yet another GPT) — семейство больших языковых моделей, разработанных Яндекс и впервые представленное в мае 2023 года.[1] Сети YandexGPT используются во встроенном помощнике Алиса, Поиске и других сервисах, а также доступны через публичный API платформы Yandex Cloud.[2]

YaLM‑100B (2022) — предшествующая исследовательская модель на 100 млрд параметров и открытым кодом; она послужила «доказательством концепции», но YandexGPT создавалась отдельно для коммерческого применения.[3]

 История релизов

Основные версии
Дата Релиз Ключевые особенности
Июн 2022 YaLM‑100B 100 B параметров, 1.7 ТБ данных; Apache 2.0.[3]
17 мая 2023 YandexGPT 1.0 Интеграция в «Алису».[1]
7 сен 2023 YandexGPT 2 +67 % качества по внутренним тестам.[4]
28 мар 2024 YandexGPT 3 Pro / Lite Новая корпоративная линейка API.[5]
24 окт 2024 YandexGPT 4 Pro / Lite Контекст 32 000 токенов; скрытые рассуждения (chain‑of‑thought).[6]
25 фев 2025 YandexGPT 5 Pro Паритет с GPT‑4o в 64 % задач.[7]
31 мар 2025 YandexGPT 5 Lite Instruct 8‑млрд модель в открытом доступе; формат Llama.[8]

 Архитектура и обучение

  • Базовая архитектура: трансформер, оптимизированный под русский язык.
  • YandexGPT 5 Lite: Llama‑совместимая; pre‑training ≈ 15 трлн токенов, последующий fine‑tuning ≈ 320 млрд.[8]

 Контекст и лимиты 

  • Архитектурный предел контекста — 32 000 токенов (версии 4/5).[6]
  • Публичный API ограничивает один запрос (prompt + completion) 7 400 токенами.[9]
  • Максимальный размер **ответа** — 2 000 токенов согласно разделу «Quotas and limits».[10]

 Текущие модели (июнь 2025)

Модель Параметры Контекст Лицензия Примечания
YandexGPT 5 Pro н/д 32 000 проприетарная Доступ через API и «Алиса Про».[7]
YandexGPT 5 Lite 8 млрд 32 000 Yandex GPT‑Lite License Открытая; Llama‑совместима.[8]
YaLM‑100B 100 млрд 2 048 Apache 2.0 Исходный проект.[3]

 Бенчмарки

  • Внутренние тесты: 5 Pro достиг паритета с GPT‑4o в 64 % задач; превышение над 4 Pro — 67 %.[7]
  • ru‑LLM Arena: YandexGPT удерживает лидерство по ELO‑рейтингу среди русскоязычных моделей.[11]

 Fine‑tuning

Для 5 Lite официально поддерживается метод LoRA; пример запуска опубликован в model card.[8]

 API‑режимы

  • Синхронный — быстрые ответы (Lite).
  • Асинхронный — ресурсоёмкие задачи (Pro).[2]

 Мультимодальность

Семейство YandexGPT остаётся текстовым; мультимодальные сервисы («Neuro», «YandexArt», «Yandex Vision») развиваются отдельно.[6]

 Ссылки

Литература

  • Matkin, N. et al. (2024). Comparative Analysis of Encoder-Based NER and Large Language Models for Skill Extraction from Russian Job Vacancies. arXiv:2407.19816.
  • Tsanda, A.; Bruches, E. (2024). Russian-Language Multimodal Dataset for Automatic Summarization of Scientific Papers. arXiv:2405.07886.
  • Goloburda, M. et al. (2025). Qorǵau: Evaluating LLM Safety in Kazakh-Russian Bilingual Contexts. arXiv:2502.13640.
  • Togmanov, M. et al. (2025). KazMMLU: Evaluating Language Models on Kazakh, Russian, and Regional Knowledge of Kazakhstan. arXiv:2502.12829.
  • Noels, S. et al. (2025). What Large Language Models Do Not Talk About: An Empirical Study of Moderation and Censorship Practices. arXiv:2504.03803.

 Примечания

  1. 1,0 1,1 «“Яндекс” добавил в “Алису” аналог ChatGPT». РБК. [1]
  2. 2,0 2,1 «Getting started with YandexGPT (Quickstart)». Yandex Cloud Docs. [2]
  3. 3,0 3,1 3,2 «yandex/YaLM‑100B: Pretrained language model with 100B». GitHub. [3]
  4. «Как “Яндекс” решил зарабатывать на своём аналоге ChatGPT». РБК. [4]
  5. «“Яндекс” представил третье поколение нейросетей YandexGPT». РБК. [5]
  6. 6,0 6,1 6,2 «Более мощное семейство моделей YandexGPT 4». Habr. [6]
  7. 7,0 7,1 7,2 «“Яндекс” внедрил YandexGPT 5 Pro в чат с “Алисой Про”». AdIndex. [7]
  8. 8,0 8,1 8,2 8,3 «yandex/YandexGPT‑5‑Lite‑8B‑pretrain». Hugging Face. [8]
  9. «ChatYandexGPT API Reference (max_tokens = 7400)». LangChain Docs. [9]
  10. «Yandex Cloud service quotas and limits → Foundation Models». Yandex Cloud Docs. [10]
  11. «llmarena/llmarena — российская краудсорсинговая платформа оценки LLM». GitHub. [11]