Большие языковые модели. Каталог раздела
Перейти к навигации
Перейти к поиску
Каталог статей Systems Anslysis Wiki по системному подходу по теме Большие языковые модели (large language model, LLM)
Cайт: systems-analsyis.ru
Большие языковые модели (LLM)
- Большие языковые модели
- Теоретические основы LLM
- Архитектуры LLM
- Архитектура Transformer
- Encoder
- Decoder
- Encoder-only
- Decoder-only
- Encoder-Decoder
- Tokenization
- Токен
- Embedding
- Контекстное окно
- Обучение больших языковых моделей
- Предобучение
- Fine-tuning
- In-Context Learning
- Top-p
- Top-k
- Температура (LLM)
- Галлюцинации и некорректные ответы LLM
- Искажения данных и bias
- Контекстное забывание
- Предвзятость в генерации
- Mixture-of-Experts (MoE)
- Снижение ошибок LLM
- Оптимизация затрат на использование LLM
- Open-weight и Closed-weight модели
- Constitutional AI
- Explainable AI
- RLHF
- Direct Preference Optimization
- Low‑Rank Adaptation (LoRA)
- PEFT
- Векторные базы данных
- Мультимодальные LLM
- Jailbreaks
- FlashAttention
- FlashAttention-2
- FlashAttention-3
- Stop sequences
- Генерация синтетических данных
- Мультимодальное рассуждение
- Стохастический попугай
Каталог больших языковых моделей (LLM)
Prompt инжиниринг (LLM)
- Prompt
- Prompt инжиниринг
- Prompt и контекст
- Основные приёмы Prompt Engineering
- Retrieval‑Augmented Generation (RAG)
- Chain-of-Thought Prompting
- Few-shot и Zero-shot
- Role Prompting
- Tree of Thoughts
- Self‑refine prompting
- Self-consistency prompting
- Meta Prompting
- Multi‑agent prompting
- Prompt compression
- Program of Thoughts Prompting
- Generated Knowledge Prompting
- Multimodal CoT Prompting
- Graph-of-Thoughts
- Chain-of-Verification
- Toolformer
- Least-to-Most Prompting
- Automatic Prompt Engineer (APE)
- ReAct Prompting
- Function Calling
- RAG-паттерны
- GraphRAG
- MM-RAG (Multimodal RAG)
- Hypothetical Document Expansion
- Hybrid Retrieval
- Packaging & Context Handling
- Prompt engineering. Каталог раздела
AI-агенты (LLM)
Оценка и метрическое сравнение (LLM)
Бенчмарки и датасеты (LLM)
- Бенчмарки LLM
- MMLU benchmark
- HellaSwag benchmark
- HumanEval benchmark
- TruthfulQA benchmark
- MT-Bench benchmark
- GLUE benchmark
- SuperGLUE
- Humanity's Last Exam
- GSM8K (Grade School Math 8K)
- WinoGrande benchmark
- AgentHarm
- SafetyBench
- SWE-bench
- BIG-bench
- MATH benchmark
- FLORES‑200
- RealToxicityPrompts
- PromptRobust
- BOLD
- BBQ
- LMArena
- ELO‑ранжирование моделей