Grandes Modelos de Linguagem: Catálogo da seção
Jump to navigation
Jump to search
Catálogo de artigos da Systems Analysis Wiki sobre a abordagem de sistemas no tema de Grandes Modelos de Linguagem (large language model, LLM)
Site: systems-analysis.ru
Grandes Modelos de Linguagem (LLM)
- Grandes Modelos de Linguagem
- Bases Teóricas de LLMs
- Arquiteturas de LLMs
- Arquitetura Transformer
- Encoder
- Decoder
- Encoder-only
- Decoder-only
- Encoder-Decoder
- Tokenização
- Token
- Embeddings
- Janela de Contexto
- Treinamento de Grandes Modelos de Linguagem
- Pré-treinamento
- Fine-tuning
- In-Context Learning
- Top-p
- Top-k
- Temperatura (LLM)
- Alucinações e respostas incorretas de LLMs
- Distorções de dados e viés (bias)
- Esquecimento contextual
- Viés na geração
- Mixture-of-Experts (MoE)
- Redução de erros em LLMs
- Otimização de custos no uso de LLMs
- Modelos Open-weight e Closed-weight
- Constitutional AI
- Explainable AI
- RLHF
- Direct Preference Optimization
- Low‑Rank Adaptation (LoRA)
- PEFT
- Bancos de dados vetoriais
- LLMs Multimodais
- Jailbreaks
- FlashAttention
- FlashAttention-2
- FlashAttention-3
- Stop sequences
- Geração de dados sintéticos
- Raciocínio multimodal
- Papagaio estocástico
Catálogo de Grandes Modelos de Linguagem (LLM)
- T5
- LaMDA
- PaLM
- BERT
- Chinchilla
- Huawei PanGu
- IBM Granite
- BLOOM
- Mixtral
- DBRX
- GPT
- Claude
- Gemma
- Gemini
- LLaMA
- Mistral
- DeepSeek
- Grok
- Qwen
- Phi
- Jais
- Jamba
- Cohere
- Falcon
- Perplexity
- YandexGPT
- Huggingface
- Grandes Modelos de Linguagem da OpenAI
- Grandes Modelos de Linguagem do Google
- Grandes Modelos de Linguagem. Catálogo de modelos
Engenharia de Prompt (LLM)
- Prompt
- Engenharia de Prompt
- Prompt e contexto
- Técnicas básicas de Engenharia de Prompt
- Retrieval‑Augmented Generation (RAG)
- Chain-of-Thought Prompting
- Few-shot e Zero-shot
- Role Prompting
- Tree of Thoughts
- Self‑refine prompting
- Self-consistency prompting
- Meta Prompting
- Multi‑agent prompting
- Prompt compression
- Program of Thoughts Prompting
- Generated Knowledge Prompting
- Multimodal CoT Prompting
- Graph-of-Thoughts
- Chain-of-Verification
- Toolformer
- Least-to-Most Prompting
- Automatic Prompt Engineer (APE)
- ReAct Prompting
- Function Calling
- Padrões de RAG
- GraphRAG
- MM-RAG (Multimodal RAG)
- Hypothetical Document Expansion
- Hybrid Retrieval
- Packaging & Context Handling
- Engenharia de Prompt. Catálogo da Seção
Agentes de IA (LLM)
- Agente de IA
- Agentic workflows
- Multi‑Agent Frameworks
- LangChain
- AutoGPT
- Multi-Agent Debate
Avaliação e Comparação Métrica (LLM)
- Avaliação de LLMs
- Métricas de qualidade de LLMs
- Perplexidade
- BLEU
- ROUGE
- BERTScore
- METEOR
- MAUVE
- LLM‑as‑a‑Judge
Benchmarks e Datasets (LLM)
- Benchmarks de LLMs
- MMLU benchmark
- HellaSwag benchmark
- HumanEval benchmark
- TruthfulQA benchmark
- MT-Bench benchmark
- GLUE benchmark
- SuperGLUE
- Humanity's Last Exam
- GSM8K (Grade School Math 8K)
- WinoGrande benchmark
- AgentHarm
- SafetyBench
- SWE-bench
- BIG-bench
- MATH benchmark
- FLORES‑200
- RealToxicityPrompts
- PromptRobust
- BOLD
- BBQ
- LMArena
- Ranking ELO de modelos