Grandes Modelos de Linguagem: Catálogo da seção

From Systems analysis wiki
Jump to navigation Jump to search

Catálogo de artigos da Systems Analysis Wiki sobre a abordagem de sistemas no tema de Grandes Modelos de Linguagem (large language model, LLM)

Site: systems-analysis.ru

Grandes Modelos de Linguagem (LLM)

  • Grandes Modelos de Linguagem
  • Bases Teóricas de LLMs
  • Arquiteturas de LLMs
  • Arquitetura Transformer
  • Encoder
  • Decoder
  • Encoder-only
  • Decoder-only
  • Encoder-Decoder
  • Tokenização
  • Token
  • Embeddings
  • Janela de Contexto
  • Treinamento de Grandes Modelos de Linguagem
  • Pré-treinamento
  • Fine-tuning
  • In-Context Learning
  • Top-p
  • Top-k
  • Temperatura (LLM)
  • Alucinações e respostas incorretas de LLMs
  • Distorções de dados e viés (bias)
  • Esquecimento contextual
  • Viés na geração
  • Mixture-of-Experts (MoE)
  • Redução de erros em LLMs
  • Otimização de custos no uso de LLMs
  • Modelos Open-weight e Closed-weight
  • Constitutional AI
  • Explainable AI
  • RLHF
  • Direct Preference Optimization
  • Low‑Rank Adaptation (LoRA)
  • PEFT
  • Bancos de dados vetoriais
  • LLMs Multimodais
  • Jailbreaks
  • FlashAttention
  • FlashAttention-2
  • FlashAttention-3
  • Stop sequences
  • Geração de dados sintéticos
  • Raciocínio multimodal
  • Papagaio estocástico

Catálogo de Grandes Modelos de Linguagem (LLM)

  • T5
  • LaMDA
  • PaLM
  • BERT
  • Chinchilla
  • Huawei PanGu
  • IBM Granite
  • BLOOM
  • Mixtral
  • DBRX
  • GPT
  • Claude
  • Gemma
  • Gemini
  • LLaMA
  • Mistral
  • DeepSeek
  • Grok
  • Qwen
  • Phi
  • Jais
  • Jamba
  • Cohere
  • Falcon
  • Perplexity
  • YandexGPT
  • Huggingface
  • Grandes Modelos de Linguagem da OpenAI
  • Grandes Modelos de Linguagem do Google
  • Grandes Modelos de Linguagem. Catálogo de modelos

Engenharia de Prompt (LLM)

  • Prompt
  • Engenharia de Prompt
  • Prompt e contexto
  • Técnicas básicas de Engenharia de Prompt
  • Retrieval‑Augmented Generation (RAG)
  • Chain-of-Thought Prompting
  • Few-shot e Zero-shot
  • Role Prompting
  • Tree of Thoughts
  • Self‑refine prompting
  • Self-consistency prompting
  • Meta Prompting
  • Multi‑agent prompting
  • Prompt compression
  • Program of Thoughts Prompting
  • Generated Knowledge Prompting
  • Multimodal CoT Prompting
  • Graph-of-Thoughts
  • Chain-of-Verification
  • Toolformer
  • Least-to-Most Prompting
  • Automatic Prompt Engineer (APE)
  • ReAct Prompting
  • Function Calling
  • Padrões de RAG
  • GraphRAG
  • MM-RAG (Multimodal RAG)
  • Hypothetical Document Expansion
  • Hybrid Retrieval
  • Packaging & Context Handling
  • Engenharia de Prompt. Catálogo da Seção

Agentes de IA (LLM)

Avaliação e Comparação Métrica (LLM)

  • Avaliação de LLMs
  • Métricas de qualidade de LLMs
  • Perplexidade
  • BLEU
  • ROUGE
  • BERTScore
  • METEOR
  • MAUVE
  • LLM‑as‑a‑Judge

Benchmarks e Datasets (LLM)

  • Benchmarks de LLMs
  • MMLU benchmark
  • HellaSwag benchmark
  • HumanEval benchmark
  • TruthfulQA benchmark
  • MT-Bench benchmark
  • GLUE benchmark
  • SuperGLUE
  • Humanity's Last Exam
  • GSM8K (Grade School Math 8K)
  • WinoGrande benchmark
  • AgentHarm
  • SafetyBench
  • SWE-bench
  • BIG-bench
  • MATH benchmark
  • FLORES‑200
  • RealToxicityPrompts
  • PromptRobust
  • BOLD
  • BBQ
  • LMArena
  • Ranking ELO de modelos