Grandes modelos de lenguaje: Catálogo de la sección

From Systems analysis wiki
Jump to navigation Jump to search

Catálogo de artículos de Systems Analysis Wiki sobre el enfoque de sistemas en el tema de Grandes modelos lingüísticos (large language model, LLM)

Sitio web: systems-analsyis.ru

Grandes modelos lingüísticos (LLM)

  • Grandes modelos lingüísticos
  • Fundamentos teóricos de los LLM
  • Arquitecturas de LLM
  • Arquitectura Transformer
  • Encoder
  • Decoder
  • Encoder-only
  • Decoder-only
  • Encoder-Decoder
  • Tokenización
  • Token
  • Embedding
  • Ventana de contexto
  • Entrenamiento de grandes modelos lingüísticos
  • Preentrenamiento
  • Fine-tuning
  • In-Context Learning
  • Top-p
  • Top-k
  • Temperatura (LLM)
  • Alucinaciones y respuestas incorrectas de los LLM
  • Distorsiones de datos y sesgo
  • Olvido contextual
  • Sesgo en la generación
  • Mixture-of-Experts (MoE)
  • Reducción de errores en LLM
  • Optimización de costos en el uso de LLM
  • Modelos de peso abierto y de peso cerrado
  • Constitutional AI
  • IA explicable
  • RLHF
  • Direct Preference Optimization
  • Low‑Rank Adaptation (LoRA)
  • PEFT
  • Bases de datos vectoriales
  • LLM multimodales
  • Jailbreaks
  • FlashAttention
  • FlashAttention-2
  • FlashAttention-3
  • Secuencias de parada
  • Generación de datos sintéticos
  • Razonamiento multimodal
  • Loro estocástico

Catálogo de grandes modelos lingüísticos (LLM)

  • T5
  • LaMDA
  • PaLM
  • BERT
  • Chinchilla
  • Huawei PanGu
  • IBM Granite
  • BLOOM
  • Mixtral
  • DBRX
  • GPT
  • Claude
  • Gemma
  • Gemini
  • LLaMA
  • Mistral
  • DeepSeek
  • Grok
  • Qwen
  • Phi
  • Jais
  • Jamba
  • Cohere
  • Falcon
  • Perplexity
  • YandexGPT
  • Huggingface
  • Grandes modelos lingüísticos de OpenAI
  • Grandes modelos lingüísticos de Google
  • Grandes modelos lingüísticos. Catálogo de modelos

Ingeniería de prompts (LLM)

  • Prompt
  • Ingeniería de prompts
  • Prompt y contexto
  • Técnicas básicas de la ingeniería de prompts
  • Retrieval‑Augmented Generation (RAG)
  • Chain-of-Thought Prompting
  • Few-shot y Zero-shot
  • Role Prompting
  • Tree of Thoughts
  • Self‑refine prompting
  • Self-consistency prompting
  • Meta Prompting
  • Multi‑agent prompting
  • Compresión de prompts
  • Program of Thoughts Prompting
  • Generated Knowledge Prompting
  • Multimodal CoT Prompting
  • Graph-of-Thoughts
  • Chain-of-Verification
  • Toolformer
  • Least-to-Most Prompting
  • Automatic Prompt Engineer (APE)
  • ReAct Prompting
  • Function Calling
  • Patrones RAG
  • GraphRAG
  • MM-RAG (Multimodal RAG)
  • Hypothetical Document Expansion
  • Recuperación híbrida
  • Empaquetado y manejo de contexto
  • Ingeniería de prompts. Catálogo de la sección

Agentes de IA (LLM)

  • Agente de IA
  • Flujos de trabajo agénticos
  • Frameworks multi‑agente
  • LangChain
  • AutoGPT
  • Debate multiagente

Evaluación y comparación métrica (LLM)

  • Evaluación de LLM
  • Métricas de calidad de LLM
  • Perplejidad
  • BLEU
  • ROUGE
  • BERTScore
  • METEOR
  • MAUVE
  • LLM‑as‑a‑Judge

Benchmarks y datasets (LLM)

  • Benchmarks de LLM
  • MMLU benchmark
  • HellaSwag benchmark
  • HumanEval benchmark
  • TruthfulQA benchmark
  • MT-Bench benchmark
  • GLUE benchmark
  • SuperGLUE
  • Humanity's Last Exam
  • GSM8K (Matemáticas de primaria 8K)
  • WinoGrande benchmark
  • AgentHarm
  • SafetyBench
  • SWE-bench
  • BIG-bench
  • MATH benchmark
  • FLORES‑200
  • RealToxicityPrompts
  • PromptRobust
  • BOLD
  • BBQ
  • LMArena
  • Ranking ELO de modelos