Große Sprachmodelle: Abschnittskatalog
Jump to navigation
Jump to search
Verzeichnis der Artikel im Systems Analysis Wiki zum systemischen Ansatz zum Thema Große Sprachmodelle (large language model, LLM)
Website: systems-analysis.ru
Große Sprachmodelle (LLM)
- Große Sprachmodelle
- Theoretische Grundlagen von LLMs
- LLM-Architekturen
- Transformer-Architektur
- Encoder
- Decoder
- Encoder-only
- Decoder-only
- Encoder-Decoder
- Tokenization
- Token
- Embedding
- Kontextfenster
- Training großer Sprachmodelle
- Pre-Training
- Fine-Tuning
- In-Context Learning
- Top-p
- Top-k
- Temperatur (LLM)
- Halluzinationen und fehlerhafte Antworten von LLMs
- Datenverzerrungen und Bias
- Kontextuelles Vergessen
- Generierungsbias
- Mixture-of-Experts (MoE)
- Reduzierung von LLM-Fehlern
- Kostenoptimierung bei der Nutzung von LLMs
- Open-Weight- und Closed-Weight-Modelle
- Constitutional AI
- Explainable AI
- RLHF
- Direct Preference Optimization
- Low‑Rank Adaptation (LoRA)
- PEFT
- Vektordatenbanken
- Multimodale LLMs
- Jailbreaks
- FlashAttention
- FlashAttention-2
- FlashAttention-3
- Stop-Sequenzen
- Generierung synthetischer Daten
- Multimodales Reasoning
- Stochastischer Papagei
Verzeichnis großer Sprachmodelle (LLM)
- T5
- LaMDA
- PaLM
- BERT
- Chinchilla
- Huawei PanGu
- IBM Granite
- BLOOM
- Mixtral
- DBRX
- GPT
- Claude
- Gemma
- Gemini
- LLaMA
- Mistral
- DeepSeek
- Grok
- Qwen
- Phi
- Jais
- Jamba
- Cohere
- Falcon
- Perplexity
- YandexGPT
- Huggingface
- Große Sprachmodelle von OpenAI
- Große Sprachmodelle von Google
- Große Sprachmodelle. Verzeichnis der Modelle
Prompt Engineering (LLM)
- Prompt
- Prompt Engineering
- Prompt und Kontext
- Grundlegende Techniken des Prompt Engineering
- Retrieval‑Augmented Generation (RAG)
- Chain-of-Thought Prompting
- Few-Shot und Zero-Shot
- Role Prompting
- Tree of Thoughts
- Self‑Refine Prompting
- Self-Consistency Prompting
- Meta Prompting
- Multi‑Agent Prompting
- Prompt Compression
- Program of Thoughts Prompting
- Generated Knowledge Prompting
- Multimodal CoT Prompting
- Graph-of-Thoughts
- Chain-of-Verification
- Toolformer
- Least-to-Most Prompting
- Automatic Prompt Engineer (APE)
- ReAct Prompting
- Function Calling
- RAG-Patterns
- GraphRAG
- MM-RAG (Multimodal RAG)
- Hypothetical Document Expansion
- Hybrid Retrieval
- Packaging & Context Handling
- Prompt Engineering. Verzeichnis des Abschnitts
KI-Agenten (LLM)
- KI-Agent
- Agentic Workflows
- Multi‑Agent Frameworks
- LangChain
- AutoGPT
- Multi-Agent Debate
Bewertung und metrischer Vergleich (LLM)
- Bewertung von LLMs
- Qualitätsmetriken für LLMs
- Perplexität
- BLEU
- ROUGE
- BERTScore
- METEOR
- MAUVE
- LLM‑as‑a‑Judge
Benchmarks und Datensätze (LLM)
- LLM-Benchmarks
- MMLU Benchmark
- HellaSwag Benchmark
- HumanEval Benchmark
- TruthfulQA Benchmark
- MT-Bench Benchmark
- GLUE Benchmark
- SuperGLUE
- Humanity's Last Exam
- GSM8K (Grade School Math 8K)
- WinoGrande Benchmark
- AgentHarm
- SafetyBench
- SWE-bench
- BIG-bench
- MATH Benchmark
- FLORES‑200
- RealToxicityPrompts
- PromptRobust
- BOLD
- BBQ
- LMArena
- ELO-Ranking von Modellen