Cohere Inc. (DE)
Cohere ist ein kanadisches Technologieunternehmen im Bereich der künstlichen Intelligenz, das sich auf die Entwicklung von großen Sprachmodellen (LLMs) für den Unternehmenssektor (Enterprise AI) spezialisiert hat. Das Unternehmen wurde 2019 in Toronto von ehemaligen Forschern von Google Brain gegründet und positioniert sich als eine der wichtigsten Alternativen zu OpenAI[1].
Der Hauptfokus von Cohere liegt darauf, Unternehmen sichere, anpassbare und skalierbare KI-Lösungen anzubieten. Im Gegensatz zu vielen Wettbewerbern, die sich auf den Verbrauchermarkt konzentrieren, setzte Cohere von Anfang an auf Unternehmenskunden, was seinen technologischen Ansatz prägte.
Geschichte und Finanzierung
Cohere wurde 2019 von drei Mitbegründern gegründet: Aidan Gomez, Ivan Zhang und Nick Frosst. Aidan Gomez ist einer der Mitautoren der wegweisenden wissenschaftlichen Arbeit von 2017, „Attention Is All You Need“, die die Transformer-Architektur der Welt vorstellte[1]. Im Dezember 2022 wurde Martin Kon, der ehemalige Finanzvorstand von YouTube, Präsident und Chief Operating Officer (COO) des Unternehmens[1].
Das Unternehmen hat beeindruckende Ergebnisse bei der Kapitalbeschaffung erzielt:
- Im Jahr 2023 wurden im Rahmen einer Finanzierungsrunde der Serie C 270 Millionen US-Dollar eingeworben, was zu einer Unternehmensbewertung von 2,1–2,2 Milliarden US-Dollar führte[2].
- Im Jahr 2024 sammelte das Unternehmen weitere 500 Millionen US-Dollar ein, wodurch seine Bewertung auf 5,5 Milliarden US-Dollar stieg[3].
Zu den wichtigsten Investoren von Cohere gehören PSP Investments, Cisco Systems, AMD, Fujitsu, NVIDIA, Salesforce Ventures, Oracle und Google Cloud[1][2].
Technologischer Stack
Retrieval-Augmented Generation (RAG)
Eine zentrale Technologie im Ansatz von Cohere ist die Retrieval-Augmented Generation (RAG) – eine durch Informationsabruf erweiterte Generierung. RAG ermöglicht es Modellen, in Echtzeit auf externe Wissensdatenbanken zuzugreifen, was ihre Antworten auf faktischen Daten „erdet“, „Halluzinationen“ reduziert und die Aktualität der Informationen sicherstellt[4]. Die Modelle Command R und Command A sind speziell für den mehrstufigen Einsatz von Tools in RAG-Systemen optimiert[5].
Mehrsprachigkeit
Cohere legt besonderen Wert auf Mehrsprachigkeit. Das Unternehmen hat Modelle entwickelt, die auf Daten von Muttersprachlern trainiert wurden, was eine hohe Qualität der Ergebnisse gewährleistet. Beispielsweise unterstützt das Open-Source-Modell Aya über 100 Sprachen, einschließlich Russisch, während die Command-Familie mehr als 10 wichtige Weltsprachen unterstützt.
Sicherheit und Bereitstellung
Cohere bietet flexible Bereitstellungsoptionen, einschließlich einer SaaS-Plattform, privater Cloud-Deployments und der Integration mit Plattformen von Drittanbietern (Amazon SageMaker, Google Vertex AI, Azure). Das Unternehmen legt besonderen Wert auf die Sicherheit von Unternehmensdaten und bietet die Möglichkeit, deren Verwendung für das Training auszuschließen (Opt-out) sowie die Konformität mit dem SOC 2 Typ II-Standard[6].
Produkt- und Modellpalette
Cohere entwickelt verschiedene Arten von Modellen, die für unterschiedliche Phasen der Sprachverarbeitung konzipiert sind.
Command (Generative Modelle)
Command ist die Flaggschiff-Familie der generativen Modelle.
- Command A: Das effizienteste Modell (Stand 2025) mit 111 Milliarden Parametern. Es unterstützt ein Kontextfenster von 256.000 Token und kann auf nur zwei GPUs betrieben werden, während konkurrierende Modelle bis zu 32 benötigen[7]. Es zeigt eine Generierungsgeschwindigkeit von bis zu 156 Token pro Sekunde, was 1,75-mal schneller ist als GPT-4o[8].
- Command R+: Ein leistungsstarkes Modell mit 104 Milliarden Parametern und einem Kontextfenster von 128.000 Token. Es übertrifft viele Konkurrenzmodelle und nähert sich den Fähigkeiten von GPT-4 Turbo an[9].
- Command R: Ein Modell mit 35 Milliarden Parametern, das für dialogorientierte Aufgaben mit hoher Genauigkeit entwickelt wurde[10].
Spezialisierte Modelle
- Aya: Ein quelloffenes, mehrsprachiges Modell, das über 100 Sprachen unterstützt. Es wurde unter Beteiligung von mehr als 3000 Forschern aus 119 Ländern entwickelt[11].
- Embed: Modelle zur Erstellung von Vektoreinbettungen von Text. Embed 4 unterstützt Multimodalität und ein Kontextfenster von 128.000 Token[12].
- Rerank: Modelle zur Verbesserung der Suchqualität in RAG-Systemen.
Partnerschaften und Integrationen
Cohere entwickelt aktiv Partnerschaften mit großen Technologieunternehmen, darunter:
- Oracle: Integration der Cohere-Technologien in Oracle Fusion Cloud und NetSuite[13].
- Salesforce: Einbettung von Chat-Funktionen in Salesforce-Produkte[1].
- Fujitsu: Gemeinsame Entwicklung des japanischen Sprachmodells Takane[14].
- McKinsey: Zusammenarbeit im Bereich der Integration von generativer KI in Unternehmensprozesse[1].
Anwendung in verschiedenen Branchen
- Bildung: Cohere wird zur Erstellung von Unterrichtsplänen, zur Klassifizierung und zur Unterstützung mehrsprachiger Initiativen eingesetzt[15][16].
- Gesundheitswesen und Wissenschaft: Die Modelle werden zur Formulierung wissenschaftlicher Protokolle, zur Analyse medizinischer Daten und zur Unterstützung der Forschung eingesetzt[17].
- Unternehmenslösungen: Automatisierung des Dokumentenmanagements, Datenanalyse, Erstellung von Marketingtexten und Kundenservice[5].
Siehe auch
Literatur
- Cohere Team (2025). Command A: An Enterprise‑Ready Large Language Model. arXiv:2504.00698.
- Üstün, A.; et al. (2024). Aya Model: An Instruction Finetuned Open‑Access Multilingual Language Model. arXiv:2402.07827.
- Singh, S.; et al. (2024). Aya Dataset: An Open‑Access Collection for Multilingual Instruction Tuning. arXiv:2402.06619.
- Cohere Team (2024). Command R & Command R+: Technical Overview. PDF.
- Gao, Y.; et al. (2024). Retrieval‑Augmented Generation for Large Language Models: A Survey. arXiv:2312.10997.
- Yu, H.; et al. (2024). Evaluation of Retrieval‑Augmented Generation: A Survey. arXiv:2405.07437.
- Zhu, W.; et al. (2025). PSC: Extending Context Window of Large Language Models via Phase Shift Calibration. arXiv:2505.12423.
- Gao, Y.; et al. (2024). Fine‑Tuning vs. Retrieval‑Augmented Generation for Less Popular Entities. arXiv:2403.01432.
- Yu, L.; et al. (2025). Synergizing RAG and Reasoning: A Systematic Review. arXiv:2504.15909.
- Wang, Y.; et al. (2025). Universal Embeddings for Multimodal Multilingual Retrieval. arXiv:2506.18902.
Einzelnachweise
- ↑ 1.0 1.1 1.2 1.3 1.4 1.5 „Cohere (company)“. In: Wikipedia. [1]
- ↑ 2.0 2.1 „KI-Startup Cohere, das jetzt mit über 2,1 Milliarden US-Dollar bewertet wird, hat 270 Millionen US-Dollar eingeworben“. Most Ecosystem. [2]
- ↑ „Cohere erhält einen Zuwachs von 500 Millionen“. Unite.AI. [3]
- ↑ „Rethinking the RAG vs Fine-tuning Debate“. arXiv. [4]
- ↑ 5.0 5.1 „Cohere Command R: Was es ist und wie man es benutzt?“. ServerNews. [5]
- ↑ „Enterprise Data Commitments“. Cohere Docs. [6]
- ↑ „Cohere hat Command A veröffentlicht – das heute effizienteste KI-Modell für Unternehmen“. Habr. [7]
- ↑ „Cohere veröffentlicht ein kostengünstiges KI-Modell, das nur zwei GPUs benötigt“. DSmedia. [8]
- ↑ „LLM für Unternehmen: Was Command R von Cohere kann“. VC.ru. [9]
- ↑ „Cohere Command R“. AIGenom. [10]
- ↑ „Cohere for AI startet den KI-Polyglott Aya“. Компьютерра. [11]
- ↑ „Cohere hat Embed 4 vorgestellt – sein leistungsstärkstes Modell zur Erstellung von Vektoreinbettungen“. Habr. [12]
- ↑ „Oracle, Salesforce Ventures and Nvidia invest in Cohere“. ERP Today. [13]
- ↑ „Fujitsu and Cohere to Partner on Developing Generative AI for the Japanese Language“. Fujitsu Press Releases. [14]
- ↑ „Evaluating the Practicality of Retrieval-Augmented Generation in Student-Facing Educational Technology“. arXiv. [15]
- ↑ „A Confusion Classification System for Online Learning Based on Multimodal Information“. IEEE Xplore. [16]
- ↑ „Using large language models to streamline the creation of research protocols“. BMC Medical Education. [17]