Cohere Inc. (ES)

From Systems analysis wiki
Jump to navigation Jump to search

Cohere es una empresa tecnológica canadiense de inteligencia artificial, especializada en el desarrollo de grandes modelos lingüísticos (LLM) para el sector empresarial (Enterprise AI). La empresa fue fundada en 2019 en Toronto por antiguos investigadores de Google Brain y se posiciona como una de las alternativas clave a OpenAI[1].

El enfoque principal de Cohere es proporcionar a las empresas soluciones de IA seguras, personalizables y escalables. A diferencia de muchos competidores orientados al mercado de consumo, Cohere apostó desde el principio por los clientes corporativos, lo que ha definido su enfoque tecnológico.

Historia y financiación

Cohere fue fundada en 2019 por tres cofundadores: Aidan Gomez, Ivan Zhang y Nick Frosst. Aidan Gomez es uno de los coautores del emblemático artículo científico de 2017 «Attention Is All You Need», que presentó al mundo la arquitectura Transformer[1]. En diciembre de 2022, Martin Kon, ex director financiero de YouTube, se convirtió en el presidente y director de operaciones de la empresa[1].

La empresa ha demostrado resultados impresionantes en la captación de inversiones:

  • En 2023, en una ronda de financiación de Serie C, se recaudaron 270 millones de dólares, lo que llevó a una valoración de la empresa de entre 2.100 y 2.200 millones de dólares[2].
  • En 2024, la empresa recaudó 500 millones de dólares adicionales, aumentando su valoración a 5.500 millones de dólares[3].

Los inversores clave de Cohere incluyen a PSP Investments, Cisco Systems, AMD, Fujitsu, NVIDIA, Salesforce Ventures, Oracle y Google Cloud[1][2].

Pila tecnológica

Retrieval-Augmented Generation (RAG)

La tecnología central en el enfoque de Cohere es la Retrieval-Augmented Generation (RAG), o generación aumentada por recuperación. RAG permite a los modelos acceder a bases de conocimiento externas en tiempo real, lo que "ancla" sus respuestas en datos fácticos, reduce las "alucinaciones" y garantiza la actualidad de la información[4]. Los modelos Command R y Command A están especialmente optimizados para el uso de herramientas en múltiples etapas dentro de sistemas RAG[5].

Soporte multilingüe

Cohere presta especial atención al soporte multilingüe. La empresa ha desarrollado modelos entrenados con datos de hablantes nativos, lo que garantiza una alta calidad de funcionamiento. Por ejemplo, el modelo de código abierto Aya soporta más de 100 idiomas, incluido el ruso, y la familia Command soporta más de 10 de los principales idiomas del mundo.

Seguridad y despliegue

Cohere ofrece opciones de despliegue flexibles, incluyendo una plataforma SaaS, despliegues en nubes privadas e integración con plataformas de terceros (Amazon SageMaker, Google Vertex AI, Azure). La empresa presta especial atención a la seguridad de los datos corporativos, ofreciendo la opción de no utilizarlos para el entrenamiento y cumpliendo con el estándar SOC 2 Tipo II[6].

Línea de productos y modelos

Cohere desarrolla varios tipos de modelos diseñados para diferentes etapas del trabajo con el lenguaje.

Command (Modelos generativos)

Command es la familia insignia de modelos generativos.

  • Command A: El modelo más eficiente (2025) con 111 mil millones de parámetros. Soporta una ventana de contexto de 256,000 tokens y puede funcionar con solo dos GPU, mientras que los modelos de la competencia requieren hasta 32[7]. Demuestra una velocidad de generación de hasta 156 tokens por segundo, lo que es 1.75 veces más rápido que GPT-4o[8].
  • Command R+: Un potente modelo con 104 mil millones de parámetros y una ventana de contexto de 128,000 tokens. Supera a muchos análogos y se acerca a las capacidades de GPT-4 Turbo[9].
  • Command R: Un modelo con 35 mil millones de parámetros, diseñado para tareas conversacionales de alta precisión[10].

Modelos especializados

  • Aya: Un modelo multilingüe de código abierto que soporta más de 100 idiomas. Fue desarrollado con la participación de más de 3000 investigadores de 119 países[11].
  • Embed: Modelos para crear representaciones vectoriales de texto. Embed 4 soporta multimodalidad y una ventana de contexto de 128,000 tokens[12].
  • Rerank: Modelos para mejorar la calidad de la búsqueda en sistemas RAG.

Alianzas e integraciones

Cohere desarrolla activamente alianzas con grandes empresas tecnológicas, entre ellas:

  • Oracle: Integración de las tecnologías de Cohere en Oracle Fusion Cloud y NetSuite[13].
  • Salesforce: Incorporación de capacidades de chat en los productos de Salesforce[1].
  • Fujitsu: Desarrollo conjunto del modelo de lenguaje japonés Takane[14].
  • McKinsey: Colaboración en la integración de IA generativa en las operaciones corporativas[1].

Aplicaciones en diversas industrias

  • Educación: Cohere se utiliza para crear planes de lecciones educativas, clasificación y apoyo a iniciativas multilingües[15][16].
  • Salud y ciencia: Los modelos se aplican para formular protocolos científicos, analizar datos médicos y apoyar la investigación[17].
  • Soluciones corporativas: Automatización del flujo de documentos, análisis de datos, redacción de textos de marketing y servicio al cliente[5].

Véase también

  • Grandes modelos lingüísticos

Bibliografía

  • Cohere Team (2025). Command A: An Enterprise‑Ready Large Language Model. arXiv:2504.00698.
  • Üstün, A.; et al. (2024). Aya Model: An Instruction Finetuned Open‑Access Multilingual Language Model. arXiv:2402.07827.
  • Singh, S.; et al. (2024). Aya Dataset: An Open‑Access Collection for Multilingual Instruction Tuning. arXiv:2402.06619.
  • Cohere Team (2024). Command R & Command R+: Technical Overview. PDF.
  • Gao, Y.; et al. (2024). Retrieval‑Augmented Generation for Large Language Models: A Survey. arXiv:2312.10997.
  • Yu, H.; et al. (2024). Evaluation of Retrieval‑Augmented Generation: A Survey. arXiv:2405.07437.
  • Zhu, W.; et al. (2025). PSC: Extending Context Window of Large Language Models via Phase Shift Calibration. arXiv:2505.12423.
  • Gao, Y.; et al. (2024). Fine‑Tuning vs. Retrieval‑Augmented Generation for Less Popular Entities. arXiv:2403.01432.
  • Yu, L.; et al. (2025). Synergizing RAG and Reasoning: A Systematic Review. arXiv:2504.15909.
  • Wang, Y.; et al. (2025). Universal Embeddings for Multimodal Multilingual Retrieval. arXiv:2506.18902.

Notas

  1. 1.0 1.1 1.2 1.3 1.4 1.5 «Cohere (company)». En Wikipedia. [1]
  2. 2.0 2.1 «La startup de IA Cohere, valorada en más de 2.100 millones de dólares, recauda 270 millones». Most Ecosystem. [2]
  3. «Cohere consigue un impulso de 500 millones». Unite.AI. [3]
  4. «Rethinking the RAG vs Fine-tuning Debate». arXiv. [4]
  5. 5.0 5.1 «Cohere Command R: ¿Qué es y cómo usarlo?». ServerNews. [5]
  6. «Compromisos sobre datos empresariales». Cohere Docs. [6]
  7. «Cohere ha lanzado Command A, el modelo de IA para empresas más eficiente hasta la fecha». Habr. [7]
  8. «Cohere lanza un modelo de IA de bajo coste que solo requiere dos GPU». DSmedia. [8]
  9. «LLM para empresas: de qué es capaz Command R de Cohere». VC.ru. [9]
  10. «Cohere Command R». AIGenom. [10]
  11. «Cohere for AI lanza Aya, la IA políglota». Компьютерра. [11]
  12. «Cohere presenta Embed 4, su modelo más potente para crear representaciones vectoriales». Habr. [12]
  13. «Oracle, Salesforce Ventures and Nvidia invest in Cohere». ERP Today. [13]
  14. «Fujitsu and Cohere to Partner on Developing Generative AI for the Japanese Language». Fujitsu Press Releases. [14]
  15. «Evaluating the Practicality of Retrieval-Augmented Generation in Student-Facing Educational Technology». arXiv. [15]
  16. «A Confusion Classification System for Online Learning Based on Multimodal Information». IEEE Xplore. [16]
  17. «Using large language models to streamline the creation of research protocols». BMC Medical Education. [17]