Perplexity (metric) — パープレキシティ
Perplexity AIは、人工知能を活用してユーザーの質問に情報源を明記した上で直接的な回答を提供する、アメリカのスタートアップであり、同名の検索エンジン(会話型検索エンジン)です[1]。同社は2022年に、OpenAI、Meta、Google、DeepMind、Databricks出身の専門家チームによって設立されました[2]。
このプラットフォームは、独自の大規模言語モデル(LLM)と他社の主要なモデルへのアクセスを組み合わせており、これにより回答の速度、精度、コストを最適化することが可能になっています。Perplexityの主要技術は、高度なRetrieval-Augmented Generation (RAG)システムであり、LLMの回答を独自の検索インフラから得た最新情報で補強します[3]。
歴史と創設者
Perplexity AIは2022年に4人の専門家によって設立されました:
- アравиンド・スリニバス(CEO)— OpenAI、Google Brain、DeepMindの元研究員[4]。
- デニス・ヤラッツ(CTO)— Meta AIの元研究科学者。
- ジョニー・ホー(CSO)— Quoraの元エンジニア。
- アンディ・コンウィンスキー — Databricksの共同創設者[2]。
当初、このプロジェクトはデータ分析向けのB2Bサービスとして構想されていましたが、2022年10月にチームはBingとGPT-3を基盤とした検索エンジンのプロトタイプを開発し、これが会社のその後の方向性を決定づけました[5]。
Perplexity AIは、Nvidia、SoftBank、Amazon創業者のジェフ・ベゾスを含む主要な投資家から多額の投資を調達しました。2025年初頭までに、同社の評価額は140億ドルに達し[6]、月間アクティブユーザー数は1,500万人を超えました[7]。
技術アーキテクチャ
Retrieval-Augmented Generation (RAG) - 検索拡張生成
Perplexityの基盤となっているのはRAG技術であり、これにより旧式の知識や「ハルシネーション」といった従来のLLMの限界を克服することができます。動作アルゴリズムは、いくつかの段階で構成されています[8]:
- 最適な検索のためにユーザーのクエリを分析し、再構成する。
- 権威性が高くSEOに偏らない情報源を優先する独自の検索インフラ(クローラーとランキングシステム)を使用して情報を検索する[7]。
- 見つかったウェブページから最も関連性の高い断片(「スニペット」)を抽出する。
- これらの断片に基づいて、LLMを用いて一貫性のある正確な回答を生成する。
- 引用と元の情報源へのリンクを明記した回答を形成する。
マルチモデル戦略
Perplexityは、速度、精度、コストのバランスを取るために、独自モデルとサードパーティ製モデルを組み合わせたハイブリッドアプローチを採用しています[9]。
- 無料版での迅速な回答には、しばしばClaude 3 Haikuが使用されます。
- 有料のPro版では、複雑なタスク向けにClaude 3.5 SonnetやGPT-4oといった、より強力なモデルが利用可能です。
Perplexity Proのサブスクリプションを持つユーザーは、以下を含む幅広いモデルから手動で選択できます[10]:
- OpenAI: GPT-4o, GPT-4 Turbo
- Anthropic: Claude 3.5 Sonnet, Claude 3 Opus, Claude 3 Haiku
- Google: Gemini 2.5 Pro
- Meta: Llama 3
- Mistral AI: Mistral Large
- xAI: Grok-3 Beta
- Perplexityの独自モデル。
Perplexityの独自モデル
同社は、検索タスクとインターネットからの最新情報を取り扱うことに最適化された独自モデルを開発しています。
PPLXファミリー(初期モデル)
APIを通じて利用可能になったPerplexity初の独自モデルは、2023年12月に発表されたpplx-7b-onlineとpplx-70b-onlineでした[11]。これらはそれぞれMistral 7BとLlama 2 70Bのファインチューニング版を基盤としており、オンラインデータの扱いに特化していました[12]。
Sonarファミリー(現行世代)
Sonarは、Meta社のLlama 3.3 70Bを基盤に構築されたフラッグシップモデルファミリーですが、検索モードでの回答の事実精度と可読性を向上させるため、追加のファインチューニングが施されています[13]。
Sonarの主な特徴:
- 高速性: Cerebrasとの提携および同社の専用推論インフラを使用することにより、Sonarは最大毎秒1200トークンの生成速度を達成しており、これはGemini 2.0 Flashのほぼ10倍の速さです[14]。
- 投機的デコーディング技術: 生成をさらに高速化するため、1Bサイズの独自の「ドラフトモデル」が使用されます。これにより、メインモデルは一度のパスで複数のトークンを生成できます[15]。
- 高性能: LM ArenaによるSearch Arenaの評価において、Sonar-Reasoning-Proモデルは1位を獲得し、Gemini-2.5-Pro-Groundingと統計的に同等の性能を示しました[16]。
APIと法人向けソリューション
Perplexityは、開発者や法人顧客向けに、Sonar APIおよびSonar Pro APIを通じて自社モデルへのアクセスを提供しています。これらのAPIは速度と使いやすさに最適化されており、引用機能や検索ソースのカスタマイズ機能も備えています。Perplexityのソリューションは、ネイティブな検索エンジンの構築や研究タスクの自動化のために、様々な業界で利用されています[17]。
比較分析とユーザーエクスペリエンス
Perplexityのパフォーマンスは、タスクの種類によって異なります。
- 最新データに基づく高い事実精度が求められるタスク(例:放射線医学分析)において、PerplexityはClaude、Bing、ChatGPTを上回る最高の精度(0.83)を示しました[18]。
- 希少疾患など、まれで専門的な知識に関連するタスクでは、PerplexityはChatGPTやGeminiといったより広範な知識ベースを持つモデルに劣る場合があります[19]。
ユーザビリティ(SUS)に関する調査では、GoogleとPerplexityの両プラットフォームが許容範囲内であるものの、GoogleがPerplexity(73.98)と比較して高い評価(82.29)を得ました。これは、Googleの使い慣れたインターフェースと、革新的でありながら馴染みの薄い機能を提供するPerplexityの急な学習曲線に起因すると考えられます[20]。
外部リンク
参考文献
- Chen, C.; et al. (2023). Accelerating Large Language Model Decoding with Speculative Sampling. arXiv:2302.01318.
- Zhang, J.; et al. (2023). Draft & Verify: Lossless Large Language Model Acceleration via Self‑Speculative Decoding. arXiv:2309.08168.
- Chen, H.; et al. (2024). Retrieval‑Augmented Generation for Large Language Models: A Survey. arXiv:2312.10997.
- Soudani, H.; et al. (2024). Fine‑Tuning vs. Retrieval‑Augmented Generation for Less‑Popular Knowledge. arXiv:2403.01432.
- Chen, Y.; et al. (2024). Evaluation of Retrieval‑Augmented Generation: A Survey. arXiv:2405.07437.
- Hsieh, C.‑P.; et al. (2024). RULER: What's the Real Context Size of Your Long‑Context Language Models?. arXiv:2404.06654.
- Arena Team (2025). Search Arena: Analyzing Search‑Augmented Large Language Models. arXiv:2506.05334.
- Zhu, W.; et al. (2025). PSC: Extending Context Windows via Phase Shift Calibration. arXiv:2505.12423.
- Yu, L.; et al. (2025). Synergizing RAG and Reasoning: A Systematic Review. arXiv:2504.15909.
- Chen, X.; et al. (2025). Universal Embeddings for Multimodal Multilingual Retrieval. arXiv:2506.18902.
脚注
- ↑ «Perplexity.ai». В Wikipedia, свободная энциклопедия. [1]
- ↑ 2.0 2.1 «Perplexity AI — убийца Google или временное явление». РБК Тренды. [2]
- ↑ «An Introduction to RAG Models». Perplexity AI. [3]
- ↑ «Aravind Srinivas». In Wikipedia. [4]
- ↑ Белоусова, Анастасия. «Как белорус с партнерами построили один из самых дорогих стартапов в мире Perplexity». Forbes.ru. [5]
- ↑ «Стартап Perplexity AI оценили в $14 млрд». Ваш голос. [6]
- ↑ 7.0 7.1 «Поисковая система Perplexity на базе ИИ показала бурный рост и готова конкурировать с Google». 3DNews. [7]
- ↑ «Perplexity: что это за нейросеть, как работает и зачем нужна». TimeWeb.Cloud. [8]
- ↑ «Perplexity и Claude AI: движок для точных ответов». Кедр.pro. [9]
- ↑ «What advanced AI models are included in a Perplexity Pro subscription?». Perplexity Help Center. [10]
- ↑ «Perplexity Unveils Two New Online LLM Models: pplx-7b-online and pplx-70b-online». MarkTechPost. [11]
- ↑ «Introducing PPLX Online LLMs». Perplexity Blog. [12]
- ↑ «Meet a new era of Perplexity Sonar». Perplexity Blog. [13]
- ↑ «Cerebras Powers Perplexity Sonar with Industry's Fastest AI Inference». Cerebras Press Release. [14]
- ↑ «Accelerating Sonar through Speculation». Perplexity Blog. [15]
- ↑ «Perplexity Sonar Dominates New Search Arena». Perplexity Blog. [16]
- ↑ «Introducing the Sonar Pro API». Perplexity Blog. [17]
- ↑ «Comparative Analysis of Large Language Models for Question Answering in Radiology». Thieme Connect. [18]
- ↑ «A Comparative Study of AI Chatbots in Answering Questions on Rare Diseases». MDPI. [19]
- ↑ «Usability and User Satisfaction of Google Search and Perplexity AI». IEEE Xplore. [20]
Category:AI tools