Claude (Anthropic) — クロード

From Systems analysis wiki
Jump to navigation Jump to search

Claudeは、研究企業Anthropicによって開発された、マルチモーダル大規模言語モデル(LLM)のファミリーです。

トランスフォーマーアーキテクチャに基づいて構築されたClaudeモデルは、安全性、有用性、誠実さを重視したAIアシスタントとして位置づけられています。その開発における重要な特徴は、制御可能で倫理的に整合性のあるシステムの構築を目的としたConstitutional AI(「憲法AI」)という手法です。

歴史と哲学

Anthropicの設立とミッション

Anthropic社は、2021年にOpenAIの元上級社員らによって設立されました。その中には、ダリオ[1]とダニエラ・アモデイ[2]の兄妹も含まれています。彼らがOpenAIを去った理由は、経営陣との開発方針に関する意見の相違でした。特に、Microsoftとの提携や商業化の進展が、AIの安全性へのコミットメントを脅かす可能性があるという懸念が背景にありました。

Anthropicのミッションは「人類の長期的な利益のために、最先端のAIを開発・維持すること」です。同社は米国で公益法人(PBC)として登録されており、法的に、財務上の利益と公共の利益のバランスをとることが義務付けられています。このアプローチは、Long-Term Benefit Trust(LTBTという独自のガバナンス構造によって支えられています。これは独立した組織であり、安全性というミッションへのコミットメントを確保するために、取締役会の構成に影響を与える権限を持っています。

哲学:HHHと憲法AI

Claudeモデルの振る舞いの基本には、HHHHelpful, Honest, and Harmless、つまり有用、誠実、無害)という原則があります。これらの原則を実現するために、Anthropicは独自のトレーニング手法であるConstitutional AI(CAI)を開発しました。

従来の人間のフィードバックに基づく強化学習(RLHF)では、人間のアノテーターがモデルの応答を直接評価しますが、CAIはそれとは異なり、「憲法」と呼ばれる明示的な倫理原則のセットを使用します。モデルはこの憲法に基づいて、自身の応答を自己評価し、修正することを学習します。これにより、プロセスはよりスケーラブルで、透明性が高く、制御可能なものになります。

アーキテクチャと主要技術

トランスフォーマーに基づく基盤

他の現代的なLLMと同様に、Claudeはトランスフォーマーのデコーダアーキテクチャを使用しており、トークン単位で自己回帰的にテキストを生成します。しかし、Anthropicはパフォーマンス、安全性、制御可能性を向上させるために、大幅な改良を加えています。

Constitutional AI (CAI) - 憲法AI

CAIを用いたトレーニングプロセスは、2つの段階で構成されます。

  1. 教師あり学習(Supervised Learning)フェーズ: モデルがプロンプトに対する応答を生成し、その後、別の「批評家」モデルが「憲法」に基づいてそれを評価し、修正案を提示します。この修正案をもとに、元のモデルがファインチューニングされます。
  2. AIからの強化学習(RLAIF)フェーズ: モデルが応答のペアを生成し、「批評家」モデルが「憲法」に基づいてより良い方を選択します。このデータを用いて報酬モデル(reward model)をトレーニングし、その報酬モデルが強化学習アルゴリズムによってメインモデルをさらにファインチューニングするためのシグナルとなります。

長いコンテキストとマルチモーダル性

Claudeの主な利点の一つは、非常に大きなコンテキストウィンドウです。Claude 2の10万トークンから始まり、Claude 3では20万トークン、バージョン3.5および4では100万から200万トークンにまで拡大されました。これにより、モデルは1つのプロンプト内で書籍全体、コードベース、あるいは数時間にわたる文字起こしテキストを分析することができます。

Claude 3ファミリー以降、モデルはマルチモーダルになり、テキストと並行して画像を処理する能力を獲得しました。

ハイブリッド思考とエージェント機能

Claude 3.7および4から、ハイブリッド思考アーキテクチャが導入されました。これにより、モデルは2つのモードを切り替えることができます。

  • 高速応答: 単純なタスクのための標準モード。
  • 拡張思考(Extended Thinking): 複雑なタスクの場合、モデルは一時停止して「思考」し、内部的な推論ステップを実行したり、ツール(ウェブ検索、コード実行)を呼び出したりして、より根拠のある応答を形成します。これにより、プロセスはより透明で信頼性の高いものになります。

Claudeモデルの進化

Claude 1および2 (2023年)

  • Claude 1(2023年3月):初の一般公開バージョン。高速なタスク向けのClaude Instantモデルと、10万トークンのコンテキストウィンドウを持つフラッグシップバージョンを発表しました。
  • Claude 2(2023年7月):ウェブインターフェースを通じて一般利用可能になった改良版。コーディング(Codex HumanEvalで71%)と数学で大幅な改善を示しました。2023年11月には、20万トークンのコンテキストウィンドウを持つClaude 2.1がリリースされました。

Claude 3 (2024年3月)

いくつかのベンチマークで初めてGPT-4を上回ったファミリー。

  • バージョン: Haiku(最速)、Sonnet(バランス型)、Opus(最も強力)。
  • 主な革新: マルチモーダル性(画像分析)の導入、推論とコーディング能力の大幅な向上、不当な応答拒否の削減。OpusはMMLUで86.8%を達成しました。

Claude 3.5 (2024年6月)

知能と速度の向上に焦点を当てた中間世代。

  • Claude 3.5 Sonnet: パフォーマンスでClaude 3 Opusを上回り、速度は2倍になりました。生成されたコードやドキュメントを操作するためのインタラクティブなパネルであるArtifacts[3]機能が導入されました。

Claude 3.7およびClaude 4 (2025年)

エージェント機能と複雑な推論に焦点を当てた世代。

  • Claude 3.7 Sonnet(2025年2月):ハイブリッド思考の導入により、モデルは高速な応答と、深く段階的な推論を組み合わせることが可能になりました。
  • Claude 4(2025年5月):自律型AIエージェントに焦点を当てたフラッグシップファミリー(Opus 4およびSonnet 4)。モデルは複数ステップのタスクを実行し、ファイルシステムを操作し(Computer Use経由)、ツールを呼び出し、パフォーマンスの低下なしに長時間の作業セッション(最大数時間)を維持できます。Opus 4は、難易度の高いコーディングベンチマークSWE-benchで72.5%を記録しました。

Claude世代の比較表

Claudeモデルの主要な特徴の進化
世代 リリース年 主要バージョン 最大コンテキストウィンドウ 主な革新
Claude 1 2023 Claude, Instant 10万トークン 初の一般公開、大規模なコンテキスト。
Claude 2 2023 Claude 2, 2.1 20万トークン コーディングと推論の改善、一般利用可能に。
Claude 3 2024 Opus, Sonnet, Haiku 20万+トークン マルチモーダル性(画像)、GPT-4を超える性能。
Claude 3.5 2024 Sonnet, Haiku 20万+トークン 速度と知能の向上、「Artifacts」機能。
Claude 4 / 3.7 2025 Opus, Sonnet 20万+トークン ハイブリッド思考、エージェント機能、ツール利用。

応用と利用可能性

Claudeモデルは、いくつかのチャネルを通じて利用可能です。

  • claude.aiのウェブインターフェース: 無料アクセス(Sonnetモデル)と、より強力なモデル(Opus)へのアクセスや利用制限が緩和された有料プラン(Pro, Max)を提供しています。
  • 開発者向けAPI: Anthropicは商用APIを提供しており、これによりClaudeをサードパーティのアプリケーションに統合できます。料金はモデルによって異なり、Haikuが最も安価で、Opusが最も高価です。
  • クラウドプラットフォーム: ClaudeはAmazon BedrockおよびGoogle Cloud Vertex AIを通じて利用可能であり、企業環境での利用が容易になっています。
  • インテグレーション: Claudeは、Slack、Notion、Quora(チャットボットPoe内)などの人気サービスに統合されています。

参考文献

外部リンク

参考文献

  • Ouyang, L. et al. (2022). Training Language Models to Follow Instructions with Human Feedback. arXiv:2203.02155.
  • Bai, Y. et al. (2022). Training a Helpful and Harmless Assistant with Reinforcement Learning from Human Feedback. arXiv:2204.05862.
  • Bai, Y. et al. (2022). Constitutional AI: Harmlessness from AI Feedback. arXiv:2212.08073.
  • Bulatov, A. et al. (2023). Scaling Transformer to 1M Tokens and Beyond with RMT. arXiv:2304.11062.
  • Jimenez, C. E. et al. (2023). SWE-bench: Can Language Models Resolve Real-World GitHub Issues?. arXiv:2310.06770.
  • Yuan, W. et al. (2024). Self-Rewarding Language Models. arXiv:2401.10020.
  • Yang, A. et al. (2024). Context Parallelism for Scalable Million-Token Inference. arXiv:2411.01783.
  • Miranda, L. J. V. et al. (2024). Hybrid Preferences: Learning to Route Instances for Human vs AI Feedback. arXiv:2410.19133.
  • Chittepu, Y. et al. (2025). Reinforcement Learning from Human Feedback with High-Confidence Safety Constraints. arXiv:2506.08266.
  • Yuan, W. et al. (2025). Process-based Self-Rewarding Language Models. arXiv:2503.03746.
  • Yang, B. et al. (2025). Long Context Windows in Generative AI: An AI Atlas Report. [4] (tech-report, open review).

脚注

  1. “Dario Amodei”. In Wikipedia [1]
  2. “Daniela Amodei”. In Wikipedia [2]
  3. “What Are Artifacts and How Do I Use Them? | Anthropic Help Center”.[3]