DeskRex.ai

open α

テーマ

データベース

自動化

発見

サインイン

リサーチの結果の保存、レポートの作成、共有が行えます。

サインイン

レポートの一覧に戻る

AI開発の新常識、コンテキストエンジニアリング入門:LLMの性能を最大化する3つの要素

🗓 Created on 7/1/2025

  • 📜要約
  • 📊ビジュアライズ
  • 🖼関連する画像
  • 🔍詳細
    • 🏷AI開発の新潮流:プロンプトからコンテキストエンジニアリングへ
    • 🏷LLMの能力を拡張する主要技術:計画・記憶・ツール利用の実現手法
    • 🏷最先端の応用事例:AIエージェント「Devin」を支える技術と関連ツール
  • 🖍考察
  • 📚参考文献
    • 📖利用された参考文献
    • 📖未使用の参考文献
    • 📊ドメイン統計

📜 要約

主題と目的

本調査の主題は、AI開発の新たなパラダイムとして注目される「コンテキストエンジニアリング」です。その目的は、この概念の定義、プロンプトエンジニアリングとの本質的な違い、重要性、そしてそれを構成する具体的な技術要素(計画、記憶、ツール利用)から、最先端の応用事例(例:Devin)や関連ツール(例:LangGraph)に至るまでを網羅的に解明することにあります。これにより、読者がコンテキストエンジニアリングの全体像を深く理解し、自身のビジネスや開発プロジェクトに応用するための実践的な知見と指針を得ることを目指します。

回答

コンテキストエンジニアリングとは何か?:AI開発の新たなパラダイム

AI、特に大規模言語モデル(LLM)の活用が深化する中で、開発の焦点は単一の「指示(プロンプト)」を工夫する「プロンプトエンジニアリング」から、より広範で動的な「コンテキストエンジニアリング」へと移行しています。これは、AIの性能を最大限に引き出すための本質的なパラダイムシフトです。
定義と重要性
コンテキストエンジニアリングは、以下のように定義されます。
コンテキストエンジニアリングとは、LLMがタスクを達成するために必要なすべてのものを提供するために、適切な情報とツールを、適切なフォーマットで、適切なタイミングで提供する動的なシステムを設計・構築する規律である。
philschmid.de
この概念の重要性は、ShopifyのCEO、Tobi Lütke氏が「プロンプトエンジニアリングよりも『コンテキストエンジニアリング』という言葉が好きだ」と述べたことで広く認識されるようになりました
x.com
。AIアプリケーションが、複数のツールや長期的な記憶を駆使して自律的にタスクをこなす「AIエージェント」へと進化するにつれ、静的なプロンプトだけでは不十分になったのです。LangChainが指摘するように、AIエージェントの失敗の多くはモデルの性能不足ではなく、「モデルに適切なコンテキストが渡されていない」ことに起因します
langchain.com
。「Garbage in, garbage out(ゴミを入れればゴミが出る)」の原則は、AI開発においてこれまで以上に重要な意味を持つのです
philschmid.de
。
プロンプトエンジニアリングとの違い
両者の違いは、そのスコープとアプローチにあります。
項目プロンプトエンジニアリングコンテキストエンジニアリング
スコープLLMへの単一の入力(プロンプト)の最適化LLMを取り巻くシステム全体の設計
アプローチ静的:事前に定義されたテンプレートや指示の作成動的:タスクの状況に応じてリアルタイムでコンテキストを生成・管理
焦点LLMに「何を」させるかを明確に指示することLLMがタスクを解決するために「必要な情報やツール」をすべて提供すること
成果物効果的なプロンプト、テンプレート自律的に動作するAIエージェント、ワークフロー、システム
著名なAI研究者Andrej Karpathy氏は、LLMをCPU、そのワーキングメモリである「コンテキストウィンドウ」をRAMに例え、この限られたRAMにどの情報を載せるかを管理する技術こそがコンテキストエンジニアリングであると説明しています
rlancemartin.github.io
simonwillison.net
。この「コンテキスト」には、以下のような多様な要素が含まれます。
コンテキストの要素説明
指示 / システムプロンプトモデルの基本的な振る舞いやルールを定義する初期指示。
ユーザープロンプトユーザーからの直接的なタスクや質問。
状態 / 履歴(短期記憶)現在の会話の文脈や、直近のやり取りの履歴。
長期記憶過去の会話から学習したユーザーの好みや永続的な知識。
取得された情報(RAG)外部データベースやAPIから動的に取得した最新情報。
利用可能なツールモデルが呼び出せる関数やAPIの定義(例:メール送信、カレンダー確認)。
構造化された出力モデルに生成させたい応答のフォーマット定義(例:JSON)。
[出典:
philschmid.de
]

AIエージェントを支える3つの柱:計画・記憶・ツール利用

コンテキストエンジニアリングを実践する上で核となるのが、「計画(Planning)」「記憶(Memory)」「ツール利用(Tool Use)」という3つの技術要素です。これらはLLMを単なるテキスト生成器から、自律的な問題解決エージェントへと昇華させるために不可欠です。
1. 計画 (Planning):思考の道筋を立て、自己を省みる能力
複雑なタスクを小さなステップに分解し、ゴールまでの道筋を立てる能力です。
  • タスク分解と多角的な思考:
    • Chain-of-Thought (CoT): 「ステップ・バイ・ステップで考えなさい」と促し、推論プロセスを明示させる手法です
      arxiv.org
      。
    • Tree of Thoughts (ToT): 複数の思考パスを木構造で探索し、自己評価しながら最適な解を探します。この手法により、「Game of 24」の正答率はCoTの4%から**74%**へと劇的に向上しました
      arxiv.org
      。
  • 自己反省による継続的な改善:
    • ReAct (Reasoning and Acting): 推論と行動を交互に生成し、行動結果を次の推論に反映させることで、幻覚を抑制しタスク達成率を高めます
      arxiv.org
      。
    • Reflexion: 失敗経験を言語的に「反省」し、その学びを記憶に保存して次の試行に活かします。これにより、GPT-4を上回るコーディング精度(91% pass@1)を達成しました
      arxiv.org
      。
2. 記憶 (Memory):経験を蓄積し、未来に活かす能力
LLMの限られたコンテキストウィンドウ(短期記憶)を補い、長期的な情報を保持・活用する仕組みです。
  • アーキテクチャ: 短期記憶(コンテキスト内)と長期記憶(外部ベクトルストアなど)を組み合わせ、必要な情報を近似最近傍探索(ANN)などで高速に検索します
    lilianweng.github.io
    。
  • 永続化 (Persistence): LangGraphのようなフレームワークでは、「チェックポインター」機能によりエージェントの状態を各ステップで保存できます
    supabase.co
    。これにより、長期タスクの再開や、人間が途中で介入するワークフローが実現可能になります。
3. ツール利用 (Tool Use):能力の限界を超え、世界と対話する
LLMが持たないリアルタイム情報へのアクセス、専門的な計算、物理的なアクションなどを外部APIや専門モデル(ツール)を呼び出すことで実現します。
手法/フレームワーク概要
ToolformerLLMが自己教師あり学習で、いつどのAPIを呼び出すかを自律的に学習します
arxiv.org
。
HuggingGPTChatGPTを司令塔とし、Hugging Face上の多数の専門AIモデルをツールとして連携させ、複合タスクを解決します
arxiv.org
。
ChemCrow化学分野に特化し、18種類の専門ツールを統合して有機合成などを自律的に計画・実行します
arxiv.org
。

実践事例と開発を加速するツール群

コンテキストエンジニアリングは理論に留まらず、既に多くの最先端プロジェクトで実践されています。
応用事例:AIソフトウェアエンジニア「Devin」
AIソフトウェアエンジニア「Devin」を開発したCognition社は、その成功の鍵が「より良いコードベースコンテキストを持つこと」にあると明言しており、まさにコンテキストエンジニアリングの実践例です
cognition-labs.com
。彼らはGitHubリポジトリの文脈を瞬時に取得するサーバーや、VMの状態を高速に管理するツールを独自開発し、Devinに広範なコンテキストを動的に提供しています
cognition-labs.com
。
開発を加速するフレームワーク
  1. LangGraph: 状態を持つ(Statefulな)エージェントを構築するための強力なライブラリです
    langchain-ai.github.io
    。その「永続化(Persistence)」機能は、エージェントの記憶や状態をステップごとに保存し、長期的な対話や耐障害性を実現します
    langchain-ai.github.io
    。また、状態を構造化して管理することで、複雑なマルチエージェントシステムの構築を容易にします
    langchain-ai.github.io
    。
    # LangGraphではチェックポインターを指定するだけで永続化が有効になる
    checkpointer = InMemorySaver()
    graph = workflow.compile(checkpointer=checkpointer)
    
    # スレッドIDを指定して実行することで、状態が保存・追跡される
    config = {"configurable": {"thread_id": "user_123"}}
    graph.invoke({"input": "最初のメッセージ"}, config)
    
  2. Mem0: AIに特化したオープンソースのメモリレイヤーです
    github.com
    。関連性の高い記憶だけを効率的に検索・圧縮することで、全履歴を用いる場合と比較してトークン使用量を90%削減し、応答速度を91%向上させるという驚異的な成果を報告しています
    github.com
    。
  3. BabyAGI: エージェントが自らツール(関数)を記述し、自己改善していく野心的なコンセプトを提示する実験的フレームワークです
    github.com
    。
これらの事例とツールは、現代のAI開発が「静的なプロンプトの職人芸」から「動的なコンテキストを供給するシステムの設計」へと大きく舵を切っていることを示しています。

結果と結論

本調査により、コンテキストエンジニアリングが単なるバズワードではなく、LLMの真の能力を引き出すための体系的な方法論であることが明らかになりました。
主要な結果:
  1. パラダイムシフトの明確化: コンテキストエンジニアリングは、静的な「プロンプトエンジニアリング」の概念を拡張し、AIがタスクを達成するために必要な情報、ツール、履歴を動的に管理・提供する「システム設計」のアプローチです。
  2. 核心技術の特定: その実践は、「計画(Planning)」「記憶(Memory)」「ツール利用(Tool Use)」という3つの核心技術によって支えられています。これらの技術を統合的に設計することが、高度なAIエージェント開発の鍵となります。
  3. 実践の証明: AIソフトウェアエンジニア「Devin」の成功は、コンテキストの質と量がAIの性能を決定づけるという本概念の有効性を証明しています。また、LangGraphやMem0といったツールは、このアプローチをより多くの開発者が実践できる環境を整備しています。
結論: もはや、AI開発の成否はLLMモデル自体の性能だけで決まるのではありません。むしろ、タスクに応じていかにリッチで正確なコンテキストを動的に構築し、提供できるかという「コンテキストエンジニアリング」の巧拙が、アプリケーションの価値を大きく左右します。この新しい規律は、単なる「安価なデモ」と、ユーザーに「魔法」のような体験を提供する製品とを分ける、不可欠なスキルセットとして、今後のAI開発の中心的な役割を担っていくと結論付けられます。

コード実行

import React from 'react';

const App = () => {
  const technologies = [
    {
      category: '計画 (Planning)',
      description: '複雑なタスクをサブゴールに分解し、過去の行動から学習する能力。',
      items: [
        { name: 'Chain of Thought (CoT)',
          summary: 'モデルに「段階的に考える」よう促し、複雑なタスクを単純なステップに分解するプロンプト手法。',
          source: 'https://arxiv.org/abs/2201.11903' },
        { name: 'Tree of Thoughts (ToT)',
          summary: 'CoTを拡張し、各ステップで複数の推論パスを木構造で探索することで、より網羅的な探索を可能にする。',
          source: 'https://arxiv.org/abs/2305.10601' },
        { name: 'ReAct',
          summary: '推論(Reasoning)と行動(Acting)をLLM内で交互に生成・統合し、外部ツールと連携して信頼性の高い問題解決を実現する。',
          source: 'https://arxiv.org/abs/2210.03629' },
        { name: 'Reflexion',
          summary: '失敗から学んだ「言語的な反省」を記憶し、後の試行でより良い意思決定を導く自己修正フレームワーク。',
          source: 'https://arxiv.org/abs/2303.11366' },
        { name: 'LLM+P',
          summary: 'LLMを使い自然言語の問題を形式言語(PDDL)に変換し、古典的なプランナーで最適解を探索する。',
          source: 'https://arxiv.org/abs/2304.11477' },
      ]
    },
    {
      category: '記憶 (Memory)',
      description: '過去の情報を保持・想起し、長期的な対話やタスクで一貫性を保つ能力。',
      items: [
        { name: 'Mem0',
          summary: 'AIエージェントに長期記憶能力を付与するインテリジェントなメモリレイヤー。トークン使用量を90%削減し、応答速度を91%向上させる。',
          source: 'https://github.com/mem0ai/mem0' },
        { name: 'Generative Agents',
          summary: '経験を自然言語で記録し、高次の「反省」へと統合する記憶アーキテクチャ。人間らしい行動シミュレーションを実現。',
          source: 'https://arxiv.org/abs/2304.03442' },
        { name: '近似最近傍 (ANN)',
          summary: '長期記憶への高速アクセスを実現するアルゴリズム群(LSH, ANNOY, HNSW, FAISSなど)。',
          source: 'https://lilianweng.github.io/posts/2023-06-23-agent/'
        }
      ]
    },
    {
      category: 'ツール利用 (Tool Use)',
      description: '外部API、計算機、データベースなどを利用し、LLMの機能を拡張する能力。',
      items: [
        { name: 'Toolformer',
          summary: '外部ツールのAPIをいつ、どのように呼び出すかをLLMが自己教師あり学習する手法。',
          source: 'https://arxiv.org/abs/2302.04761' },
        { name: 'HuggingGPT',
          summary: 'ChatGPTをタスクプランナーとして使い、HuggingFace上の多数の専門AIモデルから最適なものを選択・実行させる。',
          source: 'https://arxiv.org/abs/2303.17580' },
        { name: 'ChemCrow',
          summary: '化学分野に特化し、18種類の専門家設計ツールを駆使して有機合成などのタスクを実行するエージェント。',
          source: 'https://arxiv.org/abs/2304.05376' },
        { name: 'MRKL Systems',
          summary: 'LLM、外部知識源、推論モジュールを組み合わせたニューロシンボリックアーキテクチャ。',
          source: 'https://arxiv.org/abs/2205.00445' }
      ]
    }
  ];

  const caseStudies = [
    {
      name: 'Devin (Cognition Labs)',
      description: 'AIソフトウェアエンジニア。コードベースのコンテキストを活用し、複雑な開発タスクを自律的に実行する。DeepWiki MCPサーバーでコンテキストを高速取得。',
      source: 'https://www.cognition-labs.com/blog'
    },
    {
      name: 'Generative Agents (Stanford/Google)',
      description: '人間らしい行動をシミュレートする25体のエージェント群。記憶と反省のアーキテクチャを持ち、仮想の町で自律的な社会行動を生み出す。',
      source: 'https://arxiv.org/abs/2304.03442'
    },
    {
      name: 'BabyAGI',
      description: '自己構築型の自律エージェントフレームワーク。必要なツール(関数)を動的にロード、管理、生成し、タスクを遂行する。',
      source: 'https://github.com/yoheinakajima/babyagi'
    },
     {
      name: 'Claude (Anthropic)',
      description: '思考プロセスを`<thinking>`タグに記述し、次の対話ではコンテキストから除外する「拡張思考」により、トークン効率の高いコンテキスト分離を実現。',
      source: 'https://docs.anthropic.com/en/docs/build-with-claude/context-windows'
    }
  ];

  return (
    <div className="bg-gray-50 text-gray-800 font-sans p-4 md:p-8">
      <header className="text-center mb-12">
        <h1 className="text-4xl md:text-5xl font-bold text-gray-900">コンテキストエンジニアリングの概要</h1>
        <p className="text-lg text-gray-600 mt-2">大規模言語モデル(LLM)の性能を最大化する技術</p>
        <p className="text-sm text-gray-500 mt-2">出典: <a href="https://www.philschmid.de/context-engineering" target="_blank" rel="noopener noreferrer" className="text-blue-500 underline hover:text-blue-700">philschmid.de</a>, <a href="https://blog.langchain.com/the-rise-of-context-engineering/" target="_blank" rel="noopener noreferrer" className="text-blue-500 underline hover:text-blue-700">LangChain Blog</a></p>
      </header>

      <section className="mb-16">
        <h2 className="text-3xl font-bold text-center mb-8">コンテキストの構成要素</h2>
        <div className="relative w-full max-w-4xl mx-auto h-96 md:h-[500px]">
          <div className="absolute top-1/2 left-1/2 -translate-x-1/2 -translate-y-1/2 w-full h-full border-4 border-blue-300 rounded-full flex items-center justify-center">
            <span className="font-bold text-blue-800 bg-blue-100 px-3 py-1 rounded-full">Context</span>
          </div>
          <div className="absolute top-[10%] left-[25%] w-40 h-40 bg-yellow-200 bg-opacity-70 rounded-full flex items-center justify-center text-center p-2 text-sm font-semibold text-yellow-800 shadow-lg">Instructions /<br/>System Prompt</div>
          <div className="absolute top-[15%] right-[20%] w-48 h-48 bg-pink-200 bg-opacity-70 rounded-full flex items-center justify-center text-center p-2 text-sm font-semibold text-pink-800 shadow-lg">Long-Term<br/>Memory</div>
          <div className="absolute top-[40%] left-[5%] w-52 h-52 bg-gray-300 bg-opacity-70 rounded-full flex items-center justify-center text-center p-2 text-sm font-semibold text-gray-800 shadow-lg">State / History<br/>(Short-term Memory)</div>
          <div className="absolute bottom-[20%] left-[20%] w-44 h-44 bg-purple-200 bg-opacity-70 rounded-full flex items-center justify-center text-center p-2 text-sm font-semibold text-purple-800 shadow-lg">User Prompts</div>
           <div className="absolute bottom-[5%] left-[45%] w-36 h-36 bg-cyan-200 bg-opacity-70 rounded-full flex items-center justify-center text-center p-2 text-sm font-semibold text-cyan-800 shadow-lg">Retrieved Info<br/>(RAG)</div>
          <div className="absolute bottom-[10%] right-[15%] w-52 h-52 bg-green-200 bg-opacity-70 rounded-full flex items-center justify-center text-center p-2 text-sm font-semibold text-green-800 shadow-lg">Available Tools /<br/>Structured Output</div>
        </div>
      </section>

      <section className="mb-16">
        <h2 className="text-3xl font-bold text-center mb-8">主要技術要素</h2>
        <div className="space-y-12">
          {technologies.map((tech, index) => (
            <div key={index} className="bg-white p-6 rounded-lg shadow-md">
              <h3 className="text-2xl font-bold text-gray-800 mb-2">{tech.category}</h3>
              <p className="text-gray-600 mb-4">{tech.description}</p>
              <div className="overflow-x-auto">
                <table className="min-w-full bg-white border border-gray-200">
                  <thead className="bg-gray-100">
                    <tr>
                      <th className="py-2 px-4 border-b text-left text-sm font-semibold text-gray-600">技術名</th>
                      <th className="py-2 px-4 border-b text-left text-sm font-semibold text-gray-600">概要</th>
                    </tr>
                  </thead>
                  <tbody>
                    {tech.items.map((item, itemIndex) => (
                      <tr key={itemIndex} className="hover:bg-gray-50">
                        <td className="py-2 px-4 border-b text-sm text-gray-700 font-medium"><a href={item.source} target="_blank" rel="noopener noreferrer" className="text-blue-600 hover:underline">{item.name}</a></td>
                        <td className="py-2 px-4 border-b text-sm text-gray-600">{item.summary}</td>
                      </tr>
                    ))}
                  </tbody>
                </table>
              </div>
            </div>
          ))}
        </div>
      </section>

      <section className="mb-16">
        <h2 className="text-3xl font-bold text-center mb-8">実践的な応用例</h2>
        <div className="grid md:grid-cols-2 lg:grid-cols-4 gap-8">
          {caseStudies.map((study, index) => (
            <div key={index} className="bg-white p-6 rounded-lg shadow-lg flex flex-col">
              <h3 className="text-xl font-bold text-gray-800 mb-3">{study.name}</h3>
              <p className="text-gray-600 text-sm flex-grow">{study.description}</p>
              <a href={study.source} target="_blank" rel="noopener noreferrer" className="text-blue-500 hover:text-blue-700 underline text-sm mt-4 self-start">出典を見る</a>
            </div>
          ))}
        </div>
      </section>

      <section>
        <h2 className="text-3xl font-bold text-center mb-8">直面する課題</h2>
        <div className="max-w-3xl mx-auto bg-white p-6 rounded-lg shadow-md">
          <ul className="space-y-4 list-disc list-inside text-gray-700">
            <li>
              <strong className="font-semibold text-gray-900">Lost in the Middle:</strong>
              <span> LLMは長いコンテキストの中間に配置された情報を見失いやすい。関連情報は冒頭か末尾に配置するのが効果的。 (出典: <a href="https://arxiv.org/abs/2307.03172" target="_blank" rel="noopener noreferrer" className="text-blue-500 underline hover:text-blue-700">arXiv:2307.03172</a>)</span>
            </li>
            <li>
              <strong className="font-semibold text-gray-900">有限なコンテキスト長:</strong>
              <span> 長期記憶のためのベクトルストアは有効だが、完全なアテンションほどの表現力はなく、情報ロスが発生する可能性がある。</span>
            </li>
            <li>
              <strong className="font-semibold text-gray-900">長期計画の困難さ:</strong>
              <span> LLMは予期せぬエラーに直面した際に計画を柔軟に調整することに苦労する場合がある。</span>
            </li>
             <li>
              <strong className="font-semibold text-gray-900">自然言語インターフェースの信頼性:</strong>
              <span> LLMと外部ツール間のインターフェースはLLMの出力に依存するが、不安定であったりフォーマットエラーを起こしたりすることがあり、堅牢なエラーハンドリングが求められる。</span>
            </li>
          </ul>
        </div>
      </section>
    </div>
  );
};

export default App;

🔍 詳細

🏷AI開発の新潮流:プロンプトからコンテキストエンジニアリングへ

画像 1

AI開発の新潮流:プロンプトからコンテキストエンジニアリングへ

AI、特に大規模言語モデル(LLM)の進化は、私たちの想像を超える速さで進んでいます。この進化の最前線で今、開発者や研究者の間で大きなパラダイムシフトが起きています。それは、単に優れた「指示(プロンプト)」を与える技術、いわゆる「プロンプトエンジニアリング」から、より広範で強力な概念である「コンテキストエンジニアリング」への移行です。
この変化は、AI開発の現場で何が起きているのか、そしてLLMの真の能力を引き出すために何が求められているのかを象徴しています。ShopifyのCEOであるTobi Lütke氏は、この新しい潮流を的確に捉え、「プロンプトエンジニアリングよりも『コンテキストエンジニアリング』という言葉が好きだ。タスクがLLMによってもっともらしく解決可能になるための全てのコンテキストを提供する技術、というコアスキルをより良く表現している」と述べています
x.com
。この発言はX(旧Twitter)で170万回以上表示されるなど、大きな反響を呼びました
x.com
。

なぜ「プロンプト」から「コンテキスト」へ?

「プロンプトエンジニアリング」という言葉は、LLMの初期段階で非常に重要な役割を果たしました。しかし、LLMアプリケーションが単一の対話から、複数のツールや長期的な記憶を駆使して自律的にタスクをこなす「AIエージェント」へと進化するにつれて、その言葉の持つ意味だけでは不十分になってきたのです。著名なブロガーであるSimon Willison氏が指摘するように、「プロンプトエンジニアリング」は一般的に「チャットボットに文字を入力するだけ」という、本来の複雑さとはかけ離れた浅い意味で捉えられがちでした
simonwillison.net
。
これに対し、「コンテキストエンジニアリング」は、より本質的な課題を捉えています。LangChainのブログでは、エージェントシステムの失敗の多くが、モデル自体の性能不足ではなく、「モデルに適切なコンテキストが渡されていない」ことに起因すると分析されています
langchain.com
。つまり、AIが賢く振る舞うためには、「ゴミを入れればゴミが出る(Garbage in, garbage out)」の原則通り、質の高い情報を体系的に提供する必要があるのです
langchain.com
0。

コンテキストエンジニアリングの定義と構成要素

では、コンテキストエンジニアリングとは具体的に何を指すのでしょうか。複数の専門家の見解を統合すると、以下のように定義できます。
コンテキストエンジニアリングとは、LLMがタスクを達成するために必要なすべてのものを提供するために、適切な情報とツールを、適切なフォーマットで、適切なタイミングで提供する動的なシステムを設計・構築する規律である。
philschmid.de
この定義の重要なポイントは、「システム」であり「動的」であるという点です。静的なプロンプトテンプレートを作るのではなく、タスクの状況に応じてその場で最適なコンテキストを生成するシステム全体を構築することが求められます0。
著名なAI研究者Andrej Karpathy氏は、このプロセスを「繊細な芸術と科学」と表現しています。彼はLLMをCPU、そのワーキングメモリである「コンテキストウィンドウ」をRAMに例え、この限られたRAMにどの情報を載せるかを管理する技術こそがコンテキストエンジニアリングであると説明しています
rlancemartin.github.io
simonwillison.net
。
この「コンテキスト」には、私たちが想像する以上に多様な要素が含まれます。
コンテキストの要素説明出典
指示 / システムプロンプトモデルの基本的な振る舞いやルールを定義する初期指示。
philschmid.de
ユーザープロンプトユーザーからの直接的なタスクや質問。
philschmid.de
状態 / 履歴(短期記憶)現在の会話の文脈や、直近のやり取りの履歴。
philschmid.de
長期記憶過去の会話から学習したユーザーの好みや永続的な知識。
philschmid.de
取得された情報(RAG)外部データベースやAPIから動的に取得した最新情報。
philschmid.de
利用可能なツールモデルが呼び出せる関数やAPIの定義(例:メール送信、カレンダー確認)。
philschmid.de
構造化された出力モデルに生成させたい応答のフォーマット定義(例:JSON)。
philschmid.de

「安価なデモ」から「魔法のような製品」へ

コンテキストエンジニアリングの真価は、具体的な製品体験の差に現れます。例えば、AIアシスタントに「明日、打ち合わせできるか確認して」と依頼したとしましょう0。
  • 貧弱なコンテキストのエージェント(安価なデモ): ユーザーの言葉しか理解できず、「明日、対応可能です。何時をご希望ですか?」といった機械的な応答しかできません12。
  • 豊富なコンテキストのエージェント(魔法のような製品): 自分のカレンダー情報(明日は終日予定が詰まっている)、相手との過去のメール履歴(適切なトーンを判断)、連絡先リスト(相手が重要人物だと特定)、そしてカレンダー招待を送るツールといったコンテキストを事前に収集・整理します。その結果、「ジム、明日は一日中予定が詰まっているんだ。木曜の午前中なら空いているけどどうかな?招待を送っておくから、都合がよければ教えてね」といった、まるで人間のような気の利いた応答を生成できるのです12。
この「魔法」は、モデルの性能向上だけで実現されるものではありません。それは、タスクを解決するために必要な情報を、動的に、かつ構造的に提供する「コンテキストエンジニアリング」の賜物なのです。
自律型エージェント開発のフロンティア企業であるCognition社は、これを「AIエージェントを構築するエンジニアの最も重要な仕事」と断言し、Anthropic社も「数百ターンに及ぶ会話を行うエージェントには、慎重なコンテキスト管理戦略が不可欠だ」と述べています
rlancemartin.github.io
。
このように、コンテキストエンジニアリングは、LLMの能力を最大限に引き出し、真に役立つAIアプリケーションを構築するための、新しい、そして不可欠なスキルセットとして急速にその重要性を増しています。もはや、AI開発の失敗は「モデルの失敗」ではなく、「コンテキストの失敗」なのです0。次のセクションでは、この重要なコンテキストを管理するための具体的な技術要素について、さらに詳しく見ていきましょう。
copy url
philschmid.dephilschmid.de
Tobi Lutke
copy url
x.comx.com
copy url
langchain.comlangchain.com
Case Studies
In the Loop
LangChain
Docs
Changelog
Dex Horthy on Twitter
most important skill an AI engineer can develop
Tobi Lutke
Ankur Goyal
Walden Yan
LangGraph
"12 Factor Agents"
LangSmith
trace your agent calls
"Communication is all you need"
copy url
simonwillison.netsimonwillison.net
from Shopify CEO Tobi Lutke
by Andrej Karpathy
spoken favorably of prompt engineering
Phoenix.new is Fly's entry into the prompt-driven app development space
Trying out the new Gemini 2.5 model family
The lethal trifecta for AI agents: private data, untrusted content, and external communication
copy url
rlancemartin.github.iorlancemartin.github.io
new kind of operating system
context window
“communication bandwidth
art and science
to perform a task
umbrella discipline
prompt engineering
RAG
agents
LLM and tool calls
long-running tasks
Cognition
Anthropic
exceed the size of the context window
deep research agent
Google
Percy Liang’s group
context degradation syndrome
hundreds of turns
auto-compact
full agent trajectory
recursive
hierarchical
summarize
Anthropic’s multi-agent researcher
Cognition
CLAUDE.md
Cursor
Windsurf
Cursor Memory Bank
MCP servers
collections
Letta
Mem0
LangGraph
Mem
Zep
Neo4J
Reflexion
Generative Agents
ChatGPT,
Cursor
Windsurf
email assistant
CLAUDE.md
email assistant
In practice this is a deep topic
Generative Agents
Simon Willison shared
messages
schema
Pydantic
sections
Swarm
separation of concerns
multi-agent researcher
15× more tokens
prompting
context
against
deep researcher
tool calling APIs
CodeAgent
sandbox
Bitter Lesson
continual learning
learn from feedback
look at your data
thinking like your agent
Anthropic] also called this out in their researcher where they save the research plan for future use.**Compress at tool boundaries:**Tools boundaries are a natural place to add compression, if needed. The output of token-heavy tool calls can be summarized, for example, using a small LLM with straightforward prompting. This lets you quickly limit runaway context growth at the source without the need for compression over the full agent trajectory.**Start simple with memory**: Memory can be a powerful way to personalize an agent. But, it can be challenging to get right. I[often use
here
Anthropic’s multi-agent researcher

🏷LLMの能力を拡張する主要技術:計画・記憶・ツール利用の実現手法

画像 1

LLMの能力を拡張する主要技術:計画・記憶・ツール利用の実現手法

コンテキストエンジニアリングは、単にLLMへの入力プロンプトを工夫する「プロンプトエンジニアリング」の範疇を超え、LLMをより強力で自律的な問題解決エージェントへと昇華させるためのシステム設計論です。その核心には、LLMが人間のようにタスクを遂行するために不可欠な3つの要素、「計画(Planning)」「記憶(Memory)」「ツール利用(Tool use)」をいかにして実現するかという課題があります
lilianweng.github.io
。これらの能力をLLMに付与することで、単なるテキスト生成器から、自ら思考し、過去の経験から学び、外部世界と対話しながら目標を達成する、真にインテリジェントな存在へと進化させることができるのです。
本セクションでは、これらの「計画」「記憶」「ツール利用」を実現するための最先端の技術的アプローチを深掘りし、LLMの能力を飛躍的に拡張する手法の全体像を解き明かします。

計画(Planning):思考の道筋を立て、自己を省みる能力

複雑なタスクを前にしたとき、人間はまずそれを小さなステップに分解し、ゴールまでの道筋を計画します。LLMに同様の能力を与えるための研究が数多く行われています。
タスク分解と多角的な思考
初期の単純なアプローチから、より高度で意図的な問題解決を可能にする手法まで、計画能力は目覚ましい進化を遂げています。
  • Chain-of-Thought (CoT): この手法は、LLMに「ステップ・バイ・ステップで考えなさい」と促すことで、結論に至るまでの中間的な推論プロセス(思考の連鎖)を生成させるものです
    arxiv.org
    。プロンプトにCoTの例をいくつか含めるだけで、特に算術や常識推論のタスクで劇的な性能向上が見られました。例えば、540Bパラメータを持つモデルにわずか8つのCoT例を与えただけで、数学文章問題のベンチマーク(GSM8K)で最高水準の精度を達成したことは、LLMが単なる知識検索エンジンではなく、推論能力を持つことを示した画期的な成果です
    arxiv.org
    。
  • Tree of Thoughts (ToT): CoTが一本道の思考プロセスを辿るのに対し、ToTは問題を「思考」の単位に分解し、複数の異なる推論パスを木構造(ツリー)のように探索します
    arxiv.org
    。LLMは各思考パスを自己評価し、有望な枝を伸ばしたり、時には後戻り(バックトラック)したりしながら、より意図的に問題解決を進めます。このアプローチの威力は絶大で、GPT-4を用いた「Game of 24」(4つの数字で24を作るゲーム)では、CoTの成功率がわずか4%だったのに対し、ToTでは**74%**という驚異的な成功率を記録しました
    arxiv.org
    。
  • LLM+P: このフレームワークは、LLMの柔軟な自然言語理解能力と、古典的なプランナーの厳密で最適な計画立案能力を融合させます
    arxiv.org
    。ユーザーが自然言語で与えた問題を、LLMがプランナーの理解できる形式言語(PDDL)に変換し、プランナーが最適解を探索。その結果を再びLLMが自然言語に翻訳して返すという仕組みです。これにより、LLM単体では解決が困難だった多くの計画問題で最適解を提供できるようになりました
    arxiv.org
    。
自己反省による継続的な改善
計画は一度立てて終わりではありません。実行過程での間違いを認識し、計画を修正する「自己反省」の能力も極めて重要です。
  • ReAct (Reasoning and Acting): このフレームワークは、LLMの中で推論(Reasoning)と行動(Acting)を交互に生成させ、相乗効果を生み出します
    arxiv.org
    。推論の軌跡が行動計画を導き、行動の結果(例えばAPIからのフィードバック)が次の推論を更新します。このサイクルにより、LLMの弱点である「幻覚(hallucination)」を抑制し、インタラクティブな意思決定タスクにおいて、従来の模倣学習や強化学習の手法を大幅に上回る成果を上げています。具体的には、ALFWorldタスクで絶対成功率を34%向上させるなど、その有効性は実証済みです
    arxiv.org
    。 ReActのコンセプト図
  • Reflexion: 人間が失敗から学ぶように、エージェントに「言語的な自己反省」の能力を与えます
    arxiv.org
    。失敗したタスクの軌跡を分析し、「なぜ失敗したか」「次はどうすれば良いか」を言語化させ、その反省を記憶バッファに保存します。この「反省」を次の試行のコンテキストに加えることで、エージェントは自律的にパフォーマンスを改善していきます。この手法により、HumanEvalコーディングベンチマークで、ベースのGPT-4の80%を上回る91%のpass@1精度を達成しました
    arxiv.org
    。

記憶(Memory):経験を蓄積し、未来に活かす能力

LLMのコンテキストウィンドウは「作業記憶(RAM)」に例えられますが、その容量には限りがあります
rlancemartin.github.io
。長期的な対話やタスクを遂行するためには、コンテキストウィンドウ外に情報を保存し、必要に応じて取り出す「長期記憶」の仕組みが不可欠です。
短期記憶と長期記憶のアーキテクチャ
エージェントの記憶システムは、人間の記憶に着想を得て設計されています
lilianweng.github.io
。
  • 短期記憶 (Short-term Memory): モデルのコンテキストウィンドウ内で直接利用される情報です。対話の直前のやり取りなどがこれにあたります。
  • 長期記憶 (Long-term Memory): コンテキストウィンドウの制限を超える情報を保持するための外部データベースです。一般的には、情報をベクトル化して「ベクトルストア」に保存し、近似最近傍探索(ANN) のような高速な検索アルゴリズムを用いて、関連性の高い情報を瞬時に取り出します
    lilianweng.github.io
    。
記憶を活用した学習と永続化
記憶は単なる情報貯蔵庫ではありません。過去の経験から学習し、エージェントの振る舞いを改善するための重要なリソースとなります。
  • Chain of Hindsight (CoH): 人間のフィードバック(肯定的・否定的)を言語シーケンスに変換し、モデルのファインチューニングに利用します
    arxiv.org
    。これにより、モデルは自らの誤りを特定・修正する方法を学習し、人間の好みや価値観により適合した出力を生成できるようになります
    arxiv.org
    。
  • Algorithm Distillation (AD): 強化学習アルゴリズムの「学習履歴」そのものをモデルに学習させるユニークなアプローチです
    arxiv.org
    。過去の試行錯誤のプロセスをコンテキストとして与えることで、ネットワークのパラメータを更新することなく、その場でポリシーを改善する能力を獲得します。これは、過去の経験という「コンテキスト」から、その場で効率的に学習する能力の獲得を意味します
    arxiv.org
    。
  • 永続化 (Persistence): LangGraphのようなフレームワークでは、「チェックポインター」機能により、エージェントの状態(記憶)を各ステップで保存・復元できます
    supabase.co
    。これにより、処理が中断しても途中から再開できる耐障害性や、人間が途中で介入して修正を加える「人間参加型(Human-in-the-loop)」のワークフローが実現可能になります。

ツール利用(Tool Use):能力の限界を超え、世界と対話する

LLMは膨大な知識を持っていますが、その知識は訓練データに含まれるものに限られ、リアルタイムの情報や専門的な計算、物理的なアクションは実行できません。この限界を突破するのが「ツール利用」です。LLMに外部のAPIや専門モデル、データベースを「ツール」として使わせることで、その能力は飛躍的に拡張されます。
手法/フレームワーク概要貢献
Toolformer
arxiv.org
LLMが自己教師あり学習によって、いつ、どのAPIを呼び出すかを自律的に学習する。ツール利用の学習プロセスを自動化し、電卓や検索エンジンなどを統合してLLMの弱点を補う。
HuggingGPT
arxiv.org
ChatGPTを司令塔とし、Hugging Face上の多数の専門AIモデルをツールとして連携させる。計画とツール利用を組み合わせ、言語・画像・音声など複数分野にまたがる複雑なタスクを解決する。
ChemCrow
arxiv.org
化学分野に特化したLLMエージェント。18種類の専門的な計算化学ツールを統合。専門分野における高度なツール利用の実例。有機合成の計画など専門タスクを自律的に実行する。
MRKL Systems
arxiv.org
LLM、外部知識源、推論モジュールを組み合わせたモジュラーなニューロシンボリックアーキテクチャ。LLMの知識の限界を外部ツールで補い、信頼性の高い推論と回答生成を行うためのアーキテクチャを提案。
注目すべきは、HuggingGPTが示す壮大なビジョンです
arxiv.org
。これは、ChatGPTをタスクを計画する「脳」として使い、Hugging Faceに存在する無数の専門モデルを、タスクに応じて呼び出す「手足」のように扱います。これにより、「画像の中の犬の種類を特定し、その犬の鳴き声を生成して、説明文をフランス語に翻訳する」といった、複数の専門能力を要する複雑なリクエストにも応えられるようになります。
このように、「計画」「記憶」「ツール利用」は、それぞれがLLMの能力を特定の側面から拡張する強力な技術です。そして、これらの技術を組み合わせ、統合的に設計するアプローチこそが「コンテキストエンジニアリング」の本質なのです。これにより、LLMは単なる言語モデルを超え、現実世界の問題を解決するための、より信頼性が高く、有能なパートナーへと進化していくことでしょう。
copy url
anthropic.comanthropic.com
claude.ai
extended thinking
extended thinking guide
interleaved thinking
extended thinking guide
token counting API
model comparison
copy url
arxiv.orgarxiv.org
v1
View PDF
[view email
[v1]
[v2]
[v3]
What is the Explorer?
What is Connected Papers?
What is Litmaps?
What are Smart Citations?
What is alphaXiv?
What is CatalyzeX?
What is DagsHub?
What is GotitPub?
What is Huggingface?
What is Papers with Code?
What is ScienceCast?
What are Influence Flowers?
What is CORE?
Learn more about arXivLabs
copy url
arxiv.orgarxiv.org
v1
View PDF
[view email
[v1]
[v2]
What is the Explorer?
What is Connected Papers?
What is Litmaps?
What are Smart Citations?
What is alphaXiv?
What is CatalyzeX?
What is DagsHub?
What is GotitPub?
What is Huggingface?
What is Papers with Code?
What is ScienceCast?
What are Influence Flowers?
What is CORE?
Learn more about arXivLabs
copy url
lilianweng.github.iolilianweng.github.io
AutoGPT
GPT-Engineer
BabyAGI
#
Prompt Engineering
#
#
Chain of thought
Wei et al. 2022
Yao et al. 2023
Liu et al. 2023
#
Yao et al. 2023
Yao et al. 2023
Shinn & Labash 2023
Shinn & Labash, 2023
Shinn & Labash, 2023
Liu et al. 2023
WebGPT comparisons
summarization from human feedback
human preference dataset
Liu et al. 2023
Laskin et al. 2023
Laskin et al. 2023
UCB
Duan et al. 2017
A3C
DQN
Laskin et al. 2023
#
conversations
#
Miller 1956
#
MIPS
small world networks
Google Blog, 2020
ann-benchmarks.com
#
Animals using tools
Karpas et al. 2022
Parisi et al. 2022
Schick et al. 2023
“External APIs” section
Plugins
function calling
Shen et al. 2023
Shen et al. 2023
Li et al. 2023
Li et al. 2023
#
#
Bran et al. 2023
LangChain
ReAct
MRKLs
Boiko et al. (2023)
#
Park, et al. 2023
self-reflection
Park et al. 2023
#
AutoGPT
GPT-Engineer
#
#
#
1] Wei et al. [“Chain of thought prompting elicits reasoning in large language models.”
2] Yao et al. [“Tree of Thoughts: Dliberate Problem Solving with Large Language Models.”
4] Liu et al. [“LLM+P: Empowering Large Language Models with Optimal Planning Proficiency”
5] Yao et al. [“ReAct: Synergizing reasoning and acting in language models.”
6] Google Blog. [“Announcing ScaNN: Efficient Vector Similarity Search”
7] [https://chat.openai.com/share/46ff149e-a4c7-4dd7-a800-fc4a642ea389
8] Shinn & Labash. [“Reflexion: an autonomous agent with dynamic memory and self-reflection”
9] Laskin et al. [“In-context Reinforcement Learning with Algorithm Distillation”
10] Karpas et al. [“MRKL Systems A modular, neuro-symbolic architecture that combines large language models, external knowledge sources and discrete reasoning.”
11] Nakano et al. [“Webgpt: Browser-assisted question-answering with human feedback.”
12] Parisi et al. [“TALM: Tool Augmented Language Models”
13] Schick et al. [“Toolformer: Language Models Can Teach Themselves to Use Tools.”
14] Weaviate Blog. [Why is Vector Search so fast?
15] Li et al. [“API-Bank: A Benchmark for Tool-Augmented LLMs”
16] Shen et al. [“HuggingGPT: Solving AI Tasks with ChatGPT and its Friends in HuggingFace”
17] Bran et al. [“ChemCrow: Augmenting large-language models with chemistry tools.”
18] Boiko et al. [“Emergent autonomous scientific research capabilities of large language models.”
19] Joon Sung Park, et al. [“Generative Agents: Interactive Simulacra of Human Behavior.”
20] AutoGPT. [https://github.com/Significant-Gravitas/Auto-GPT
21] GPT-Engineer. [https://github.com/AntonOsika/gpt-engineer
copy url
arxiv.orgarxiv.org
v1
View PDF
HTML (experimental)
[view email
[v1]
What is the Explorer?
What is Connected Papers?
What is Litmaps?
What are Smart Citations?
What is alphaXiv?
What is CatalyzeX?
What is DagsHub?
What is GotitPub?
What is Huggingface?
What is Papers with Code?
What is ScienceCast?
What are Influence Flowers?
What is CORE?
Learn more about arXivLabs
copy url
arxiv.orgarxiv.org
v1
View PDF
[view email
[v1]
[v2]
What is the Explorer?
What is Connected Papers?
What is Litmaps?
What are Smart Citations?
What is alphaXiv?
What is CatalyzeX?
What is DagsHub?
What is GotitPub?
What is Huggingface?
What is Papers with Code?
What is ScienceCast?
What are Influence Flowers?
What is CORE?
Learn more about arXivLabs
copy url
arxiv.orgarxiv.org
View PDF
What is the Explorer?
What is Connected Papers?
What is Litmaps?
What are Smart Citations?
What is alphaXiv?
What is CatalyzeX?
What is DagsHub?
What is GotitPub?
What is Huggingface?
What is Papers with Code?
What is ScienceCast?
What are Influence Flowers?
What is CORE?
What is IArxiv?
Learn more about arXivLabs
copy url
arxiv.orgarxiv.org
View PDF
What is the Explorer?
What is Connected Papers?
What is Litmaps?
What are Smart Citations?
What is alphaXiv?
What is CatalyzeX?
What is DagsHub?
What is GotitPub?
What is Huggingface?
What is Papers with Code?
What is ScienceCast?
What are Influence Flowers?
What is CORE?
Learn more about arXivLabs
copy url
arxiv.orgarxiv.org
v1
View PDF
[view email
[v1]
[v2]
[v3]
[v4]
[v5]
What is the Explorer?
What is Connected Papers?
What is Litmaps?
What are Smart Citations?
What is alphaXiv?
What is CatalyzeX?
What is DagsHub?
What is GotitPub?
What is Huggingface?
What is Papers with Code?
What is ScienceCast?
What are Influence Flowers?
What is CORE?
Learn more about arXivLabs
copy url
arxiv.orgarxiv.org
v1
View PDF
[view email
[v1]
[v2]
What is the Explorer?
What is Connected Papers?
What is Litmaps?
What are Smart Citations?
What is alphaXiv?
What is CatalyzeX?
What is DagsHub?
What is GotitPub?
What is Huggingface?
What is Papers with Code?
What is ScienceCast?
What are Influence Flowers?
What is CORE?
Learn more about arXivLabs
copy url
arxiv.orgarxiv.org
v1
View PDF
[view email
[v1]
[v2]
[v3]
[v4]
[v5]
[v6]
[v7]
What is the Explorer?
What is Connected Papers?
What is Litmaps?
What are Smart Citations?
What is alphaXiv?
What is CatalyzeX?
What is DagsHub?
What is GotitPub?
What is Huggingface?
What is Papers with Code?
What is ScienceCast?
What are Influence Flowers?
What is CORE?
What is IArxiv?
Learn more about arXivLabs
copy url
arxiv.orgarxiv.org
View PDF
What is the Explorer?
What is Connected Papers?
What is Litmaps?
What are Smart Citations?
What is alphaXiv?
What is CatalyzeX?
What is DagsHub?
What is GotitPub?
What is Huggingface?
What is Papers with Code?
What is ScienceCast?
What are Influence Flowers?
What is CORE?
Learn more about arXivLabs

調査のまとめ

コンテキストエンジニアリングは、大規模言語モデル(LLM)の能力を最大限に引き出すための多様な手法やフレームワークを包含する概念です。調査の結果、特に「計画」「記憶」「ツール利用」といった側面を強化す...

調査のまとめ

LangGraphの具体的な実装方法について調査しました。永続化機能については詳細な情報を得られましたが、「Human-in-the-loop」および「Multi-agent collaboratio...

🏷最先端の応用事例:AIエージェント「Devin」を支える技術と関連ツール

画像 1

最先端の応用事例:AIエージェント「Devin」を支える技術と関連ツール

コンテキストエンジニアリングの真価は、理論だけでなく、それを実装した最先端のAIエージェントやツール群にこそ現れます。ここでは、世界に衝撃を与えたAIソフトウェアエンジニア「Devin」を筆頭に、この分野を牽引する具体的な応用事例と、それを支える重要なツールを紹介します。これらの事例は、コンテキストエンジニアリングが単なるバズワードではなく、AIの能力を飛躍させるための実践的な方法論であることを雄弁に物語っています。

Cognition Labsの「Devin」:コンテキストが魔法を生む現場

AIソフトウェアエンジニア「Devin」を開発したCognition社は、その成功の鍵が「コンテキストエンジニアリング」にあると明確に述べています
rlancemartin.github.io
。彼らのブログによれば、Devinが複雑なソフトウェア開発タスクを成功させる上で最も重要なのは「より良いコードベースコンテキスト🧠を持つこと」です
cognition-labs.com
。これは、AIの性能がモデル自体の賢さだけでなく、タスクを解くために与えられる情報の質と量に大きく依存するという、コンテキストエンジニアリングの核心的思想を裏付けています。
Cognition社は、この思想を具現化するために、以下のような専用ツールを開発・活用しています。
  • DeepWiki MCPサーバー: 公開されているGitHubリポジトリから、コードベースの文脈(コンテキスト)と回答を瞬時に取得するサーバーです
    cognition-labs.com
    。これにより、Devinは巨大なコードの森で迷うことなく、必要な情報を的確に把握できます。
  • blockdiff: VMディスクのスナップショットと差分を高速に取得するオープンソースツールです
    cognition-labs.com
    。これは、エージェントが試行錯誤する過程の状態を効率的に管理・保存するための基盤技術であり、まさに「永続化」の実践例と言えるでしょう。
Devinの事例が示すのは、優れたAIエージェント開発が、もはやLLMへの単一のプロンプト作成に留まらないということです。コードベース全体、開発履歴、関連ドキュメントといった広範なコンテキストを動的に収集・整理し、LLMに提供するシステム全体の設計、すなわちコンテキストエンジニアリングこそが、"魔法"のようなエージェントを生み出す源泉なのです。

学術研究から生まれる未来のエージェント像

コンテキストエンジニアリングのコンセプトは、産業界だけでなく、学術界の最先端研究においてもその重要性を増しています。
プロジェクト/論文応用分野コンテキストエンジニアリング的特徴出典
Generative Agents仮想社会シミュレーション経験を自然言語で記録・統合する高度な記憶アーキテクチャ(永続化)により、25体のエージェントが自律的に社会行動(パーティーの企画など)を形成。
arxiv.org
HuggingGPT汎用AIタスク解決ChatGPTを司令塔とし、Hugging Face上の多数の専門AIモデルを「ツール」として動的に選択・実行するアーキテクチャ(計画とツール利用)。
arxiv.org
ChemCrow化学研究18種類の化学専門ツールを統合し、有機合成や創薬といった複雑なタスクを自律的に計画・実行(ツール利用)。
arxiv.org
Reflexionコーディング、推論失敗経験から言語的に「反省」し、それをエピソード記憶に保存して自己修正を繰り返すことで、GPT-4を超える精度を達成(永続化と自己修正)。
arxiv.org
スタンフォード大学とGoogleによる「Generative Agents」
arxiv.org
は、エージェントが日々の経験を「記憶ストリーム」に保存し、それを基に高次の洞察を得る「反省」プロセスを通じて行動を計画する、洗練された記憶アーキテクチャを提示しました。これは、単なる情報検索を超えた、長期的な文脈理解の重要性を示しています。
また、「HuggingGPT」
arxiv.org
や「ChemCrow」
arxiv.org
といった研究は、LLMを万能選手としてではなく、専門家チームを率いる優れたマネージャーとして位置づけ、タスクに応じて最適な「ツール(外部APIや専門モデル)」を動的に選択・利用させるアプローチの有効性を示しました。これは、コンテキストエンジニアリングにおける「ツール利用」の概念を体現するものです。

開発を加速するフレームワークとツール

こうした先進的なコンセプトを、より多くの開発者が実践できるようにするためのフレームワークやツールも次々と登場しています。
LangGraph:状態を持つエージェント開発の標準フレームワーク
LangChainから生まれたLangGraphは、状態(ステート)を持つエージェントやワークフローを構築するための強力なライブラリです
langchain-ai.github.io
。その中核機能は、コンテキストエンジニアリングの重要な要素を直接サポートしています。
  • 永続化 (Persistence): LangGraphの「チェックポイント機能」は、グラフ(エージェントの処理フロー)の各ステップの状態を保存します
    langchain-ai.github.io
    。これにより、数日間にわたるような長期タスクでも中断・再開が可能になり、会話履歴の保持(メモリ)や耐障害性が実現されます。
    # LangGraphではチェックポインターを指定するだけで永続化が有効になる
    checkpointer = InMemorySaver()
    graph = workflow.compile(checkpointer=checkpointer)
    
    # スレッドIDを指定して実行することで、状態が保存・追跡される
    config = {"configurable": {"thread_id": "user_123"}}
    graph.invoke({"input": "最初のメッセージ"}, config)
    
    この永続化機能は、人間がAIの作業に介入する「Human-in-the-loop」や、後述するマルチエージェントシステムの基盤ともなっており、まさにコンテキスト管理の要です
    langchain-ai.github.io
    。
  • 状態の分離と共有: LangGraphでは、グラフの状態を
    StateGraph
    というスキーマで明確に定義します
    langchain-ai.github.io
    。これにより、単一のメッセージリストに全ての情報を詰め込むのではなく、タスクの進捗、中間成果物、エラー情報などを構造化して管理できます。さらに、サブグラフ機能を使えば、各エージェントが独立した内部状態(コンテキスト)を保ちつつ、協調して動作するマルチエージェントシステムを構築することも可能です
    langchain-ai.github.io
    。
Mem0:AIに特化したインテリジェントなメモリレイヤー
Mem0は、AIエージェントに長期記憶能力を付与することに特化したオープンソースのメモリレイヤーです
github.com
。驚くべきことに、フルコンテキスト(全履歴)と比較してトークン使用量を90%削減し、応答速度を91%向上させながら、精度を維持または向上させるという成果を報告しています
github.com
。これは、関連性の高い記憶だけを効率的に検索してコンテキストに含めるという、洗練された「圧縮」技術によるものです。AIアシスタントやカスタマーサポートなど、パーソナライズが求められる多くの分野での応用が期待されています
github.com
。
BabyAGI:自己改善するエージェントの未来像
BabyAGIは、エージェントが自ら「ツール(関数)」を記述し、自己改善していくという野心的なコンセプトを提示する実験的フレームワークです
github.com
。その核心である「functionz」フレームワークは、関数をデータベースに保存・管理し、依存関係を追跡します。これにより、エージェントはユーザーの要求に応じて、既存のツールを組み合わせるだけでなく、不足しているツールをAIの能力で新たに生成し、自身の能力を拡張していくことが可能になります。
これらの事例とツールから浮かび上がるのは、現代のAI開発が「静的なプロンプトの職人芸」から「動的なコンテキストを供給するシステムの設計」へと大きく舵を切っているという事実です。Devinのような高度なエージェントを支えているのは、単一の魔法のプロンプトではなく、LangGraphのようなフレームワーク上で、記憶(永続化)、ツール利用、自己修正といったコンテキストエンジニアリングの要素を巧みに組み合わせた、洗練されたアーキテクチャなのです。
copy url
github.comgithub.com
Learn more
Join Discord
Demo
OpenMemory
Read the full paper
Mem0
Mem0 Platform
Supported LLMs documentation
Quickstart
API Reference
Live Demo
Chrome Extension
Guide
Example
https://docs.mem0.ai
Discord
Twitter
LICENSE
copy url
langchain-ai.github.iolangchain-ai.github.io
copy url
langchain-ai.github.iolangchain-ai.github.io
copy url
langchain-ai.github.iolangchain-ai.github.io
copy url
langchain-ai.github.iolangchain-ai.github.io
copy url
cognition-labs.comcognition-labs.com
copy url
arxiv.orgarxiv.org
v1
View PDF
[view email
[v1]
What is the Explorer?
What is Connected Papers?
What is Litmaps?
What are Smart Citations?
What is alphaXiv?
What is CatalyzeX?
What is DagsHub?
What is GotitPub?
What is Huggingface?
What is Papers with Code?
What is ScienceCast?
What are Influence Flowers?
What is CORE?
Learn more about arXivLabs
copy url
arxiv.orgarxiv.org
v1
View PDF
[view email
[v1]
What is the Explorer?
What is Connected Papers?
What is Litmaps?
What are Smart Citations?
What is alphaXiv?
What is CatalyzeX?
What is DagsHub?
What is GotitPub?
What is Huggingface?
What is Papers with Code?
What is ScienceCast?
What are Influence Flowers?
What is CORE?
Learn more about arXivLabs
copy url
arxiv.orgarxiv.org
View PDF
What is the Explorer?
What is Connected Papers?
What is Litmaps?
What are Smart Citations?
What is alphaXiv?
What is CatalyzeX?
What is DagsHub?
What is GotitPub?
What is Huggingface?
What is Papers with Code?
What is ScienceCast?
What are Influence Flowers?
What is CORE?
Learn more about arXivLabs
copy url
github.comgithub.com
babyagi_archive
this introductory X/Twitter thread
Quick Start
Basic Usage
Function Metadata
Function Loading
Key Dependencies
Execution Environment
Dashboard
Pre-loaded Functions
Future/Draft Features
API Reference
Contributing
License
this form
LICENSE
copy url
arxiv.orgarxiv.org
v1
View PDF
[view email
[v1]
[v2]
[v3]
What is the Explorer?
What is Connected Papers?
What is Litmaps?
What are Smart Citations?
What is alphaXiv?
What is CatalyzeX?
What is DagsHub?
What is GotitPub?
What is Huggingface?
What is Papers with Code?
What is ScienceCast?
What are Influence Flowers?
What is CORE?
Learn more about arXivLabs
copy url
arxiv.orgarxiv.org
v1
View PDF
[view email
[v1]
[v2]
[v3]
[v4]
What is the Explorer?
What is Connected Papers?
What is Litmaps?
What are Smart Citations?
What is alphaXiv?
What is CatalyzeX?
What is DagsHub?
What is GotitPub?
What is Huggingface?
What is Papers with Code?
What is ScienceCast?
What are Influence Flowers?
What is CORE?
Learn more about arXivLabs
supabase.cosupabase.co
...
LangGraph
LangGraph
LangGraph
Overview
Overview
Overview
Overview
Overview
Overview
Overview
Overview

調査のまとめ

コンテキストエンジニアリングの具体的な技術要素と実践的な応用例について、調査結果を基に詳細を解説します。

#### コンテキストエンジニアリングの技術要素と実装

コンテキストエンジニアリ...

🖍 考察

調査の本質:AI開発の次なるフロンティアへの招待状

ユーザーの皆様からの「コンテキストエンジニアリングについて知りたい」というご要望の根底には、単なる技術トレンドの把握に留まらない、より切実な問いが存在します。それは、「我々のビジネスや開発プロジェクトは、急速に進化するAIの真の能力をどうすれば引き出せるのか?」という問いです。
本調査が提供すべき本質的な価値は、この問いに対する明確な羅針盤となることです。調査結果は、「プロンプトエンジニアリング」という"呪文の詠唱"から、「コンテキストエンジニアリング」という"生態系の構築"へと、AI開発のパラダイムが決定的にシフトしている現実を明らかにしました。
したがって、この考察の目的は、調査結果を再構成し、以下の価値を提供することにあります。
  1. パラダイムシフトの構造を解明する: なぜこのシフトが起きているのか、その必然性を理解する。
  2. 実践的なロードマップを提示する: 読者が自身の現場でコンテキストエンジニアリングを導入するための具体的なステップと戦略を示す。
  3. 未来の可能性と課題を展望する: この新しいフロンティアがどこへ向かうのか、その光と影を予見する。
この考察は、皆様を単なる傍観者から、AIの真価を引き出すアーキテクトへと変えるための、実践的な招待状です。

分析と発見事項:失敗の本質は「モデル」から「コンテキスト」へ

調査結果を多角的に分析すると、AI開発における成功と失敗の要因が根本的に変化していることが明らかになります。

トレンド:"職人芸"から"システム設計"への進化

AI開発の潮流は、個々のプロンプトを洗練させる「職人芸」から、AIが活動するための情報環境全体を設計する「システム設計」へと移行しています。
観点プロンプトエンジニアリング(旧パラダイム)コンテキストエンジニアリング(新パラダイム)
スコープ単一のLLM呼び出し複数のLLM呼び出しとツール連携を含むシステム全体
時間軸静的・一回限り動的・長期的(状態を持つ)
主な関心事LLMにどう「指示」するかLLMにどのような「情報環境」を提供するか
比喩優秀な翻訳家への指示出し優秀なエージェントのためのオペレーティングシステム構築
この変化は、AIアプリケーションが単なる「チャットボット」から、自律的にタスクを遂行する「AIエージェント」へと進化する必然的な結果です。LangChainが指摘するように、エージェントの失敗の多くはモデルの性能不足ではなく、「モデルに適切なコンテキストが渡されていない」ことに起因します
langchain.com
。

意外な発見:「魔法」の正体はコンテキストにあり

一般的に、AIの驚くべき性能は「モデルの賢さ」に帰結されがちです。しかし、調査結果は、我々が「魔法のようだ」と感じる体験の裏には、緻密に設計されたコンテキストが存在することを明らかにしました。
AIソフトウェアエンジニア「Devin」を開発したCognition社が、その成功の鍵を「より良いコードベースコンテキスト🧠を持つこと」と断言している事実は、このシフトを象徴しています
cognition-labs.com
。彼らはモデルそのものよりも、DeepWikiやblockdiffといった、コンテキストを供給・管理するための独自ツールを強調しています。
これは、AI開発における新たな方程式を提示します。
AIアプリケーションの価値 = f(モデル性能 × コンテキストの質と量)
この方程式において、競合優位性の源泉は、もはやオープンなモデル性能だけではなく、企業が独自に蓄積・構築できる「コンテキスト」へと移行しているのです。

より深い分析と解釈:なぜ今、コンテキストエンジニアリングなのか?

このパラダイムシフトの背景にある「なぜ?」を3段階掘り下げることで、その本質的な意味が見えてきます。
  1. (Why? 1)なぜコンテキストが重要になったのか?
    • LLMの推論能力が向上し、単なる応答生成を超えて、複雑なタスクを計画・実行するポテンシャルを持つようになったからです。
  2. (Why? 2)なぜLLM単体では不十分なのか?
    • そのポテンシャルを発揮するには、LLMが持つ固有の弱点、すなわち「知識の陳腐化」「幻覚(Hallucination)」「外部世界との対話不可」を克服する必要があるからです。ReActフレームワークが、推論と行動(ツール利用)のサイクルによって幻覚を抑制した事例は、この課題の重要性を示しています
      arxiv.org
      。
  3. (Why? 3)なぜそれが「エンジニアリング」なのか?
    • LLMの弱点を補い、強みを最大限に引き出すためには、アドホックな対応ではなく、体系的なアプローチが必要だからです。Andrej Karpathy氏がLLMを「CPU」、コンテキストを「RAM」に例えたように
      rlancemartin.github.io
      、私たちはLLMという強力なCPUを活かすための「オペレーティングシステム(OS)」を設計する必要に迫られています。コンテキストエンジニアリングとは、まさにこの「AIのためのOS」を構築する技術体系なのです。
このOSは、「計画(Planning)」「記憶(Memory)」「ツール利用(Tool Use)」という3つの基本機能から構成されます。調査結果で示されたToT
arxiv.org
やReflexion
arxiv.org
、HuggingGPT
arxiv.org
といった技術は、このOSの機能を実装するための具体的なコンポーネントと言えるでしょう。

戦略的示唆:明日から始めるコンテキストエンジニアリング

この新しいパラダイムに適応し、競争優位を築くためには、具体的かつ段階的なアクションが求められます。

Step 1: マインドセットの変革(組織全体)

  • ゴール設定の転換: 「最高のプロンプトを作る」から「最高のコンテキストを提供する」へと目標をシフトする。
  • KPIの再定義: 開発チームの評価指標に「モデル精度」だけでなく、「タスク完了率」「コンテキスト構築の効率性」「トークンコスト削減率」などを加える。
  • 資産の再評価: 自社が持つデータ(顧客履歴、社内文書、製品カタログなど)を、AIを差別化するための「コンテキスト資産」として再評価する。

Step 2: 実践的導入(開発チーム向け)

コンテキストエンジニアリングは壮大な概念ですが、明日から着手できる具体的な一歩があります。
フェーズアクション具体的なツール/手法期待される効果
短期(1〜3ヶ月)「状態」を持つエージェントの構築LangGraphを導入し、状態(ステート)を持つエージェントのプロトタイプを開発する。
langchain-ai.github.io
長期的な対話の記憶、中断・再開可能なタスクの実現。
「記憶」の外部化Mem0のようなメモリライブラリを導入し、パーソナライズされた応答を実装する。
github.com
ユーザー体験の向上、トークンコストの大幅な削減。
中期(3〜6ヶ月)「ツール」の提供社内の既存API(在庫確認、顧客情報検索など)をLLMが使えるツールとして整備する。リアルタイム情報に基づいた、より実用的なアクションの実行。
「計画」能力の導入ReActやReflexionの考え方を取り入れ、エージェントに自己修正のループを組み込む。
arxiv.org
arxiv.org
複雑なタスクにおける成功率の向上、幻覚の抑制。
長期(6ヶ月〜)独自コンテキスト基盤の構築DevinのDeepWikiのように、自社のドメインに特化したコンテキスト供給システムを設計・開発する。
cognition-labs.com
他社が模倣不可能な、深いドメイン知識を持つAIの実現。

Step 3: リスク管理(戦略レベル)

  • 複雑性の罠: コンテキスト管理システムは、それ自体が新たな技術的負債になるリスクを孕みます。LangGraphのような標準化されたフレームワークを活用し、アーキテクチャをシンプルに保つことが重要です。
  • コンテキストの汚染: 「Garbage in, garbage out」の原則
    langchain.com
    は、コンテキストにも当てはまります。不正確または古い情報がコンテキストに含まれると、AIの判断を誤らせます。コンテキストの品質を監視・維持する仕組みが不可欠です。

今後の調査:コンテキストエンジニアリングの未踏領域

今回の分析は、コンテキストエンジニアリングの現在地を明らかにしましたが、このフロンティアはまだ始まったばかりです。今後、さらなる価値を創造するためには、以下のテーマを探求する必要があります。
  • コンテキストの自動最適化: どの情報がタスク成功に最も寄与したかをAI自身が学習し、コンテキストの内容を動的に最適化する技術の研究。
  • マルチエージェント・コンテキスト管理: 複数のAIエージェントが協調・競合する際に、コンテキストをどのように安全かつ効率的に共有・分離するかのアーキテクチャ設計。
  • コンテキストの信頼性と説明可能性: AIがなぜそのコンテキストを選択し、その結論に至ったのかを人間が理解し、検証できるメカニズムの確立。
  • プライベート・コンテキストの保護: ユーザーの個人情報など、機密性の高い情報をコンテキストとして利用する際の、プライバシー保護技術と倫理的ガイドラインの策定。
  • コンテキストエンジニアリングのROI計測: コンテキスト基盤への投資対効果を定量的に測定し、ビジネス価値を証明するためのフレームワーク開発。
これらの課題を乗り越えた先に、AIが真に社会の隅々で価値を発揮する未来が待っています。コンテキストエンジニアリングは、その未来を拓くための、最も重要かつエキサイティングな挑戦領域なのです。

📖 レポートに利用された参考文献

検索結果: 0件追加のソース: 30件チャット: 3件

30件の参考文献から33件の情報を精査し、約165,000語の情報を整理しました。あなたは約14時間の調査時間を削減したことになります🎉

調査された文献
30件
精査された情報
33件
整理された情報量
約165,000語
削減された時間
約14時間

🏷 AI開発の新潮流:プロンプトからコンテキストエンジニアリングへ

Don’t miss what’s happening People on X are the first to know. Log in Sign up Like Post See new posts Conversation tobi lutke @tobi Follow I really like the term “context engineering” over prompt engineering. It describes the core skill better: the art of providing all the context for the task to be plausibly solvable by the LLM. 3:01 AM · Jun 19, 2025 · 1.7M Views 337 1K 8.1K 2.2K Read 337 replies
user: Don’t miss what’s happening People on X are the first to know. Log in Sign up Like Post See ne...
x.comx.com
The New Skill in AI is Not Prompting, It's Context Engineering
# The New Skill in AI is Not Prompting, It's Context Engineering Context Engineering is new term ga...
philschmid.dephilschmid.de
Context Engineering for Agents
# Context Engineering for Agents ### Context Engineering As Andrej Karpathy puts it, LLMs are like...
rlancemartin.github.iorlancemartin.github.io
Context engineering
The term **context engineering** has recently started to gain traction as a better alternative to pr...
simonwillison.netsimonwillison.net
The rise of "context engineering"
The rise of "context engineering" Skip to conten...
langchain.comlangchain.com

🏷 LLMの能力を拡張する主要技術:計画・記憶・ツール利用の実現手法

Context windows - Anthropic
# Context windows ## Understanding the context window The “context window” refers to the entirety ...
anthropic.comanthropic.com
Reflexion: Language Agents with Verbal Reinforcement Learning
# Computer Science > Artificial Intelligence [Submitted on 20 Mar 2023 ( [v1](https://arxiv.org/ab...
arxiv.orgarxiv.org
Lost in the Middle: How Language Models Use Long Contexts
# Computer Science > Computation and Language [Submitted on 6 Jul 2023 ( [v1](https://arxiv.org/ab...
arxiv.orgarxiv.org
LLM Powered Autonomous Agents
Building agents with LLM (large language model) as its core controller is a cool concept. Several pr...
lilianweng.github.iolilianweng.github.io
Chain of Hindsight Aligns Language Models with Feedback
# Computer Science > Machine Learning [Submitted on 6 Feb 2023 ( [v1](https://arxiv.org/abs/2302.0...
arxiv.orgarxiv.org
Chain-of-Thought Prompting Elicits Reasoning in Large Language Models
# Computer Science > Computation and Language [Submitted on 28 Jan 2022 ( [v1](https://arxiv.org/a...
arxiv.orgarxiv.org
LLM+P: Empowering Large Language Models with Optimal Planning Proficiency
# Computer Science > Artificial Intelligence [Submitted on 22 Apr 2023 ( [v1](https://arxiv.org/ab...
arxiv.orgarxiv.org
Toolformer: Language Models Can Teach Themselves to Use Tools
# Computer Science > Computation and Language [Submitted on 9 Feb 2023] # Title:Toolformer: Langua...
arxiv.orgarxiv.org
Tree of Thoughts: Deliberate Problem Solving with Large Language Models
# Computer Science > Computation and Language [Submitted on 17 May 2023 ( [v1](https://arxiv.org/a...
arxiv.orgarxiv.org
ReAct: Synergizing Reasoning and Acting in Language Models
# Computer Science > Computation and Language [Submitted on 6 Oct 2022 ( [v1](https://arxiv.org/ab...
arxiv.orgarxiv.org
In-context Reinforcement Learning with Algorithm Distillation
# Computer Science > Machine Learning [Submitted on 25 Oct 2022] # Title:In-context Reinforcement ...
arxiv.orgarxiv.org
MRKL Systems: A modular, neuro-symbolic architecture that combines large language models, external knowledge sources and discrete reasoning
# Computer Science > Computation and Language [Submitted on 1 May 2022] # Title:MRKL Systems: A mo...
arxiv.orgarxiv.org
調査のまとめ
コンテキストエンジニアリングは、大規模言語モデル(LLM)の能力を最大限に引き出すための多様な手法やフレームワークを包含する概念です。調査の結果、特に「計画」「記憶」「ツール利用」といった側面を強化す...
調査のまとめ
LangGraphの具体的な実装方法について調査しました。永続化機能については詳細な情報を得られましたが、「Human-in-the-loop」および「Multi-agent collaboratio...

🏷 最先端の応用事例:AIエージェント「Devin」を支える技術と関連ツール

GitHub - mem0ai/mem0: Memory for AI Agents; Announcing OpenMemory MCP - local and secure memory management.
[Learn more](https://mem0.ai) · [Join Discord](https://mem0.dev/DiG) · [Demo](https://mem0.dev/demo)...
github.comgithub.com
Cognition | Blog
How we built blockdiff, an open-source tool for rapid block-level diffs and snapshots of VM disks. ...
cognition-labs.comcognition-labs.com
Generative Agents: Interactive Simulacra of Human Behavior
# Computer Science > Human-Computer Interaction [Submitted on 7 Apr 2023 ( [v1](https://arxiv.org/...
arxiv.orgarxiv.org
HuggingGPT: Solving AI Tasks with ChatGPT and its Friends in Hugging Face
# Computer Science > Computation and Language [Submitted on 30 Mar 2023 ( [v1](https://arxiv.org/a...
arxiv.orgarxiv.org
ChemCrow: Augmenting large-language models with chemistry tools
# Physics > Chemical Physics [Submitted on 11 Apr 2023 ( [v1](https://arxiv.org/abs/2304.05376v1))...
arxiv.orgarxiv.org
Emergent autonomous scientific research capabilities of large language models
# Physics > Chemical Physics [Submitted on 11 Apr 2023] # Title:Emergent autonomous scientific res...
arxiv.orgarxiv.org
GitHub - yoheinakajima/babyagi
Note The original BabyAGI from March 2023 introduced task planning as a method for developing auton...
github.comgithub.com
API-Bank: A Comprehensive Benchmark for Tool-Augmented LLMs
# Computer Science > Computation and Language [Submitted on 14 Apr 2023 ( [v1](https://arxiv.org/a...
arxiv.orgarxiv.org
Overview
Overview Skip to content We are growing and hiring for multiple roles for LangChain, LangGraph and L...
langchain-ai.github.iolangchain-ai.github.io
Overview
Overview Skip to content We are growing and hiring for multiple roles for LangChain, LangGraph and L...
langchain-ai.github.iolangchain-ai.github.io
Overview
Overview Skip to content We are growing and hiring for multiple roles for LangChain, LangGraph and L...
langchain-ai.github.iolangchain-ai.github.io
LangGraph
LangGraph Skip to content We are growing and hiring for multiple roles for LangChain, LangGraph and ...
langchain-ai.github.iolangchain-ai.github.io
まず、https://python.langchain.com/docs/langgraph にアクセスします。,次に、左のナビゲーションメニューから「How-to」セクションを探し、その中の「Persistence」の項目をクリックします。会話の履歴や状態を永続化するためのチェックポイント機能に関するコード例や説明を収集します。,続いて、同じく「How-to」セクション内の「Human-in-the-loop」の項目に移動し、エージェントの実行中に人間が介入・修正する具体的な実装方法を調査します。,ナビゲーションメニューから「Use cases」セクションを探し、「Multi-agent collaboration」またはそれに類する項目(例:「Agent Supervisor」)をクリックします。,最後に、複数のエージェントが状態(State)を共有・分離しながら協調してタスクを解決するアーキテクチャと、その実装コードのパターンを収集します。
<step>1</step> <url>about:blank</url> <title>Setting up #82aa...</title> <thoughts><thinking>ユーザーの要...
supabase.cosupabase.co
調査のまとめ
コンテキストエンジニアリングの具体的な技術要素と実践的な応用例について、調査結果を基に詳細を解説します。 #### #### コンテキストエンジニアリングの技術要素と実装 コンテキストエンジニアリ...

📖 レポートに利用されていない参考文献

検索結果: 0件追加のソース: 0件チャット: 0件

📊 ドメイン統計

参照ドメイン数: 12引用済み: 12総文献数: 30
1
Favicon for https://arxiv.orgarxiv.org
引用: 15件/ 総数: 15件
引用率: 100.0%
2
Favicon for https://langchain-ai.github.iolangchain-ai.github.io
引用: 4件/ 総数: 4件
引用率: 100.0%
3
Favicon for https://github.comgithub.com
引用: 2件/ 総数: 2件
引用率: 100.0%
4
Favicon for https://x.comx.com
引用: 1件/ 総数: 1件
引用率: 100.0%
5
Favicon for https://philschmid.dephilschmid.de
引用: 1件/ 総数: 1件
引用率: 100.0%
6
Favicon for https://rlancemartin.github.iorlancemartin.github.io
引用: 1件/ 総数: 1件
引用率: 100.0%
7
Favicon for https://simonwillison.netsimonwillison.net
引用: 1件/ 総数: 1件
引用率: 100.0%
8
Favicon for https://langchain.comlangchain.com
引用: 1件/ 総数: 1件
引用率: 100.0%
9
Favicon for https://anthropic.comanthropic.com
引用: 1件/ 総数: 1件
引用率: 100.0%
10
Favicon for https://cognition-labs.comcognition-labs.com
引用: 1件/ 総数: 1件
引用率: 100.0%
11
Favicon for https://lilianweng.github.iolilianweng.github.io
引用: 1件/ 総数: 1件
引用率: 100.0%
12
Favicon for https://supabase.cosupabase.co
引用: 1件/ 総数: 1件
引用率: 100.0%

新しいテーマを調査する

運営会社サービス概要メディア
  • 📜要約
  • 📊ビジュアライズ
  • 🖼関連する画像
  • 🔍詳細
    • 🏷AI開発の新潮流:プロンプトからコンテキストエンジニアリングへ
    • 🏷LLMの能力を拡張する主要技術:計画・記憶・ツール利用の実現手法
    • 🏷最先端の応用事例:AIエージェント「Devin」を支える技術と関連ツール
  • 🖍考察
  • 📚参考文献
    • 📖利用された参考文献
    • 📖未使用の参考文献
    • 📊ドメイン統計