AIエージェントが「覚えてくれる」時代が始まった
ファイルベースの永続メモリ / 共有ナレッジベース / Netflix・Rakutenの導入効果
2026年4月23日、AnthropicはClaude Managed Agentsに「永続メモリ」機能を追加し、パブリックベータとして提供を開始しました。AIエージェントがセッションをまたいで学習を蓄積し、組織のナレッジベースとして成長する仕組みです。この記事では、技術的な仕組み、管理者が行える操作、そして先行導入企業の事例をもとに、企業のAI活用がどう変わるかを整理しています。
永続メモリとは何か — 従来のAIとの違い
従来のAIチャットボットやエージェントは、セッションが終了すると会話の内容をすべて忘れてしまいます。毎回「はじめまして」の状態からやり直す必要があり、繰り返し同じ説明をする手間が発生していました。ChatGPTのメモリ機能やGeminiの長期記憶も部分的にこの問題を解決していますが、あくまで「ユーザー個人の好みや基本情報」を記録する範囲にとどまっています。
Claude Managed Agentsの永続メモリは、これとは根本的に異なるアプローチを取っています。エージェントが業務の中で得た知見、発見したパターン、解決した問題とその手順を、構造化された形で長期的に蓄積します。たとえば、社内のITヘルプデスクとして運用しているClaudeエージェントが、「VPN接続の問題はまずDNS設定を確認し、次にファイアウォールの例外を確認するのが最も効率的」という知見を学習し、次回以降は最初からその手順で対応を始められるようになります。
この機能が重要な理由は、企業でのAIエージェント運用において「引き継ぎの問題」が深刻だったからです。人間のスタッフが退職する際に業務知識が失われるのと同様に、AIエージェントもセッションごとにリセットされると、過去の対応で得たノウハウが活用されません。永続メモリは、この「組織知の喪失」をAIレベルで解決する仕組みです。
ファイルシステムベースのメモリ設計
Claude Managed Agentsの永続メモリは、一般的なベクトルデータベースではなく、ファイルシステムにマウントする方式を採用しています。これは技術的に非常にユニークな設計判断であり、その背景にはAnthropicの「透明性」と「制御可能性」に対するこだわりがあります。
ベクトルデータベース方式の場合、メモリの内容は高次元ベクトルに変換されて保存されるため、人間が直接中身を確認することが困難です。「AIが何を覚えているか」がブラックボックスになりやすく、不適切な情報を記憶してしまった場合の修正も容易ではありません。一方、ファイルシステム方式では、メモリの内容がそのままテキストファイルやMarkdownファイルとして保存されるため、管理者が直接読んで確認し、必要に応じて編集や削除ができます。
具体的には、エージェントの作業ディレクトリ内に専用のメモリフォルダが作成され、エージェントがセッション中に得た知見を自動的にファイルとして書き出します。ファイルはカテゴリ別に整理され、たとえば「顧客対応パターン」「技術的な解決策」「社内ルールの要約」といったフォルダに分類されます。次回のセッション開始時に、エージェントはこれらのファイルを読み込み、過去の知見を引き継いだ状態で業務を開始します。
- 形式 — テキストファイル(Markdown / JSON)
- 保存先 — エージェントの作業ディレクトリ内の専用フォルダ
- 更新タイミング — セッション中にリアルタイムで書き込み
- 読み込み — セッション開始時に全メモリファイルをコンテキストに注入
- 容量制限 — コンテキストウィンドウに収まる範囲(Claude Opus 4.7で約200Kトークン)
開発者が行えるメモリ管理
永続メモリのもう一つの特徴は、開発者や管理者がメモリの内容を完全にコントロールできる点です。AIが「勝手に覚えた不正確な情報」をそのまま使い続けるリスクを、人間側で管理できます。
ロールバック機能
メモリにはバージョン管理が組み込まれており、任意の時点の状態に巻き戻すことができます。たとえば、エージェントが誤った業務ルールを学習してしまった場合、問題が発生する前のバージョンにロールバックして正しい状態を復元できます。Gitのコミット履歴に似た概念で、「いつ、何が変更されたか」の履歴が保持されます。
このロールバック機能は、エージェントの品質管理において非常に重要です。人間が新しい業務マニュアルを誤って理解してしまう場合と同様に、AIエージェントも不正確な知見を蓄積する可能性があります。その際に「この日のメモリの状態が正しかった」と確認してロールバックできることで、メモリの品質を維持できます。
また、ロールバックはエージェントの「A/Bテスト」にも活用できます。異なるメモリ構成のエージェントを並行運用し、どちらがより正確な対応を行うかを比較検証することで、最適なメモリ設計を見つけることができます。
API経由のメモリ操作
Anthropic APIを通じて、メモリの読み取り・書き込み・削除・バージョン管理をプログラマティックに操作できます。これにより、既存の業務システムとメモリの連携が可能になります。たとえば、CRMシステムで顧客情報が更新された際に、自動的にエージェントのメモリにも反映させるワークフローを構築できます。
API操作には権限管理が組み込まれており、「メモリの読み取りは許可するが書き込みは管理者のみ」といった細かなアクセス制御が可能です。エンタープライズ環境では、エージェントが自律的にメモリを更新するのではなく、管理者の承認を経てからメモリに反映するワークフローも設定できます。
メモリの内容はエクスポート機能を使ってバックアップすることも可能です。定期的なバックアップを設定しておけば、万が一のデータ損失時にも復元できます。エクスポートされたメモリはそのままMarkdownファイルとして扱えるため、人間が確認・編集して再インポートする運用も容易です。
共有メモリストア — 組織のナレッジベースとして
永続メモリの中でも特に画期的なのが「共有メモリストア」の機能です。これは、複数のエージェントが同じメモリプールを参照・更新できる仕組みで、組織全体のナレッジベースとしてAIを活用する道を開きます。
従来のAIエージェント運用では、各エージェントが個別に学習した知見は他のエージェントと共有されませんでした。カスタマーサポートのエージェントAが発見した問題解決パターンを、同じ業務を担当するエージェントBは知りません。共有メモリストアでは、エージェントAが蓄積した知見がリアルタイムで共有プールに反映され、エージェントBも即座にその知見を活用できます。
企業の実務において、この機能はナレッジマネジメントの課題を解決するポテンシャルを持っています。多くの企業では、ベテラン社員の暗黙知がドキュメント化されずに属人的なままになっています。共有メモリストアを活用すれば、各部門のAIエージェントが業務の中で蓄積した知見が自動的に組織全体のナレッジとして蓄積され、新しいエージェントや新しい担当者がすぐにその知見にアクセスできるようになります。
アクセス制御とガバナンス
共有メモリストアには、部門やチームごとのアクセス制御が設定できます。人事部門のエージェントが蓄積した従業員情報に関するメモリに、営業部門のエージェントがアクセスできないようにするといった制御が可能です。これは、企業の情報セキュリティポリシーに準拠した運用を行う上で不可欠な機能です。
メモリの更新には承認フローを組み込むことも可能です。エージェントが新しい知見を共有メモリに書き込む前に、管理者がその内容を確認・承認するワークフローを設定できます。これにより、不正確な情報や機密情報が意図せず共有メモリに混入するリスクを低減できます。
監査の観点からも、共有メモリストアはすべての読み書き操作のログを保持しています。「いつ、どのエージェントが、どのメモリを参照・更新したか」を追跡できるため、コンプライアンス要件の厳しい業界でも安心して利用できます。
先行導入企業の事例
永続メモリ機能は2026年2月からクローズドベータとして一部企業に提供されていました。パブリックベータに先立ち、Anthropicは代表的な導入事例を公開しています。
Netflixの事例 — エラー削減97%
Netflixは、コンテンツ配信システムの障害対応にClaude Managed Agentsを導入していました。永続メモリの追加により、エージェントが過去の障害対応パターンを蓄積し、類似の障害が発生した際に即座に最適な対応手順を提示できるようになりました。結果として、初動対応でのエラー(誤った対応手順を提示するケース)が97%削減されたとAnthropicは報告しています。
この劇的な改善の背景には、障害対応という業務の特性があります。障害対応は「似たようなパターンが繰り返し発生するが、毎回微妙に異なる」という特徴を持ちます。永続メモリがなければ、エージェントは毎回ゼロから原因を推測する必要がありますが、メモリがあれば「以前の類似障害ではこの対応が有効だった」という知見を基に、はるかに効率的に対応できます。
Netflixはまた、共有メモリストアを活用して、各リージョン(北米、欧州、アジア太平洋)の障害対応チームが蓄積した知見を全社で共有しています。ある地域で発見された問題の解決策が、他の地域で同様の問題が発生した際にすぐに活用されるようになりました。
Rakutenの事例 — 対応速度30%向上
Rakutenは、ECプラットフォームの出店者サポートにManaged Agentsを活用しています。永続メモリの導入後、出店者からの問い合わせへの平均対応時間が30%短縮されたと報告されています。エージェントが過去の問い合わせパターンと解決策を記憶しているため、類似の問い合わせに対してすぐに的確な回答を提供できるようになりました。
特に効果が大きかったのは、出店者ごとのコンテキスト維持です。以前は、同じ出店者が異なるセッションで問い合わせるたびに、店舗の基本情報や過去の問い合わせ履歴をゼロから確認する必要がありました。永続メモリにより、「この出店者は以前XXの問題を報告しており、YYの対応で解決した」という文脈を保持した状態で対応を開始できるようになりました。
Rakutenはメモリの品質管理にも力を入れており、週次で管理者がメモリの内容をレビューし、不正確な情報や古くなった情報を手動で修正する運用フローを確立しています。この人間によるメモリの「キュレーション」が、エージェントの回答品質を安定的に維持する鍵になっているとしています。
他のAIプラットフォームのメモリ機能との比較
永続メモリ機能は、Claude Managed Agentsだけの専売特許ではありません。各社がそれぞれのアプローチでメモリ機能を提供しています。比較することで、それぞれの強みと制約が見えてきます。
| プラットフォーム | メモリ方式 | 管理者の制御 | 共有機能 |
|---|---|---|---|
| Claude Managed Agents | ファイルシステム(テキスト) | 編集・削除・ロールバック可 | 共有メモリストア |
| ChatGPT / GPT-5.5 | ベクトルDB + サマリー | 削除のみ(内容確認が困難) | なし(個人単位) |
| Gemini | Googleアカウント連携 | オン/オフの切り替えのみ | Workspace連携(限定的) |
| Microsoft Copilot | Microsoft Graph連携 | Graph APIで管理 | 組織のGraph経由 |
Claude Managed Agentsの最大の差別化ポイントは「透明性」です。メモリの内容がテキストファイルとして可視化されているため、「AIが何を覚えているか」を管理者がいつでも確認できます。ChatGPTやGeminiのメモリは内部的に処理され、ユーザーが直接中身を確認・編集することが難しい仕組みです。
一方で、ファイルシステム方式にはスケーラビリティの課題があります。メモリの量が増えるとコンテキストウィンドウを圧迫し、実質的な作業領域が狭くなります。ベクトルDB方式のほうが大量のメモリを効率的に検索・取得できる場合もあり、用途によっては一長一短です。
Microsoft Copilotのメモリは、Microsoft Graphという既存のデータ基盤と統合されている点が独特です。メールやカレンダー、Teams、SharePointの情報がすべてメモリとして活用されるため、Microsoft 365をヘビーに使っている企業にとっては自然な形でAIメモリが構築されます。ただし、Graph外の情報は対象外となるため、マルチプラットフォーム環境では制約があります。
導入時の注意点とベストプラクティス
永続メモリは強力な機能ですが、適切に管理しなければリスクにもなり得ます。導入を検討する際に押さえておくべきポイントを整理します。
メモリの定期レビュー体制
AIが自律的に蓄積したメモリには、誤った情報や古くなった情報が含まれる可能性があります。社内ルールが変更されたのにメモリに古いルールが残っている場合、エージェントは古いルールに基づいて対応してしまいます。最低でも月次で管理者がメモリの内容をレビューし、不正確な情報を修正する体制を整えましょう。
レビューの効率化には、メモリのカテゴリ分類が役立ちます。「社内ポリシー」「顧客対応パターン」「技術的知見」といったカテゴリごとに担当者を割り当て、それぞれの専門領域でレビューを行うことで、精度の高い品質管理が可能になります。
また、メモリの更新頻度を監視することも重要です。特定のカテゴリのメモリが急激に増えている場合、エージェントがそのカテゴリの問い合わせに多く遭遇していることを示しており、根本的な業務改善のヒントになる場合があります。
機密情報の管理
永続メモリにはエージェントが業務中に触れた情報が蓄積されるため、意図せず機密情報が記録される可能性があります。顧客の個人情報、社内の機密プロジェクトの情報、契約条件などがメモリに残らないよう、メモリフィルタの設定が重要です。
Anthropicは、メモリに記録する情報の種類を制御するフィルタリング機能を提供しています。「個人情報に該当するパターンはメモリに書き込まない」「特定のキーワードを含む情報は自動的にマスキングする」といったルールを設定できます。
さらに、メモリの保持期間を設定することも可能です。「90日以上更新されていないメモリは自動削除」といったポリシーを設定することで、古い情報が残り続けるリスクを低減できます。保持期間の設定は、個人情報保護法やGDPRなどの法令遵守の観点からも重要です。
まとめ
Claude Managed Agentsの永続メモリは、AIエージェントを「使い捨てのチャットボット」から「成長する組織メンバー」へと進化させる機能です。ファイルシステムベースの透明な設計により、管理者がメモリの内容を直接確認・編集・ロールバックできる点は、エンタープライズ利用において大きな安心材料になります。
NetflixやRakutenの先行事例が示すように、永続メモリの導入効果は業務の性質によって大きく異なります。「繰り返し発生する類似の問い合わせ」や「過去の対応パターンが参考になる業務」で特に高い効果が期待できます。まずは限定的な業務領域でパイロット導入し、メモリの品質管理体制を構築した上で段階的に展開していくのが現実的なアプローチです。
AI活用の次のステージは、「AIが回答する」から「AIが学習し続ける」への転換です。永続メモリは、その転換を支える基盤技術として、今後ますます重要性を増していくでしょう。
はてなベースでは、Claude Managed Agentsをはじめとする最新AIエージェント技術を業務に組み込むための支援を行っています。
-
AIエージェント組み込みサポート
経理DX事業部が、既存業務フローへのAIエージェント導入を設計から実装まで支援します -
データ基盤の整備
AIエージェント活用の前提となるデータ統合・整理を支援。散在するデータを一元化し、AI活用の土台をつくります -
オンプレミスAI導入支援
「全社でAIを使いたいがセキュリティが心配」という企業向けに、オンプレミス環境での生成AI導入を支援します