エージェントAI(意思決定、ツールの発見、他のエージェントとの連携が可能な自律システム)の急速な進化は、企業のサイバーセキュリティを大きく変革しつつあります。Anthropicのモデルコンテキストプロトコル(MCP)、Googleのエージェント間(A2A)、IBMのエージェント通信プロトコル(ACP)といったフレームワークが組織に導入されるにつれ、専門家は、次なるサイバーセキュリティの脅威はデータ侵害ではなく「エージェント侵害」からもたらされると警告しています。“
機密データを漏洩させる従来の侵害とは異なり、エージェント侵害は、AIモデルがコマンドを誤って解釈したり、制限されたシステムにアクセスしたり、安全でないチャネルを介して情報を共有したりするなど、意図しない、あるいは許可されていないエージェントの行動を伴います。これらのインシデントは機械の速度で進行するため、人間による攻撃よりも迅速かつ深刻な被害をもたらします。.
主なセキュリティ上の課題は次のとおりです。
- MCP の脆弱性: エージェントはツールを動的に検出できますが、検証レイヤーがないと、信頼できないアプリケーションや悪意のあるアプリケーションとやり取りするリスクがあります。.
- A2Aの説明責任のギャップ: 異なるベンダーのエージェントが通信する場合、決定の所有権とデータの整合性が不明確になります。.
- 悪用可能な攻撃対象領域: ハッカーは、モデル アーキテクチャを抽出したり、ツール スキーマを盗んだり、エージェントの指示を操作したりして、企業システムにアクセスする可能性があります。.
実際の例では、攻撃者が支払いエージェントを騙して不正な取引を実行したり、データ ポイズニングを通じてマルチエージェントの意思決定システムを長期にわたって操作したりする方法を示しています。.
これらのリスクを軽減するために、サイバーセキュリティのリーダーは、 5段階のフレームワーク 安全なAI導入のために:
- モデルアクセスを一元化する 監視されたゲートウェイを介して。.
- ハイパースケーラーツールを使用する ただし、モデル選択の制御は保持されます。.
- ベンダーコンプライアンスの強化 内部統制を備えています。.
- プロセスを標準化する AI コスト、テスト、およびモデルのドリフトについて。.
- 安全なリポジトリを維持する プロンプトとツール用。.
データ侵害の防止からエージェントの行動を制御するためのチェスは、サイバーセキュリティの新たなフロンティアです。企業がGenAIの導入を加速するにつれ、エージェントAIアーキテクチャにセキュリティを組み込むことが、セキュリティ確保にとって重要になります。この新たなエコシステムにおける信頼と自律性を確立します。.
ソース:
https://www.techradar.com/pro/agentic-ai-introduces-new-security-challenges-in-era-of-mcp-and-a2a

