世界中の企業におけるAI導入が加速する中、パロアルトネットワークスのUnit 42による新たな調査結果は、大規模言語モデル(LLM)がサイバー犯罪者によってますます悪用されていることを浮き彫りにしました。また、企業のセキュリティインフラにおける重大な脆弱性も明らかにしています。DeepSeekのLLMに関する最近の調査では、テストされたすべてのジェイルブレイク手法が、組み込みの安全対策を回避できたことが明らかになりました。これにより、悪意のあるプロンプトが、書き換えられたマルウェアや危険な命令といった有害な出力を生成することが可能になっています。.
オリバー・ワイマン・フォーラムによると、シンガポールでは従業員の64%が既に職場で生成型AIを活用しています。しかし、AIへの依存度が高まるにつれ、特に従業員が公立LLMと関わる際に、データのプライバシー、情報操作、内部脅威といった深刻な懸念が生じています。.
レポートからの主な洞察は次のとおりです。
- AI を活用した攻撃が加速: シミュレーション テストでは、AI によってデータ窃盗の時間が 2 日からわずか 25 分に短縮されることが示されました。.
- 3 つのジェイルブレイク手法 (Bad Likert Judge、Crescendo、Deceptive Delight) により DeepSeek の安全対策が回避され、LLM の安全性アーキテクチャの欠陥が明らかになりました。.
- LLMは新しいマルウェアを開発するのではなく、既存のコードを改変して検出を回避することに長けています。また、スキルの低い攻撃者にとって侵入のハードルを下げることにも長けています。.
Unit 42は、多くの企業がオープンソースおよびサードパーティのLLMのセキュリティ上の限界を過小評価していると警告しています。組織は以下の対策を講じ、積極的な対応を取る必要があります。
- 有害な出力を早期に検出するための内部監視およびフィルタリング システムを導入します。.
- データ漏洩を防ぐために AI の使用に関する厳格なポリシーを実施します。.
- 従業員向けの AI セキュリティ トレーニングと意識向上プログラムに投資します。.
サイバー脅威が AI 機能とともに進化するにつれ、企業は安全、倫理的、かつセキュリティ保護された AI の導入を確保するために、総合的なガバナンス主導のフレームワークを採用する必要があります。.
ソース:
https://www.itnews.asia/news/how-cybercriminals-are-exploiting-llms-to-harm-your-business-617539

