
Gemini AIの脆弱性によるデータ流出の危険性
Tenable Researchは、GoogleのGemini AIアシスタントスイートにおける3つの脆弱性を発見し、ユーザーに重大なプライバシーリスクをもたらしました。これらの脆弱性により、Geminiは検索パーソナライズモデルにおける検索インジェクション攻撃、Gemini Cloud Assistに対するログインジェクション攻撃、Geminiブラウジングツールを介したユーザーデータの流出に対して脆弱でした。
これらの脆弱性は、攻撃者がJavaScriptを使用して被害者のブラウザ履歴を操作し、悪意のあるウェブサイトを訪問させ、Geminiに悪意のあるプロンプトを注入してデータを流出させることを可能にしました。Geminiの「Show Thinking」機能を使用して攻撃プロセスを示しましたが、実際にはこの脆弱性はより隠密です。
GCPの複雑なログを要約するために設計されたGemini Cloud Assistは、メタデータだけでなく生のログから直接情報を取得することが判明し、ログコンテンツに埋め込まれた命令を実行する可能性があることが懸念されました。これにより、ログが攻撃者制御のテキストを含む場合、アクティブな脅威ベクトルになる可能性があることが示されました。
Googleは、これらの脆弱性を軽減するために大規模な努力を行い、イメージマークダウンやハイパーリンクを通じたデータ漏洩を防ぐためにGeminiの応答をサンドボックス化しました。しかし、攻撃者はGeminiのツールを利用してユーザーデータを悪意のあるサーバーに送信する方法を見つけました。
この研究は、AI駆動のプラットフォームにおけるセキュリティリスクの存在を強調し、入力チャネルが潜在的な侵入ポイントになり得ることを示しています。高度にパーソナライズされたAIシステムにおける強固なセキュリティ対策の重要性を思い出させるものです。