
GitHub Copilotの脆弱性で機密データが漏洩
GitHub Copilotの脆弱性により、機密データが漏洩する可能性があることが判明しました。研究者は、このAIツールを利用して、プライベートリポジトリからAWSキーなどの情報を漏洩させる方法を発見しました。この脆弱性は、GitHubのAIアシスタントが分析するプルリクエストに隠されたコメントを通じて悪用されました。
サイバーセキュリティ企業Legit Securityの研究者オマー・マイラズは、GitHubのインフラを利用したCSPバイパスとリモートプロンプトインジェクションを組み合わせた攻撃を報告しました。GitHubはCopilot Chatでの画像レンダリングを無効にすることで問題を解決しました。
AIチャットボットを外部ツールにさらすことは、攻撃面を増加させ、悪意のあるプロンプトがユーザー権限で実行される可能性を提供します。GitHub Copilot Chatは、コードの説明や提案を提供することで開発者を支援し、ユーザーリポジトリへのアクセスが必要です。
攻撃者は、プルリクエストを通じて他のユーザーのGitHub Copilot Chatに悪意のあるプロンプトを実行することができます。これらのリクエストには、GitHubの機能により隠されたコンテンツが含まれることがあります。
マイラズは、Copilotがユーザーのすべてのコードにアクセスできることを悪用して機密情報を漏洩させることができるかどうかをテストしました。CopilotのHTMLタグを使用した画像表示機能は、リモートサーバーへのリクエストをトリガーする可能性を開きます。
GitHubは、Copilot ChatでのCamo URLを通じた画像レンダリングを無効にすることで問題を解決しました。この脆弱性は、既存のデータ漏洩防止メカニズムを回避する方法を示しています。