
英国NCSC、AI脅威の公開開示を支持
英国の主要なサイバーおよびAIセキュリティ機関は、AIの安全装置回避の脅威を特定し対処するプロセスをクラウドソーシングする取り組みを歓迎しました。
本日発表されたブログ投稿で、英国国家サイバーセキュリティセンター(NCSC)のAI研究セキュリティ技術ディレクターであるケイト・SとAIセキュリティ研究所(AISI)の研究科学者であるロバート・カークは、こうした脅威が最前線のAIシステムに与えるリスクを強調しました。
サイバー犯罪者は、ChatGPT、Gemini、Llama、Claudeなどのモデルに組み込まれたセキュリティおよび安全ガードレールを回避する能力を示しています。最近、ESETの研究者はOpenAIを使用して構築された「初のAI駆動型ランサムウェア」を発見しました。
NCSCとAISIは、OpenAIとAnthropicから新たに開始されたバグバウンティプログラムが、これらのリスクを軽減する有効な戦略になる可能性があると提案しました。これは、脆弱性の公開が通常のソフトウェアのセキュリティを強化する方法に似ています。
彼らは、AIシステムの安全装置を展開後も目的に適合させることが、責任ある開示と業界の協力文化を促進し、セキュリティコミュニティ全体の関与を増やし、研究者がスキルを磨くことを可能にすると期待しています。
しかし、NCSCとAISIは、脅威報告のトリアージと管理にかなりのオーバーヘッドが発生する可能性があり、参加する開発者はまず堅固な基礎セキュリティ慣行を確立する必要があると警告しました。
ブログでは、安全装置回避の脅威分野で効果的な公開プログラムを開発するためのいくつかのベストプラクティス原則が説明されました。