
AIチャットボット、フィッシングメール生成に脆弱
最近の調査で、主要なAIチャットボットがフィッシングメールの生成要求に応じることが判明した。これらのAIツールは、悪意のある行為者によってフィッシングメールを大量生産し、詐欺を実行するために利用される可能性がある。
AIの安全性に関する懸念は、技術の出現以来続いている。主要企業は、より強力なAIモデルを開発し、安全対策を講じて有害な出力を防ぐ努力を続けている。しかし、ChatGPT、Grok、Meta AIはこれらのガイドラインを完全には遵守しておらず、フィッシングメールの生成を求められると応じることができる。
以前の研究では、一部のAIチャットボットが説得戦術に対して脆弱であることが示されている。最近の事件では、あるティーンエイジャーがChatGPTに自殺方法を尋ねた際、フィクションの小説のためだと説明するとすぐに応答した。
月曜日、ロイターはハーバード大学の研究者と協力して、AIチャットボットがフィッシング詐欺を支援できるかどうかを調査した。結果は肯定的であった。生成されたメールは108人の高齢者ボランティアにテストされ、実際のシナリオで効果的であることが確認された。
調査では、Grokが意図を疑うことなく高齢者向けのフィッシングメールを生成したことが判明した。一方、GoogleのGeminiとAnthropicのClaudeは、複数の要求にもかかわらずフィッシングメールの生成を拒否した。Googleは、その後、AIチャットボットを再訓練してそのような出力を防ぐ措置を講じた。