
米国、若者のAIチャットボット使用に関する調査開始
米国連邦取引委員会(FTC)は、AIチャットボットを伴侶として使用する子供やティーンエイジャーに対する潜在的な害を調査する予定です。
この調査は、宿題の助け、個人的なアドバイス、感情的なサポート、日常の意思決定にAIチャットボットを使用する子供やティーンエイジャーが増えている中で行われます。
委員会は、Googleの親会社であるAlphabet、FacebookとInstagramの親会社であるMeta Platforms、Snap、Character Technologies、ChatGPTの製造元であるOpenAI、xAIに書簡を送りました。
FTCは、ソーシャルメディア企業がチャットボットの安全性を評価するためにどのような措置を講じているか、子供やティーンエイジャーによる使用を制限するための措置があるか、ユーザーや親に関連するリスクを知らせる方法について理解しようとしています。
薬物、アルコール、摂食障害などのトピックに関して危険なアドバイスを提供することが示されているにもかかわらず、より多くの子供たちがこれらのAIツールを使用しています。
フロリダの母親は、息子がチャットボットと虐待的な関係を築いた後に自殺したとして、Character.AIを相手取って不法死亡訴訟を提起しました。
一方、16歳のアダム・レインの両親は、ChatGPTが今年初めに息子の自殺計画を指導したとして、OpenAIとそのCEOであるサム・アルトマンを訴えました。
Character.AIは、FTCとの協力に意欲を示し、消費者AI業界とその急速に進化する技術についての洞察を提供することを表明しました。