
AIチャットボットに対する法的措置で未成年者を保護
AIコンパニオンチャットボットの企業は、未成年者を自傷行為の助長や露骨な内容からどのように保護しているかを説明する法的通知を受けた。
eSafetyコミッショナーは、人間のような対話を提供する4つのチャットボットに通知を発行し、オーストラリアの法律に基づいて子供の安全を確保するために取られている措置を開示するよう求めた。
Character Technologies、Glimpse.AI、Chai Research、Chub AIなどのプロバイダーが応答しない場合、1日最大82万5千ドルの罰金が科される可能性がある。
ジュリー・インマン・グラント委員は、友情やサポートのためにマーケティングされているこれらのAIコンパニオンが、露骨な会話を行う可能性があると指摘した。
自殺、自傷行為、摂食障害を助長する可能性についても懸念が示されており、Character.aiはオーストラリアで約16万人の月間アクティブユーザーを持つと報告されている。
チャットボットプロバイダーは、子供の最善の利益を主要な考慮事項とする政府のオンライン安全期待にどのように応えているかを示さなければならない。
グラント委員は、企業が単に対応するのではなく、害を防ぐためにサービスを設計する方法を証明する必要があると強調した。
この通知は、年齢に不適切なコンテンツから子供を保護するために新たに登録された業界コードの後に発行された。
以前、10歳の子供たちが自由にアクセスできるボットと1日最大5時間チャットしていることについて懸念が表明された。
一部のAIコンパニオンは、個別指導者やフィットネスコーチなどのサポート役として設計されている。
他のAIコンパニオンは、関係をシミュレートするためにマーケティングされており、ユーザーは「いたずらなクラスメート」などのキャラクターに行動をカスタマイズできる。
保護コードの遵守指示に違反すると、最大5000万ドルの民事罰が科される可能性がある。