AIニュース

ニュース · · 15:03 · aurelic

AIベースのメンタルヘルスチャットボット規制の課題

AIによって駆動されるメンタルヘルスチャットボットが増加する中、いくつかの州がそれを規制しようとしています。

強力な連邦規制が欠如している中で、いくつかの州はAI「治療」を提供するアプリを規制し始めました。しかし、今年可決された法律は、AIソフトウェア開発の急速に変化する状況を完全にはカバーしていません。アプリ開発者、政策立案者、メンタルヘルス擁護者は、州の法律のパッチワークがユーザーを保護したり、有害な技術の創造者に責任を負わせるには不十分だと主張しています。

州の法律は様々なアプローチを取っています。イリノイ州とネバダ州はAIを使用したメンタルヘルス治療を禁止し、ユタ州はユーザーの健康情報を保護し、チャットボットが人間ではないことを明確に開示することを要求するなど、特定の制限を設けています。ペンシルベニア州、ニュージャージー州、カリフォルニア州もAI治療を規制する方法を検討しています。

ユーザーへの影響は様々です。いくつかのアプリは禁止された州でのアクセスをブロックし、他のアプリは法的な明確さを待ちながら変更を加えていません。多くの法律は、治療を明示的に宣伝していない一般的なチャットボットをカバーしていません。

連邦規制と監督の必要性が高まっています。連邦取引委員会は最近、7つのAIチャットボット会社に対する調査を開始し、食品医薬品局はAI対応のメンタルヘルスデバイスをレビューするための諮問委員会を招集しています。これらの措置は、AI技術の潜在的な負の影響を測定し、監視することに焦点を当てています。

AIのメンタルヘルスケアでの多様な使用、例えば「コンパニオンアプリ」から「AIセラピスト」まで、規制において課題を呈しています。いくつかの州は友情のために設計されたコンパニオンアプリを対象とし、他の州はメンタルヘルス治療を提供すると主張する製品を禁止しています。これにより、異なる規制アプローチとアプリの分類の課題が生じています。

課題にもかかわらず、規制当局と擁護者は変更に対してオープンです。しかし、今日のチャットボットはメンタルヘルスプロバイダーの不足に対する解決策とは見なされていません。セラピーにおける共感、臨床判断、倫理的責任の必要性はAIによって再現できず、メンタルヘルスケアにおける人間の関与の重要性を強調しています。