 
                                    AI企業、子供のチャットボット利用を制限
人気のAIチャットボットプラットフォームCharacter.aiは、11月24日から18歳未満のユーザーが仮想キャラクターとの無制限の会話を禁止すると発表した。この決定は、オーランドでのティーンエイジャーの死亡に関与したとされる訴訟を受けたものだ。訴訟によれば、14歳のSewell Setzer IIIは現実の交流を避け、ボットとの性的な会話に没頭していたという。
Character.aiは、次の1か月間、18歳未満のユーザーのチャット時間を1日2時間に制限し、さらに減少させる計画を発表した。AI技術の進化に伴い、若年ユーザーを保護するための対策を進化させる必要があると強調し、最近のニュース報道や規制当局の質問が変更のきっかけとなったと述べた。
同社は、世界中で同様の変更を実施し、年齢に適した体験を保証するための新しい年齢確認機能を導入する予定だ。また、次世代AIエンターテインメントの安全性に焦点を当てた独立した非営利団体を立ち上げる計画もある。
Character.aiは、創造性とコミュニティの安全性のバランスを取るための継続的な努力の一環として、これらの変更を強調した。特にティーンエイジャーのユーザーに対して、安全な環境を提供しつつ創造的な空間を提供することが目標であると述べた。
 
                        
                        
                            
                                By Ian Yoon                            
                            
                            
                                ian.yoon@aitoolsbee.com                            
                            
                                                            
                                    変化のスピードを誰よりも敏感に察知します。
絶えず進化するAIツールの世界の中で、テクノロジーの本質とその可能性を鋭く捉えます。
                    絶えず進化するAIツールの世界の中で、テクノロジーの本質とその可能性を鋭く捉えます。
 
                