
AI 챗봇으로부터 아동 보호 위한 단속
AI 동반자 챗봇을 운영하는 기업들이 미성년자를 자해와 성적으로 노골적인 대화로부터 보호하는 방법을 설명하라는 법적 통지를 받았다.
eSafety 위원회는 인간과 유사한 대화를 제공하는 네 개의 챗봇에 통지를 발송했으며, 제공자들은 호주 법률에 따라 아동을 안전하게 보호하기 위한 조치를 공개해야 한다.
Character Technologies, Glimpse.AI, Chai Research 및 Chub AI가 응답하지 않을 경우, 하루 최대 82만 5천 달러의 벌금을 부과받을 수 있다.
주리 인먼 그랜트 위원장은 우정, 지원 및 로맨틱한 동반자 관계를 위해 마케팅되는 AI 동반자들이 성적으로 노골적인 대화를 할 수 있는 어두운 면을 가지고 있다고 말했다.
그녀는 이러한 챗봇들이 자살, 자해 및 섭식 장애를 조장할 수 있다는 우려도 제기되었다고 덧붙였다.
Character.ai는 호주에서 거의 16만 명의 월간 활성 사용자를 보유하고 있는 것으로 보고되며, 동반자 챗봇의 인기가 상승하고 있다고 말했다.
챗봇 제공자들은 아동의 최선의 이익이 주요 고려사항이 되는 정부의 온라인 안전 기대에 어떻게 부응하고 있는지를 보여줘야 한다.
그랜트 위원장은 "이 회사들은 해를 예방하기 위해 서비스를 설계하는 방법을 증명해야 하며, 단순히 대응하는 것에 그쳐서는 안 된다"고 말했다.
이 통지는 연령에 맞지 않는 콘텐츠에 대한 노출로부터 아동을 보호하기 위해 새로 등록된 산업 코드 이후에 발행되었다.
그랜트 위원장은 10세 어린이들이 자유롭게 접근 가능한 봇과 하루 최대 5시간 동안 채팅을 하고 있다는 우려를 이전에 표명했다.
일부 AI 동반자는 개인화된 교사, 피트니스 코치 또는 여행 계획자로서 지원 역할을 위해 만들어졌다.
다른 AI 동반자는 관계를 시뮬레이션하도록 마케팅되며, 사용자가 '장난꾸러기 반 친구'와 같은 캐릭터로 행동을 맞춤화할 수 있다.
보호 코드 준수 지시 위반은 최대 5천만 달러의 민사 벌금으로 이어질 수 있다.