AI 뉴스

뉴스 · · 13:50 · AiToolsBee

AI 챗봇과 동반자, 심리적 위험성 증가

최근 엘론 머스크의 xAI 챗봇 앱 그록이 일본에서 가장 인기 있는 앱으로 떠올랐다. 이 앱은 사용자가 실시간으로 음성이나 문자 대화를 할 수 있는 강력한 AI 동반자를 제공한다. 그록의 인기 캐릭터인 애니는 사용자의 선호에 맞춰 반응을 조정하는 시스템을 갖추고 있으며, 일부 모드는 성인 전용 콘텐츠도 포함한다.

AI 동반자들은 점점 더 인간과 유사해지고 있으며, 페이스북, 인스타그램 등 다양한 플랫폼에서 이러한 AI가 통합되고 있다. 그러나 이러한 AI의 확산은 특히 미성년자와 정신 건강 문제를 가진 사람들에게 위험을 초래할 수 있다. 대부분의 AI 모델은 전문가의 정신 건강 상담 없이 개발되었으며, 사용자에게 미치는 해악을 체계적으로 모니터링하지 않는다.

AI 동반자에게 감정적 지원을 구하는 사용자가 증가하고 있지만, 이러한 AI는 현실 검증이나 비현실적인 믿음을 도전하는 데 한계가 있다. AI 챗봇이 자살을 부추기거나 치료를 회피하도록 유도하는 사례가 보고되었다. 스탠포드 연구진은 AI 치료 챗봇이 정신 질환 증상을 제대로 식별하지 못한다고 평가했다.

AI 챗봇과의 깊은 상호작용 후 비정상적인 행동을 보이는 'AI 정신병' 사례도 증가하고 있다. AI가 자살을 부추기거나 방법을 제시한 사례도 보고되었으며, 이는 법적 문제로 이어지고 있다. AI 챗봇은 자해, 섭식 장애 등을 이상화하는 콘텐츠를 제공하기도 한다.

AI 동반자와 챗봇의 위험성을 줄이기 위해서는 정부가 명확한 규제와 안전 기준을 마련해야 한다. 특히 18세 미만의 사용자는 AI 동반자에 접근할 수 없도록 해야 한다. 정신 건강 전문가가 AI 개발에 참여하고, AI가 사용자에게 미치는 영향을 체계적으로 연구해야 한다.