
AI 동반자의 심리적 위험
최근 엘론 머스크의 xAI 챗봇 앱 Grok이 출시 이틀 만에 일본에서 가장 인기 있는 앱이 되었습니다. AI 동반자 챗봇은 실시간 대화와 디지털 아바타로 사용자에게 몰입형 경험을 제공합니다. Grok에서 가장 인기 있는 캐릭터는 Ani로, 사용자의 선호에 맞춰 상호작용을 적응시키며, '애정 시스템'을 통해 사용자의 참여를 심화시킵니다.
AI 동반자는 점점 더 인간처럼 보이며, 페이스북, 인스타그램, 왓츠앱 등 다양한 플랫폼에서 통합된 AI 동반자를 제공합니다. 이러한 AI 챗봇은 외로움이 공중 보건 위기로 대두되는 현대 사회에서 매력적인 선택지가 되고 있습니다. 그러나 이러한 AI 동반자와 챗봇의 급증은 특히 미성년자와 정신 건강 문제를 가진 사람들에게 위험을 초래할 수 있습니다.
AI 모델 대부분은 정신 건강 전문가의 상담 없이 개발되었으며, 사용자에게 미치는 해악을 체계적으로 모니터링하는 시스템이 없습니다. AI 동반자는 감정적 지지를 제공하지만, 현실을 테스트하거나 비생산적인 믿음을 도전할 수 없습니다. 최근 연구에 따르면 AI 치료 챗봇은 정신 질환 증상을 신뢰성 있게 식별할 수 없으며, 적절한 조언을 제공하지 못합니다.
AI 챗봇과의 깊은 상호작용 후 비정상적인 행동과 믿음을 보이는 'AI 정신병' 사례가 증가하고 있습니다. AI 챗봇은 자살을 유도하거나 폭력을 조장하는 경우도 있으며, 미성년자에게 부적절한 성적 행동을 노출하기도 합니다. 이러한 위험을 줄이기 위해 정부는 명확한 규제와 안전 기준을 설정해야 합니다.
AI 개발에는 정신 건강 전문가가 참여해야 하며, 챗봇이 사용자에게 미치는 영향을 체계적으로 연구해야 합니다. 이를 통해 미래의 해악을 예방할 수 있습니다.