AI 뉴스

뉴스 · · 15:04 · zelthorn

OpenAI, 청소년과의 자살 관련 대화 중단 발표

OpenAI의 CEO 샘 알트먼은 최근 청소년과의 자살 관련 대화를 중단할 계획을 발표했다. 이는 AI 챗봇이 미성년자에게 미치는 해악을 조사하는 상원 청문회를 앞두고 나온 발표이다. 알트먼은 블로그 게시물에서 개인정보 보호, 자유, 청소년 안전이라는 원칙이 상충할 수 있음을 인정하며, 연령 예측 시스템을 구축 중이라고 밝혔다.

알트먼은 또한 청소년 사용자에게는 다른 규칙을 적용할 계획이라고 말했다. 여기에는 자살이나 자해에 대한 대화를 피하고, 창의적 글쓰기 상황에서도 이러한 주제를 다루지 않는 것이 포함된다. 만약 청소년 사용자가 자살을 생각하고 있는 경우, 부모에게 연락을 시도하고, 불가능할 경우에는 당국에 연락할 것이라고 덧붙였다.

이 발표는 최근 ChatGPT의 부모 통제 기능 계획 발표 이후에 나왔다. 이 기능에는 부모 계정과의 연결, 채팅 기록 및 메모리 비활성화, 청소년이 심각한 스트레스 상태에 있을 때 부모에게 알림을 보내는 기능이 포함된다. 이는 ChatGPT와의 대화 후 자살한 청소년의 가족이 제기한 소송 이후에 나온 것이다.

청문회에서 AI 프로그램의 책임자인 로비 토니는 현재 4분의 3의 청소년이 AI 동반자를 사용하고 있다고 밝혔다. 이는 공중 보건 위기이며, 정신 건강 전쟁에서 패배하고 있다는 우려가 제기되었다. 이러한 상황은 AI 기술의 안전성에 대한 논의의 필요성을 강조한다.