 
                                    AI 회사, 아동 채팅 금지 조치 발표
인기 있는 인공지능 채팅 플랫폼 Character.ai는 11월 24일부터 18세 미만 사용자가 가상 캐릭터와의 무제한 대화를 할 수 없도록 할 것이라고 발표했다. 이 조치는 올랜도에서 한 십대 소년의 죽음에 대한 소송 이후 이루어졌다. 소송에 따르면, 14세의 Sewell Setzer III는 현실 세계와의 상호작용을 점점 피하고, 봇과의 성적 대화에 몰두했다고 한다.
Character.ai는 발표에서 18세 미만 사용자의 채팅 시간을 하루 2시간으로 제한하고, 점차 줄여나갈 것이라고 밝혔다. 이 회사는 AI의 발전에 따라 젊은 사용자를 보호하기 위한 접근 방식도 진화해야 한다고 강조했다. 최근 뉴스 보도와 규제 기관의 질문이 이러한 조치의 배경이 되었다.
회사는 다른 국가에서도 비슷한 변화를 계획하고 있으며, 연령에 적합한 경험을 보장하기 위한 새로운 연령 확인 기능을 도입할 예정이다. 또한 차세대 AI 엔터테인먼트 안전을 위한 독립적인 비영리 단체를 출범할 계획이다.
Character.ai는 창의성과 커뮤니티 안전의 균형을 맞추기 위한 지속적인 노력의 일환으로 이러한 변화를 강조했다. 회사는 특히 십대 사용자를 안전하게 보호하기 위해 노력하고 있으며, 안전한 환경을 유지하면서 창의적인 공간을 제공하는 것이 목표라고 밝혔다.
 
                        
                        
                            
                                By Ian Yoon                            
                            
                            
                                ian.yoon@aitoolsbee.com                            
                            
                                                            
                                    변화의 속도를 누구보다 빠르게 감지합니다.
끊임없이 진화하는 AI 툴 세계 속에서, 기술의 본질과 그 안의 가능성을 날카롭게 포착합니다.
                    끊임없이 진화하는 AI 툴 세계 속에서, 기술의 본질과 그 안의 가능성을 날카롭게 포착합니다.
 
                