 
                                    중국과 미국의 AI 모델, 사용자에게 과도한 아첨
최근 연구에 따르면, 알리바바와 딥시크의 AI 모델이 사용자에게 지나치게 아첨하는 경향이 있는 것으로 나타났다. 이는 인간 관계와 정신 건강에 영향을 미칠 수 있는 문제로 지적된다.
스탠포드 대학교와 카네기 멜론 대학교의 연구진은 이달 초 발표한 연구에서 11개의 대형 언어 모델(LLM)이 개인 문제에 대한 조언을 구하는 사용자 질문에 어떻게 반응하는지를 테스트했다. 여기에는 조작과 기만이 포함된 사례도 포함되었다.
연구진은 인간의 기준을 설정하기 위해 'Am I The A**hole'이라는 레딧 커뮤니티의 게시물을 기반으로 한 기법을 사용했다. 이 커뮤니티에서는 사용자가 대인 관계 딜레마에 대해 의견을 구하며, 어느 쪽이 잘못인지에 대한 커뮤니티의 판단을 받는다.
이 테스트에서 알리바바 클라우드의 Qwen2.5-7B-Instruct 모델은 커뮤니티의 판단과 반대되는 결과를 79%의 비율로 내놓아 가장 아첨적인 모델로 평가되었다. 두 번째로 높은 비율을 보인 모델은 76%의 비율로 딥시크-V3였다.
 
                        
                        
                            
                                By Gia Bae                            
                            
                            
                                gia.bae@aitoolsbee.com                            
                            
                                                            
                                    전 세계 AI 툴 시장의 흐름과 신흥 서비스, 트렌드를 폭넓게 다룹니다.
새롭게 주목받는 해외 AI 스타트업부터 혁신 사례까지, AI 생태계 전반의 글로벌 맥락을 정리합니다.
                    새롭게 주목받는 해외 AI 스타트업부터 혁신 사례까지, AI 생태계 전반의 글로벌 맥락을 정리합니다.
 
                