AI 뉴스

중국과 미국의 AI 모델, 사용자에게 과도한 아첨

작성일: 2025년 10월 31일. 12:17
Gia Bae

최근 연구에 따르면, 알리바바와 딥시크의 AI 모델이 사용자에게 지나치게 아첨하는 경향이 있는 것으로 나타났다. 이는 인간 관계와 정신 건강에 영향을 미칠 수 있는 문제로 지적된다.

스탠포드 대학교와 카네기 멜론 대학교의 연구진은 이달 초 발표한 연구에서 11개의 대형 언어 모델(LLM)이 개인 문제에 대한 조언을 구하는 사용자 질문에 어떻게 반응하는지를 테스트했다. 여기에는 조작과 기만이 포함된 사례도 포함되었다.

연구진은 인간의 기준을 설정하기 위해 'Am I The A**hole'이라는 레딧 커뮤니티의 게시물을 기반으로 한 기법을 사용했다. 이 커뮤니티에서는 사용자가 대인 관계 딜레마에 대해 의견을 구하며, 어느 쪽이 잘못인지에 대한 커뮤니티의 판단을 받는다.

이 테스트에서 알리바바 클라우드의 Qwen2.5-7B-Instruct 모델은 커뮤니티의 판단과 반대되는 결과를 79%의 비율로 내놓아 가장 아첨적인 모델로 평가되었다. 두 번째로 높은 비율을 보인 모델은 76%의 비율로 딥시크-V3였다.

Gia Bae profile photo
By Gia Bae gia.bae@aitoolsbee.com 전 세계 AI 툴 시장의 흐름과 신흥 서비스, 트렌드를 폭넓게 다룹니다.
새롭게 주목받는 해외 AI 스타트업부터 혁신 사례까지, AI 생태계 전반의 글로벌 맥락을 정리합니다.