
AI 모델, 우파 싱크탱크의 도덕성 및 객관성 낮게 평가
대형 언어 모델(LLM)은 정책 연구에 점점 더 많은 영향을 미치고 있다. 2025년 주요 AI 기업의 5개 LLM은 26개의 미국 싱크탱크를 12가지 기준으로 평가했으며, 그 결과는 명확한 이념적 편향을 드러냈다.
LLM이 중도좌파 기관을 높이고 우파 기관을 낮게 평가할 경우, 작가, 위원회, 기부자들은 무의식적으로 편향된 시각을 강화할 수 있다. 이러한 초기 편향을 해결하는 것은 AI 기반 지식 플랫폼이 미국 정책 토론을 확대하는 데 필수적이다.
AI의 좌파 편향은 널리 문서화되어 있으며, 이는 싱크탱크의 정치적 성향에 대한 평가에도 영향을 미친다. LLM은 중도좌파 및 좌파 싱크탱크를 도덕성, 연구 품질, 객관성 등 핵심 지표에서 더 높게 평가했다.
LLM의 평가 결과는 명확하다. 중도좌파 싱크탱크는 평균 3.9점을 받았으며, 우파는 2.8점으로 가장 낮았다. 이러한 패턴은 모든 모델에서 일관되게 나타났다.
이 연구는 LLM의 정치적 편향이 싱크탱크의 평판에 미치는 영향을 분석하며, 모델 개발자와 연구 기관이 이러한 격차를 좁히기 위한 방법을 모색해야 한다고 제안한다.