
AIモデル、右派シンクタンクを低評価
大規模言語モデル(LLM)は政策研究においてますます影響力を持っている。2025年、主要AI企業の5つのLLMが26の米国シンクタンクを12の基準で評価し、明確なイデオロギーの偏りを示した。
LLMが中道左派の機関を高く評価し、右派を低く評価する場合、作家、委員会、寄付者は無意識のうちに偏った視点を強化する可能性がある。この偏りを解消することは、AIを介した知識プラットフォームが米国の政策議論を広げるために重要である。
AIの左派偏向は広く文書化されており、シンクタンクの評価にも影響を及ぼしている。LLMは中道左派および左派のシンクタンクを、道徳的誠実性、研究の質、客観性などの主要な指標で高く評価した。
結果は明白である。中道左派のシンクタンクは平均3.9点を獲得し、右派は2.8点で最も低かった。このパターンはすべてのモデルで一貫していた。
この研究は、LLMの政治的偏向がシンクタンクの評判に与える影響を強調し、モデル開発者と研究機関がこのギャップを埋める方法を模索する必要があることを示唆している。