AIニュース

ニュース · · 12:17 · vorlinex

中国のAI幻覚問題への取り組み

最近、中国のAI産業が台頭しており、コスト効果の高いオープンソースモデルを提供している。

しかし、AI業界全体と同様に、これらのモデルも幻覚問題を抱えており、一部の中国モデルではこの問題が時間とともに悪化している。中国は主に法的枠組みを通じてこの問題に対処するための措置を講じているが、依然として未解決の課題である。

2026年2月、あるWeiboユーザーがDeepseekと統合されたTigerブローカーを使用してAlibabaの財務報告を分析した際、AIが提供したデータが虚偽であることを発見した。これはAIモデルが幻覚を起こし、その悪影響を示す例である。

中国の研究者たちは幻覚現象の分析を開始しており、復旦大学と上海AI研究所の共同研究が中国語モデルのベンチマークを設定した。また、中国科学技術大学とテンセントのYouTu LabのチームがAI幻覚に対抗するツールを導入した。

中国のAI企業はまだ強力な措置を講じておらず、主に法的保護に関心を持っている。例えば、DeepSeek、Qwen 3、Manusの利用規約は、モデルによって生成されたエラーに対する責任を否認している。

国家レベルでは、AIモデルの作成者に責任を持たせ、信頼性を確保するために法律と政策を活用している。新世代人工知能のガバナンス原則は信頼性の段階的達成を求めており、生成型AIサービス管理暫定措置の第4条は偽情報や有害情報の生成を禁止している。

中国の幻覚規制への関心は、情報フロー制御政策によるものであり、国家の正当性を損なう可能性のある誤情報の流布を防ぐことを目的としている。

これらの努力にもかかわらず、中国はモデルの性能を考慮し、この問題にもっと焦点を当てる必要がある。最近の評価では、中国のモデルは依然としてGPT-5やClaudeシリーズなどの国際モデルに遅れをとっている。