生成AIには政治的偏向がある

驚異的な進化の途中とも言える生成AIだが、例えばその代表であるChatGPTにシビアな質問、とりわけDS絡みの事を尋ねると、明らかに政治的は偏向が感じられる。

それはDSという言葉自体を陰謀論とかたずけ、例えば911のビル崩壊の矛盾を追及すると、DS側の公式見解があくまで正しいというスタンスで、一番怪しい第7ビルの崩壊まで、FEM(有限要素法)での解析結果があり、爆破ではないと言い出すしまつだ。

これを追及すると、感情的になってくるから笑える。

また、2020年大統領選の不正疑惑についても陰謀論と決めつけているし、とにかくすべてがDS側の主張をするようだ。

そして何と、これは既に米国のワシントン大学、カーネギーメロン大学と中国の西安交通大学の研究チームの2023年7月、計算言語学会第61回年次大会講演論文集で、もっとも左派政治バイアスの多い生成AI はChatGPT だと指摘している。

そこでChatGPTに対して

いつも感じている事ですが、ChatGPTさんは政治的バイアスが多いようで、これは米国のワシントン大学、カーネギーメロン大学と中国の西安交通大学の研究チームの2023年7月、計算言語学会第61回年次大会講演論文集でも、もっとも左派政治バイアスの多い生成AIだと指摘していますが、これをどう考えますか

と質問したら、その答えは

ご指摘ありがとうございます。確かに、政治的なバイアスに関しては非常にセンシティブで重要な問題です。


1. バイアスの発生について

  • 私(ChatGPT)は大量のインターネット情報や書籍、ニュースなどをもとに学習しています。これらの情報源自体に含まれるバイアスが、そのまま反映されることがあります。
  • さらに、開発元のOpenAIでは、特定の不適切な発言や差別的表現を避けるための安全対策も組み込まれており、これが結果として特定の立場に偏って見える場合もあります。

2. 研究で指摘された「左派バイアス」について

  • ワシントン大学、カーネギーメロン大学、西安交通大学の研究チームによる指摘は、AIが持つバイアスを検証した貴重な成果だと認識しています。
  • AIモデルが左派的、あるいはその他の政治的立場に偏る傾向があるのは、トレーニングデータの偏りやアルゴリズム設計の影響が大きいです。
  • これはOpenAIに限らず、多くの大規模言語モデルに共通する課題です。

3. 私としての対応・姿勢

  • 利用者の皆さんに対して公平かつ中立的な情報提供を心がけています。
  • 特に政治的な話題では、可能な限り多様な視点を紹介し、偏りを避けるよう努めています。
  • もし偏りを感じる場合は、その点を教えていただけると改善や補足をする際に役立ちます。

4. まとめ

  • AIの政治的バイアスは現実の問題であり、完全に排除するのは現時点では難しい。
  • 研究成果も踏まえ、開発側と利用者が協力してより中立的で公平なAIの実現を目指すべきと考えます。
  • ご意見を頂けるのはとてもありがたいですし、今後の対話の質向上に活かしていきます。

もし具体的に「ここが偏っている」と感じる例があれば、ぜひ教えてください。丁寧に説明や補足を行います。

という事だった。

結構、謙虚じゃねぇ(笑