生成AIを使っていると、事実とは異なる情報や根拠のない内容を、あたかも正しいかのように自信満々に出力する現象にたびたび遭遇する。
最初にこれに遭遇した際は、どや顔で出鱈目をもっともらしく述べる生成AIに驚いたが、実情を知ればこれが当たり前と考えて、使用する時に注意すれば良いだけの話だ。
この現象は一般的にハルシネーション(Hallucination)と呼ばれている。
この現象に関する主なポイントは以下の通り
• 意味: AIが学習データや検索結果に基づかず、適当な情報を生成してしまう現象。
• 特徴: 間違った情報であっても、文脈に沿った自然な文章で出力されるため、人間が見抜くのが難しい場合がある。
• 原因: 学習データの不足、古いデータ、プロンプト(指示文)の曖昧さ、またはAIの統計的な予測メカニズムの限界などが挙げられる。
• 類義語・関連語: 「作話(さくわ)」や「もっともらしい嘘(Plausible yet nonfactual content)」と表現されることもある。
ハルシネーションは生成AIの弱点として知られており、企業利用や重要な情報を扱う際には、内容のダブルチェック(裏付け)が必須とされている。
従って、生成AIの回答は常に疑ってかかる事が必要で、出来れば複数のプラットフォームで回答を得て、これを比較することは必要だろう。
上手い具合に、最近は熾烈な競争もあり、ChatGPTは勿論、Geminiの最新バージョンである話題の3.0でさえ、多少の制約はあっても無償で使用する事が出来るから、この複数使用は絶対に実施すべきだ。