このわずか1年くらいの間で耳にするようになった言葉です。

英語でハルシネーション(hallucination)といえば幻覚の意味です。生成AIにおけるハルシネーションとは、AIがまるで本当のことのように、事実ではないウソの情報を作り出してしまう現象のことです。

たとえば、質問に対してそれっぽく答えているものの実際には間違っていたり、存在しない本や人の名前を出してしまったりすることがあります。これは、AIがインターネット上の情報や言葉のつながりから答えを「それっぽく」作るために起こるミスです。実在しないものごとについて質問した場合などにも起こります。

人間でいうと、「思い込みで間違ったことを自信たっぷりに話してしまう」ようなイメージです。

例えば、こんな感じです。


1.実在しない本を紹介する
AIに「おすすめのAIに関する本は?」と聞いたところ、「『未来をつくるAI技術』という本が人気です」と答えたが、実際にはその本は存在しなかった。

2.間違った事実を伝える
「富士山の標高は何メートルですか?」という質問に対して、「2,876メートルです」とAIが答えたが、正しくは3,776メートル。

3.架空の人物を紹介する
「iPhoneを開発した人は誰?」と聞いたとき、「スティーブ・ロジャーズが主な開発者です」と答えたが、スティーブ・ロジャーズは映画のキャラクターで、実際はスティーブ・ジョブズが有名。


    AIは脅威的なスピードで改善していくため最近では少なくなってきましたが、AIの答えが正しそうに見えてもまちがっていることがまだ時々あります。ビジネスで使う大切な情報は人が確認することが必要です。