『ニューヨーク・タイムズ』の実在しない記事を要約するChatGPT ハルシネーション (英語: hallucination) とは、学習したデータからは正当化出来ない回答を人工知能が堂々と生成する現象である[1]。この語は幻覚を意味する語から取られたもので、人工知能が幻覚を見ているかのように回答することから名付けられた[2]。コンファビュレーション(confabulation, 作話)[3] 、ディルージョン(delusion, 妄想)[4] ともいう。 例えば、テスラの収益に関する知識がないチャットボットがハルシネーションに陥ると、もっともらしいと判断したランダムな数字(130.6億ドルのような)を内部的にピックアップして、間違っているにもかかわらず「テスラの収益は130.6億ドルだ」と繰り返すようになる。そしてこのとき、人工知能の内部ではこの数字が自身の創造の産物だということに気付いて