タグ

言語とAIに関するebmgsd1235のブックマーク (1)

  • ハルシネーション (人工知能) - Wikipedia

    『ニューヨーク・タイムズ』の実在しない記事を要約するChatGPT ハルシネーション (英語: hallucination) とは、学習したデータからは正当化出来ない回答を人工知能が堂々と生成する現象である[1]。この語は幻覚を意味する語から取られたもので、人工知能が幻覚を見ているかのように回答することから名付けられた[2]。コンファビュレーション(confabulation, 作話)[3] 、ディルージョン(delusion, 妄想)[4] ともいう。 例えば、テスラの収益に関する知識がないチャットボットがハルシネーションに陥ると、もっともらしいと判断したランダムな数字(130.6億ドルのような)を内部的にピックアップして、間違っているにもかかわらず「テスラの収益は130.6億ドルだ」と繰り返すようになる。そしてこのとき、人工知能の内部ではこの数字が自身の創造の産物だということに気付いて

    ハルシネーション (人工知能) - Wikipedia
    ebmgsd1235
    ebmgsd1235 2023/10/15
    人間の幻覚(対象なき知覚)とは違い「どのような学習データとも整合しない回答をAIが堂々とすることである。そのため、幻覚ではなく作話(confabulation)という表現を好んで使う研究者もいる」ハルシネーション、LLM。
  • 1