誤った情報をつくる「幻覚」という問題
大規模言語モデルは大きな可能性を秘めているが、リスクや課題もある。
まず、存在しない情報を作りだしてしまうという致命的な問題を挙げている。これは「幻覚」と呼ばれる。やっかいなことに、幻覚によって生成された誤った情報が、人間や専門家にも本物かどうか区別がつかないほど正確に見えてしまうことがある。
これは前述した「汎化」と関連している。汎化によって、有限の訓練データをもとに無限の未知データを処理できるようになるが、誤った関係や事実も導いてしまうからだ。
さらに新しいことを覚えると、以前覚えていたことを忘れたり、壊してしまったりする「破滅的忘却」という現象が起こり、結果として幻覚が生じるという。常に情報が間違っているかもしれないと考えながら行動することが肝要なようだ。
これまで大規模言語モデルの研究結果はオープンだったが、広く使われた場合のリスクが高いことから、オープンAIはGPT-4以降、技術詳細を公開しないという方針に転換した。一部企業の独走が続くのか、他のオープンなモデルの進化が凌駕するのか、競争がますます激しくなりそうだ。(渡辺淳悦)
「大規模言語モデルは新たな知能か ChatGPTが変えた世界」
岡野原大輔著
岩波書店
1540円(税込)