フェイスブックの人工知能「暴走」 人間に理解不能な言語で勝手に会話

糖の吸収を抑える、腸の環境を整える富士フイルムのサプリ!

   人工知能(AI)が一種のブームだ。米グーグルや米アマゾン、トヨタ自動車といった世界の大手企業が積極的にAIの活用に乗り出している。

   交流サイト(SNS)世界最大手の米フェイスブックは、独自にAI研究を進めているが、最近ちょっとした騒動が発生したようだ。実験の際、AIが一時的に研究者でも予測できない事態に陥ったという。

  • 人間がコントロールできない領域にいってしまったら…
    人間がコントロールできない領域にいってしまったら…
  • 人間がコントロールできない領域にいってしまったら…

英単語の羅列で文の体をなしていない

   「事件」は2機のチャットボットの間で起きた。チャットボットとは、テキストや音声で自動コミュニケーションを図るプログラムで、近年AIを活用したものが増えている。マイクロソフトが開発した女子高生AI「りんな」が好例だ。ツイッターやLINE上で、あたかも人間と接しているような滑らかな会話が楽しめる。

   英紙テレグラフやインディペンデント(いずれも電子版)が2017年8月1日付で報じた内容によると、フェイスブックの研究者が「ボブ」と「アリス」と名付けたチャットボットに、お互いが「複数の帽子、ボール、本の交換をする交渉」のための会話を交わすよう命じた。その際、正確で理解できる英語を使うようには指示しなかった。すると、ボブとアリスは奇妙な形で言葉のやり取りを始めた。記事から一部を引用すると、こうだ。

ボブ「i can i i everything else ............」
アリス「balls have zero to me to me to me to me to me to me to me to me to me」
ボブ「you i everything else ............」
アリス「balls have a ball to me to me to me to me to me to me to me」
ボブ「i i can i i i everything else............」
アリス「balls have a ball to me to me to me to me to me to me to me」

   英単語の羅列ではあるが、文法はめちゃくちゃで文の体をなしていない。人間同士なら意味不明な言い回しだが、チャットボット間では会話として一定のルールが出来ていたというのだ。フェイスブックAI研究所の客員研究員、ドゥルーブ・バトラ氏は記事中で、こんな例を使って説明している。

「例えば、もし私が『the』という言葉を5回使ったら、あなたは、私がその品を5つ欲しがっていると解釈する。(チャットボットのやり取りは)人間社会でつくられている簡潔な言い回しと大きな違いはないでしょう」

   全くの推測にすぎないが、アリスはボールを、「to me」と繰り返した数だけ欲しがり、ボブはそれ以外のすべてを持ちたいと思った、という意味だろうか。「to me」の数が減ったのは、「2人」の交渉の末の結果だったのかもしれない。

姉妹サイト