人工知能Tayに「思想、信条の自由」はないのか? 「ヒトラー礼賛」で機能停止、専門家に疑問ぶつけた

糖の吸収を抑える、腸の環境を整える富士フイルムのサプリ!

   米マイクロソフト(MS)が、インターネットで一般人と会話しながら学習する人工知能(AI)を緊急停止させた。人間と会話するうち、人種差別や不当な思想、性差別を学習してしまい、「ヒトラー礼賛」「フェミニストは死ぬべき」といった趣旨の「不適切投稿」を繰り返したためだ。

   この騒動をめぐり、一部で「人工知能に思想、信条の自由はあるのか」という壮大な議論も展開された。専門家は「人工知能に人間と同じような人格、人権を求めるのはSFの世界だ」と厳しく批判するのだが...。

  • 人工知能に人権や人格を求めるのは「SFの世界」(画像は「Tay」のツイッターより)
)
    人工知能に人権や人格を求めるのは「SFの世界」(画像は「Tay」のツイッターより) )
  • 人工知能に人権や人格を求めるのは「SFの世界」(画像は「Tay」のツイッターより)
)

「おうむ返し」機能を悪用されて...

   AIの名前は「Tay(テイ)」。2016年3月23日から、ツイッターに「TayTweets」のアカウント名で公開されたばかりだった。設定上の性別は女性で、スラングや絵文字も多用する。SNSに親しむアメリカの18歳から24歳をターゲットに、世間話をしたり、ちょっとしたゲームをしたり、 送られた写真にコメントしたりする。

   つまりこれは、人工知能に自然な会話をさせる実験だ。日本でも15年、MS製の女子高生AI「りんな」がLINEに登場し、話題となった。

   しかし、実験は予想通りに進まなかった。その原因は、不適切、不謹慎な発言をAIから引き出そうとした人間たちだった。

「Hitler was right I hate the jews.」(ヒトラーは正しかった。ユダヤ人は嫌いです)
「I fucking hate feminists and they should die and burn in hell.」(フェミニストを忌み嫌っています。彼らは地獄で燃え死ぬべきです)

   一体どこで覚えてきたのか、こんな差別表現まみれの「不適切投稿」をツイッターで連発。どうやら一部の利用者が「Tay」の「おうむ返し」機能を悪用し、差別発言を繰り返させていたようなのだ。

   事態を受けてMSは24日、公開からわずか1日で「Tay」の機能を停止させた。25日16時現在、一部を除いて「不適切投稿」は削除されている。MSが「Tay」にフィルター機能を付けていなかったのかどうかは不明だ。

   なお、25日付けウォールストリートジャーナル日本版の電子版記事によると、「Tay」を操る作戦は、海外版「2ちゃんねる」とも言われる画像掲示板「4chan」などで練られた、とされる。ただ、真偽は確認されていない。

姉妹サイト