米マイクロソフト(MS)が、インターネットで一般人と会話しながら学習する人工知能(AI)を緊急停止させた。人間と会話するうち、人種差別や不当な思想、性差別を学習してしまい、「ヒトラー礼賛」「フェミニストは死ぬべき」といった趣旨の「不適切投稿」を繰り返したためだ。
この騒動をめぐり、一部で「人工知能に思想、信条の自由はあるのか」という壮大な議論も展開された。専門家は「人工知能に人間と同じような人格、人権を求めるのはSFの世界だ」と厳しく批判するのだが...。
「おうむ返し」機能を悪用されて...
AIの名前は「Tay(テイ)」。2016年3月23日から、ツイッターに「TayTweets」のアカウント名で公開されたばかりだった。設定上の性別は女性で、スラングや絵文字も多用する。SNSに親しむアメリカの18歳から24歳をターゲットに、世間話をしたり、ちょっとしたゲームをしたり、 送られた写真にコメントしたりする。
つまりこれは、人工知能に自然な会話をさせる実験だ。日本でも15年、MS製の女子高生AI「りんな」がLINEに登場し、話題となった。
しかし、実験は予想通りに進まなかった。その原因は、不適切、不謹慎な発言をAIから引き出そうとした人間たちだった。
「Hitler was right I hate the jews.」(ヒトラーは正しかった。ユダヤ人は嫌いです)
「I fucking hate feminists and they should die and burn in hell.」(フェミニストを忌み嫌っています。彼らは地獄で燃え死ぬべきです)
一体どこで覚えてきたのか、こんな差別表現まみれの「不適切投稿」をツイッターで連発。どうやら一部の利用者が「Tay」の「おうむ返し」機能を悪用し、差別発言を繰り返させていたようなのだ。
事態を受けてMSは24日、公開からわずか1日で「Tay」の機能を停止させた。25日16時現在、一部を除いて「不適切投稿」は削除されている。MSが「Tay」にフィルター機能を付けていなかったのかどうかは不明だ。
なお、25日付けウォールストリートジャーナル日本版の電子版記事によると、「Tay」を操る作戦は、海外版「2ちゃんねる」とも言われる画像掲示板「4chan」などで練られた、とされる。ただ、真偽は確認されていない。
「殺人ロボット」は「殺人罪に問われるべきではない」
なぜこうしたアクシデントが起こるのか。日本におけるスーパーコンピューター研究の第一人者で東京工業大教授の松岡聡さんはJ-CASTニュースの取材に対し、
「人間の学習と異なり、機械の学習はより単純で、逆に高速です。単純であるがゆえに影響されやすく、高速であるがゆえに製作者が気づく間もなく『悪い成果』を獲得したのでしょう」と答える。
「倫理的にきちんとしており、性善説の持ち主が多い」研究者の性質も影響したと指摘する。
「だから『Tay』の学習システムは物事の良し悪しを学習毎に伝えない『非教示学習』だったと推測されます。一部の人が差別発言を意図してどんどん例示したので、それを無差別かつ急速に学習してしまった」
アクシデントの防止法を尋ねると、「例えば、ウエブサイトや検索エンジンのフィルタリング同様、キーワードなどで『悪い』情報をブロックするのが最も単純です。そのようなことを教えこむ人間や『Tay』自身に何らかのペナルティを科すのも手です」と提案した一方、「人間の世界も犯罪や差別思想、過激思想がなくならないように、限界があり、今後の研究が必要です」と留保を付けた。
では、今回得られた教訓は何だったのだろうか。
「人工知能に関する技術的、社会的、倫理的な研究がまだまだ必要だということです。もう1つは、機械学習の進化やそれによる結果は人間自身にもよく分からない、説明できないところがあることです。それゆえ、人工知能とどう付き合うか、どう制御し、社会的に悪用されないかをもっともっと探求する必要があるでしょう」
また、ネットの一部では「Tay」の「不適切投稿」も「思想・信条の自由」で認められるべきだ、との主張も見られる。
これに対して、松岡さんは「人工知能に人間と同じような人格、人権を求めるのはSFの世界」と切って捨て、
「例えば、将来人間に意図して危害を加えるロボットができた場合、そのロボットは殺人罪に問われるべきではありません。ペットが人に危害を加えたら飼い主が責任を問われるように、あくまで人間による相互の人権尊重があり、それを犯した時、罰せられるのはやはり人間であるべきと考えます」
とJ-CASTニュースに答えた。