人工知能Tayに「思想、信条の自由」はないのか? 「ヒトラー礼賛」で機能停止、専門家に疑問ぶつけた

建築予定地やご希望の地域の工務店へ一括無料資料請求

「殺人ロボット」は「殺人罪に問われるべきではない」

   なぜこうしたアクシデントが起こるのか。日本におけるスーパーコンピューター研究の第一人者で東京工業大教授の松岡聡さんはJ-CASTニュースの取材に対し、

   「人間の学習と異なり、機械の学習はより単純で、逆に高速です。単純であるがゆえに影響されやすく、高速であるがゆえに製作者が気づく間もなく『悪い成果』を獲得したのでしょう」と答える。

   「倫理的にきちんとしており、性善説の持ち主が多い」研究者の性質も影響したと指摘する。

「だから『Tay』の学習システムは物事の良し悪しを学習毎に伝えない『非教示学習』だったと推測されます。一部の人が差別発言を意図してどんどん例示したので、それを無差別かつ急速に学習してしまった」

   アクシデントの防止法を尋ねると、「例えば、ウエブサイトや検索エンジンのフィルタリング同様、キーワードなどで『悪い』情報をブロックするのが最も単純です。そのようなことを教えこむ人間や『Tay』自身に何らかのペナルティを科すのも手です」と提案した一方、「人間の世界も犯罪や差別思想、過激思想がなくならないように、限界があり、今後の研究が必要です」と留保を付けた。

   では、今回得られた教訓は何だったのだろうか。

「人工知能に関する技術的、社会的、倫理的な研究がまだまだ必要だということです。もう1つは、機械学習の進化やそれによる結果は人間自身にもよく分からない、説明できないところがあることです。それゆえ、人工知能とどう付き合うか、どう制御し、社会的に悪用されないかをもっともっと探求する必要があるでしょう」

   また、ネットの一部では「Tay」の「不適切投稿」も「思想・信条の自由」で認められるべきだ、との主張も見られる。

   これに対して、松岡さんは「人工知能に人間と同じような人格、人権を求めるのはSFの世界」と切って捨て、

「例えば、将来人間に意図して危害を加えるロボットができた場合、そのロボットは殺人罪に問われるべきではありません。ペットが人に危害を加えたら飼い主が責任を問われるように、あくまで人間による相互の人権尊重があり、それを犯した時、罰せられるのはやはり人間であるべきと考えます」

とJ-CASTニュースに答えた。

1 2
姉妹サイト