「AIは間違いを起こす可能性があります」
新しいBingに関するQ&Aページでは、「AIは間違いを起こす可能性があります」とマイクロソフトは説明している。不完全、不適切な応答があり得るというわけだ。Bingの回答を参考にして意思決定や行動を起こす前に、ユーザー自ら情報の判断や事実確認をするように呼びかけている。
実際、過去に不適切な応答をしてしまったAIが、冒頭でも触れたTayだ。2016年3月23日にツイッターやメッセージアプリ「kik」、「GroupMe」上で公開され、ユーザーと文章でのやり取りができた。人と話すほどに性能が向上するAIとの触れ込みだった。ところが運用を開始してすぐに、Tayは人種差別的な投稿を行うようになり、24日にマイクロソフトによって機能を停止された。
米メディア「WIRED」(日本語電子版)2016年3月30日付記事によれば、Tayには、他のユーザーから発信された内容を繰り返す機能があった。悪意を持った英語圏のネットユーザーによってこの機能が悪用され、他者を攻撃する投稿を行うようになったという。