嘘を見分けるのは難しい
メディアではこのところ、ChatGPTに警戒感を強めるような記事も目立っている。
週刊新潮の4月27日号は、「ChatGPTは人類の『神』か『悪魔』か」というタイトルで功罪を特集。「"珍回答"続出 平気で嘘をつく『対話型AI』をどう使う」という記事を掲載している。
その中でITジャーナリストの三上洋さんは、「私自身もプロフィールを尋ねたところ、"出身は東京大学"などと根も葉もない答えが返ってきましたね」と語っている。
三上さんは、「具体的にどんな引用元から情報を収集し、アウトプットしているかの詳細はブラックボックスなので、予め知りたいことについて質問者にもざっくりとした理解がないと、嘘を見分けるのは難しいと思います」と解説している。
プレジデントオンラインも4月20日、「『平気で嘘をつく』AIの誤情報を排除するには...知らないと痛い目に遭う"ChatGPTの弱み"」という記事を公開している。
その中でデジタルレシピ取締役CTOの古川渉一さんは、「ChatGPTをはじめとしたAIで作り出された文章は、必ずしも正しい内容とは限りません。ビジネスで使うには誤情報を排除することがとても重要。正しく使いこなすテクニックを身に付けてください」と語っている。
インターネットでは、「『ChatGPT』にAIと嘘の情報の問題について聞いてみた」とか、「ChatGPTに対して、何者かが嘘の個人情報を学ばせることで、個人の人権侵害が起きる可能性はありますか?」などの質疑も出ている。