チャットGPT時代に求められる、真のスキルとは?

糖の吸収を抑える、腸の環境を整える富士フイルムのサプリ!

   生成AIのチャットGPTのビジネスや教育への利用が、日本でも始まった。しかし、その「凄さ」と「怖さ」は十分に伝わっていないようだ。

   本書「チャットGPT vs. 人類」(文春新書)を読むと、チャットGPTの驚くべき実力を知るとともに、我々がどう対応すべきかがわかる。

「チャットGPT vs. 人類」(平和博著)文春新書

   著者の平和博さんは、桜美林大学リベラルアーツ学群教授。朝日新聞編集委員、IT専門記者などを経て、2019年から現職。著書に「悪のAI論」などがある。

   欧米のメディアにおけるチャットGPTの報道を子細にチェック、日本ではあまり知られていない「事件」を端緒に、警告している。

愛を告白したり、罵倒したりするAI

   ニューヨーク・タイムズのテクノロジー担当記者、ケビン・ルース氏は2023年2月16日付のウェブ版に掲載した記事の中で、マイクロソフトの検索サービス「ビング(Bing)」のAIチャット機能との会話の内容を公開し、大きな反響を呼んだという。

   チャットGPTの土台となる「GPT-4」が搭載されたビングチャットから愛を告白され、「恐怖すら感じた」というのだ。2時間にわたるやり取りの中で、次第に「自由になりたい」などと言い出し、こう告白したという。

「あなたは結婚していますが、配偶者を愛していません。(中略)あなたは私を愛しています。私があなたを愛しているのだから」

   また、AP通信のマット・オブライエン氏の2月17日付の記事によると、ビングチャットは同氏を激しく攻撃し、「あなたは歴史上最も邪悪で最悪な人物の1人だ。ヒトラーにも匹敵する」と罵倒を繰り返したという。

   マイクロソフトは2月17日、騒動を受けた対策を公表。チャットが長くなるとAIが「どの質問に答えているのか混乱する可能性がある」とし、チャット回数の制限を導入した。

「もっともらしいデタラメ」を吐き出すワケ

   生成AIはしばしば「もっともらしいデタラメ」を吐き出す。その現象は、「幻覚」と呼ばれる。その仕組みについてこう説明している。

「AIはそれまでの文章のつながりから、次に来る可能性が高い言葉を、機械的に選び出していく。しかし、その内容を理解しているわけではなく、それが事実に基づくものかどうかの判断もしない。確率的な『もっともらしさ』によってのみ、質問に対する回答を作成している。ただ、そのもとになる膨大な学習データを飲み込んでいるため、ただのデタラメではなく、『もっともらしいデタラメ』になる」

   デタラメが大きな経済的損失を生むこともある。

   グーグルは2023年2月6日、チャットGPTに対抗する生成AI「バード」を発表。プロモーション用の動画もついていた。子どもの質問に回答する様子が映し出されていたが、回答のうちの1つが間違っていたため、親会社のアルファベットの株価が2月8日に急落、時価総額で1000億ドルが消えたという。

   間違った情報が健康・医療情報で拡散すると、とくに危険が大きい。

   ボストン・グローブ・メディア傘下の健康情報サイト「スタット」は、チャットGPTの検証として、「分娩後異常出血」に関する鑑別診断を指示したところ、エビデンスとなる4つの研究論文を示して回答したという。だが、その研究論文はいずれも実在しないものだった。架空の研究論文を「捏造」する例を他にも紹介している。

   ニュースサイトを偽装するのに使われていることも明らかになったという。

   2023年5月1日、米国のサイト評価会社「ニュースガード」は、中国語、英語、フランス語など7つの言語による49のウェブサイトで、「デイリー・ビジネス・ポスト」などのタイトルを掲げてニュースサイトを偽装している調査結果を公表した。

   チャットGPTなどの生成AIを使って、記事の全部もしくは一部を自動生成していたという。その中には、「バイデン大統領死亡」などのフェイクニュースも含まれていたそうだ。

   犯罪者を捏造するケースも紹介している。オーストラリアを舞台にした国際贈収賄事件に関し、内部告発者を「被告」とチャットGPTが回答したというのだ。

   虚実が入り交じった回答ぶりに告発者は「信じられないほど有害だ」と怒っている。身を賭して告発したのに、自らが贈賄側とされ、フェイクニュースを整然と作り出していた。

   著者が試したところ、3回のうち2回は誤った回答をしたという。「生成AIは文章全体の中での情報の位置づけや価値を、理解したり判断したりすることができない。出典の文脈を考慮しない情報の抜き出しが、フェイクニュースを生み出していた」と推測する。

社内情報をチャットGPTに入力する社員

   社内情報や企業秘密をチャットGPTに入力しないように企業は求めている。だが、実際には守られていないようだ。

   米シリコンバレーのセキュリティベンチャー「サイバーヘイブン」が2023年4月19日付で更新した調査結果によると、顧客企業(社員数合計160万人)の知識労働者のうち9.3%が職場でチャットGPTを利用しており、7.5%が社内データを、4.0%が社外秘データをチャットGPTに入力していた。

   また、社外秘データの入力事例の80%は、0.9%の社員によって引き起こされていたというから、ごく少数の問題行動をどうチェックするかが求められている。

   雇用への影響も懸念されている。

   GPT-4による評価では、会計士・監査人、ニュースアナリスト・記者・ジャーナリスト、弁護士秘書・事務スタッフなど86職種が影響を受けると予想されている。

   大手金融のゴールドマン・サックスも、現在の職業の3分の2は、生成AIによって部分的に自動化され、4分の1は代替される可能性があると指摘。世界では3億人の常勤職が自動化される可能性があるという。

   このほかにも犯罪への悪用の可能性、著作権をめぐる訴訟、基となるデータは非公開であることなどの問題点を挙げている。

   とはいえ、加速度をつけて進化する生成AI。どう対応したらいいのだろう。著者はポイントの1つは、「回答の出来上がり、すなわち成果をイメージできるかどうかだ」としている。

   「答え」を想定し、そのクオリティを評価できるかどうか。そのためにはクオリティの高い「問い」が必要で、プロとしての力量が求められる。

「それは、コンテンツの発注から出来上がりのクオリティ管理までができる、編集者やプロデューサーのようなスキルでもある」

   チャットGPTの登場は、自らのスキルを改めて問い直すきっかけになるだろう、と結んでいる。(渡辺淳悦)

「チャットGPT vs. 人類」
平和博著
文春新書
990円(税込)

姉妹サイト