ちょっとした家電製品から、複雑な計算、人間のような推論まで、いまや人工知能(AI)は人間生活の広範な分野に浸透している。便利な一方、人権との衝突も問題になり始めている。
そんなAIについて、欧州連合(EU)が世界に先駆けて規制案をまとめ、公共の場で顔認証技術を捜査に利用することを原則禁止することなどを打ち出した。
AIの健全な発展には、安全性や基本的人権の確保が不可欠との考えに基づく。市民の権利を保護し、企業が安心してAIを使えるルールづくりで世界に先んじることで、投資を呼び込む狙いもある。
EUのAI規制案、4段階に分類
EUの執行機関である欧州委員会が2021年4月21日に公表したAI規制案は、AI利用がもたらすリスクを、
(1)受け入れがたいリスク
(2)高リスク
(3)限定的なリスク
(4)最小限のリスク
――の4段階に分類。それぞれどう規制するかを定めようとしている。企業に違反が確認されれば、世界売上高の最大6%か3000万ユーロ(約39億円)のいずれか高いほうの罰金を科すという。
(1)は基本的人権を侵害するとして、禁止する。公の場で警察などの公権力がリアルタイムで顔認証などの生態認証技術を使って捜査することが代表例だ。ただし、行方不明の子どもの捜索や差し迫ったテロの脅威などの場合は、司法機関や独立機関による事前承認を経て、限定的に顔認証技術を使えるようにするとした。
このほか、交通違反や公的料金の支払いなどの行動データを分析して個人をスコアリング(格付け)すること、無意識の知覚に関係するサブリミナル技術、社会的弱者の搾取に関わる技術などを禁止すべきものとして挙げた。
(2)は市民の権利や安全に悪影響を与えるもので、利用には事前の審査が必要とした。企業の採用面接や教育現場での試験の採点、国境管理、ローンに際しての信用調査、ロボットを使った手術などを例示した。
(3)は一定の透明性が求められるAI利用で、「チャットボット」の使用時に、利用者に相手が人間ではなく機械だと伝えることなどが必要とした。
(4)は迷惑メールの振り分けや工場の効率的稼働のためのシステム、ゲームへのAI搭載など、リスクがほとんどないかゼロのもの。追加の規制は設けない。大半のAIがこの分類入るとしている。