AI時代の法規制:人間の尊厳と安全を守るためのルールづくり

目次

AIを法律で規制する理由

LC Asset Design(以下LC):近年、生成AIが急速に進化していますが、そもそもなぜAIを法律で規制する必要があるのでしょうか?

水野氏:AIはスマートフォンに代表される身近な情報通信機器に実装され、近年ではスマート家電と呼ばれるロボット掃除機、冷蔵庫、電子レンジ、エアコンなどにも搭載されるようになっています。

また、生成AI(文章や画像を自動で作るAI)が急速に進化し、私たちの生活に深く入り込んでおり、意識せずともAIを使うことが生活の当たり前になってきています。

AIはこれまで調べることが難しかったものを容易に教えてくれる、目的地に運んでくれる、話し相手になってくれるなど非常に便利かつ生活を豊かにする一方で、「AIが人間を必ずしも幸せにするとは限らない」という現実があります。

それどころか、AIによって自分の決断が歪められている可能性も指摘されています。

人間を不幸にしない、幸せにするAIの実現のためにルール作りが必要であり、ルールの中でも最も強力な法律による規制が必要であることをお話しします。

AIは万能ではない。むしろ危険な面もある

AIは大量のデータを使って学習することで人間が気づくことのできない様々なことを発見できると言われていますが、処理されるデータに偏りがあると、出力されるAIの判断も偏ったものとなります。

例えば、採用試験にAIを使う場合、過去のデータに「男性が採用されやすい」傾向があれば、事実上女性が不利に扱われる可能性もあります。

この他にも意図的にAIが処理するデータに改ざんなどがあれば、本来データに基づいて人間の意図によらず「公平」な結果を出力するはずのAIの判断が不正に歪められることもあり、結果的にAIが差別を助長し、人権侵害を生じさせる危険すら孕んでいます。

また、生成AIは「もっともらしい嘘」を簡単に作れます。

ディープフェイクの問題は近年様々な場面で問題視されており、偽の動画や画像によって、特定の人物、組織などの評判を貶め、時には選挙の結果すら歪めてしまう可能性があります。

これまで、映像などの視覚的情報に一定の信頼を置くことに疑いを持つ人は必ずしも多くありませんでしたが、本物と区別がつかない偽の情報を簡単に作成することができます。

このような生成AIの悪用によって、社会における個人の相互間の信頼が崩され、本来であれば起こり得なかった社会的不安が醸成される危険性があります。

こうした問題に対し、個人が気を付ける、悪用をしないなどの努力、配慮だけで対応することは不可能で、AIの運用に一定のルール、時には法律による規制を設けることが必要となります。

プライバシーに対する危険性   

スマートフォンをはじめとする情報通信機器をほとんどの人が所有する現在、これらの端末を利用することで無意識のうちに大量の個人データが収集されている現状があります。

こうして集められた顔画像や声、位置情報など、私たちの大量の個人情報・データがAIによって処理されており、様々なサービスに活用されています。

スマートフォンやパソコンを利用することで自分のデータを収集・処理されていると認識している人はどれだけいるのでしょうか。

また、そうやって収集された個人データが処理されることでどのような結果を生じさせるのかを認識している人がどれほどいるのでしょうか。 

AIの悪用を防ぎ私たちのプライバシーを守るためには、「どんなデータが集められているのか」、これらのデータが「どう使われるのか」が見えるようにルール作りをしておく必要があります。


「人間の幸せ」を守るためのルール作り

AIは人間が気づくことのできなかったことを発見することができる可能性を持っていますが、それが時として人間の尊厳や自由を傷つけることがあります。

例えば、AIが収集された個人データから「この人は有用ではない、不必要である」と判断して不当な扱いを受ける可能性があるとしたら?これは例えば、学校の受験や企業などへの就職活動の場合などで現実に起こる可能性があります。

実際に、これまでも人間の手によってペーパーテスト、面接などが行われ、適正が判断され合格、不合格が決められてきました。

ここにAIを活用してより「組織にとって有意義な人材を選考」することは既に行われています。ただこれが推し進められていくと、私らしさや多様性といった個人の特性を大事にすることから離れ、データに基づいたAIによる人間の採点に基づく選考が行われることになります。

「人間を尊重するAI」利用を目指し、大事な決定は「人間が最終的に判断すること」を基本方針としておく必要があります。

また、選挙は私たちの社会をどのようにするかを決める重要なイベントですが、候補者に関する悪質なディープフェイク映像が作成され、投票結果に悪影響があることが考えられます。

また、特定の候補者に投票を促す広告やSNSをスマートフォン上に表示させることもAIを使えば容易に行うことができ、実際の選挙結果に影響を与えた例も報告されています。

このように自分の行動は自分が決めたと思っていても、AIによってそれが歪められている危険性があるのです。


法による規制はイノベーションの敵ではない

「法律でAIを縛ると技術が進まないのでは?」という声もあります。

しかし、これまで説明してきたようなAIの危険性を放置し、AIの発展だけを望む人がいるのでしょうか。

実際にAIの不正、不当な利用で社会の大きな反発を招いた例が報道されています。

例えば、ある大手就職支援会社が利用者に無断で個人データを収集、内定辞退率を予測するソフトウェアを開発し販売していることがわかり大炎上しました。

また、大手鉄道事業者が防犯カメラの映像をAIで解析し、過去に問題を起こした人物を特定、監視していることが公表されましたが、駅の利用者は自分の顔画像が許可なく撮影、AIによって処理されていることを知らされていませんでした。

これらの事件は社会的に大きく批判され、AIに対する不信を生じさせました。

AIを用いるルールがあることで企業や開発者は安心してAIを作れますし、自分たちのAIが正当なものであるということを社会に対し示すことができます。

また、利用者も安心してAIを使え、人間のためのAIが社会に広がっていくことになるのです。

交通ルールがあるから車社会が成り立つのと同じで、適切なAI開発、利用のためにはルール作りが不可欠であり、強い実効性を持たせるためには時には法律という強力なルールが必要となることがあります。

AIによる損害時の法的責任

LC:AIの「責任の所在」が不明確になりがちです。

AIが誤った判断をして損害が発生した場合、誰が法的な責任を負うことになるのでしょうか?

水野氏:私たちの生活にとってAIがこれだけ身近なものとなった今、「AIの判断によって、事件、事故が起こった場合、誰が責任を取るの?」という疑問はとても重要です。

たとえば、完全自動運転車が事故を起こした場合、AIが病気の診断で誤った結果を出した場合、責任を負うのは誰なのでしょうか?

これまでの考え方

法律の世界では、「行為責任」という考え方が取られており、実際に結果を引き起こした行動を取った者が責任を負うことが原則です。

車の事故なら運転していた人、医療ミスなら診断した医師が責任を取ります。

しかし、完全に自動化されたAIが実現した場合、事故や事件に人間が直接関わっていないことも想定されます。

そうなると、生じた結果に対し「誰が責任を負うのか?」が分からなくなることも考えられるのです。

完全自動化で起こり得る問題

自動運転車を例にしましょう。

これまでは運転者が自らハンドルを握って自動車を操作していたので、交通事故が起きれば運転者が責任を負うことが当然でした。

また、日本で現在認められているのは、完全な自動運転ではなく、AIが運転者のサポートを行うことだけであり、事故が起こった場合には運転者が責任を負うことになります。

また医療現場でも最終的な診断はAIによる判断を参考に医師が行うことになります。

しかし、完全自動運転や完全に自動化された病気の診断が実現した場合、事故や事件当時自動車を操作していた人間、病気を診断した人間は存在しません。

AIの判断によって結果的に事件、事故が起こった場合、搭乗者、診断ソフトの実行者に責任はないと言えるでしょうか?

車や診断機器を作ったメーカーの責任は?AIを開発した会社の責任?このように起こった事件、事故の「責任の所在」をどう考えるのかが問題になります。

誰が責任を負うべき?

• 事件、事故当時AIが実装された自動車などの機器を管理する立場にあった人が責任を負う:

自動運転車であれば、搭乗者はAIによる自動運転の挙動に注意を払わなければならず、車両が事故を起こした場合搭乗者が責任を取るべきだとする考え方。病気の診断結果についても最終的にこれを監督する人間が責任を負うべきだとする考え方。

• AIを作った人や会社が責任を負う:

AIの設計やプログラムに問題があったなら、開発者や企業が責任を取るべきだという考え方。

• 製品としての責任:

AIを「製品」とみなし、欠陥があればメーカーが責任を取るという仕組みです。これは家電や車の欠陥と同じ考え方。

• AIに責任を持たせる?:

一部では、AIに「擬似人格」を認め、AI自身に責任を負わせるというアイデアもあります。

これからどうする?

AIの責任問題は、技術が発展すればするほど複雑になります。

これまでは人間の判断をサポートするというAI利用がメインだったため事件や事故の責任は実際にAIを利用した人間が負うことが当然のことであったわけです。

ただ、人間の手を離れ、完全に自動自律して行動できるAIが社会に実装されていけば、事件、事故を起こした人間の存在が希薄になっていきます。

また、AIシステム自体や運用、管理などにも目立った欠陥が見出せず、実際の現場でも責任の問えるミスが存在しない場合なども起こり得るでしょう。

このような場合も見越したルール作りが求められていくのであり、AIにはリスクがあるのだということを前提に、起こってしまった事件、事故の補償をいかにして行うのかを議論し、安心してAIシステムを運用できる体制構築が求められます。

AIの進化に法律がどう追いつくのか

LC:AIの進化は非常に速いですが、法律は制定に時間がかかります。このスピードのギャップを埋めるために、どのような規制の「柔軟性」が必要だとお考えですか?

水野氏:AIの進化スピードは凄まじいもので、数か月ごとに新しいモデルが登場し、できることがどんどん増えています。

これは、10年前に予想されていた速度を遥かに上回るもので、AIの進化がAIの進化スピードを更に早めるという相乗効果を生んでいます。

一方で、法律を作るには長い時間がかかります。

国会で審議し、法案を作成、議決、実際の施行までに数年かかることも珍しくありません。

AIの進化と法律の制定との間にあるスピードの差が非常に大きな問題です。

古い法律では新しい技術に対応できず、AIの生じさせる問題が野放しになる。

これを防ぐために前もって厳しすぎるAI規制を作った場合、過剰な規制はイノベーションを阻害してしまうかもしれません。

そこで注目されているのが「アジャイルガバナンス」です。

アジャイルとは敏捷、素早いという意味の言葉であり、技術の急速な変化に対応するため、試行錯誤を繰り返しながら柔軟に社会や技術の変化に適応していくガバナンス手法です。

固定されたルールを最初から厳格に定めるのではなく、運用の中で評価・改善を繰り返すことが特徴です。

リスクベースアプローチに基づき、全てのAIに一律の規制を課すのではなく、AIがもたらすリスクの高さに応じて規制や管理の度合いを調整することを前提に、ステークホルダー(関係者)に対し、ガバナンスのプロセスやAIシステムの評価結果に関する透明性を確保し、アカウンタビリティ(説明責任)を求めます。

AIの適正な運用には、関係する多様な主体の連携が必要となることから、政府、企業、研究者、市民など多様な主体が連携し、ガイドラインや最適な運用、実践の策定・見直しに関与し、迅速な議論を重ねることで、柔軟かつ適切なAI規制の実現を目指しており、日本でもアジャイルガバナンスによるAI規制の必要性が認識されています。


ただし、アジャイルガバナンスは刑事法の領域では用いることが困難です。

刑事法は犯罪に対処するものであるため、一般生活では馴染みのないものと思われがちです。

しかしながら、自動車の運転は誰もが行うもので常に事故のリスクが存在していること、警察に誤って疑われてしまう場合のリスクなどを考えると、刑事法分野でのAIの規制についても真剣に議論されなければならないことがわかるでしょう。

犯罪とは何か?犯罪に対する刑罰の内容は法律によって厳格に定められなければならないとされています。

例えば、現在交通事故の責任を負うのは人間だけであると刑法で定められていますが、これをガイドラインや曖昧なルールに基づいて柔軟に対応して良いとする場合、事故の責任の所在が不明瞭になり不当な結果をもたらすことになってしまうかもしれません。

例えば、完全自動運転車が事故を起こした場合、誰に責任があるのかが明確になっておらずケースバイケースで決めて良いとされてしまうと、安心して完全自動運転車の利用を行うことができないばかりか、思わぬところで刑務所に収監されてしまうといった事態が生じないと言い切れません。

また、昨今注目されている防犯カメラのリレー捜査ですが、これは防犯カメラの映像をAIが分析することで映った人物の顔画像データから顔特徴量データを抽出し、映像内の人物を特定、ネットワークで連携された防犯カメラ映像をリレーしていくことで捜査対象者の行方を追跡するというものです。

これは容疑者の特定、追跡にとって非常に有益な捜査方法ですが、法律によるルールが全く存在しておらず、いついかなる時に当該捜査が行われているのか全く実情がわかりません。

更に言えば、防犯カメラには私たち一般市民の顔画像を含む映像が大量に映り込んでおり、技術的には事件とは関係のない一般市民の顔画像データを警察がデータベースに保存しておくことも容易です。

また、AIによる顔画像データ処理を行い、全国各地にある防犯カメラ映像をネットワークを介してリレーすることで、対象の人物がどこにいるのかをリアルタイムで特定することも可能です。

このような一般市民を監視対象にできるAI利用は、プライバシーへの深刻な影響を与えるとしてヨーロッパ、EUなどでは厳しく制限されていますが、日本では法規制が一切ないのが実情です。

刑事法分野でのAI利用はアジャイルガバナンスで行うことは適切ではなく、厳格な法のルールに則って行う必要があります。

しかし、日本ではAIの警察利用に関するルール作りが遅れている現状があり、大きな問題であると言えるでしょう。

驚異的なスピードで行われるAIの発展に伴い、「柔軟な規制」が不可欠でありアジャイルガバナンスはその有力な方法といえるでしょう。

ただし、間違いが起こった場合に一般市民に与える影響の深刻さを考えると、刑事分野に代表されるような慎重さが求められる場面も想定されます。

厳格なルールとしての法律と柔軟な対応を可能とするガイドラインをうまく組み合わせ、必要に応じて定期的に規制内容を見直すことの仕組みを作ることが、AIの社会実装を迅速かつ安心して推進していくことにつながります。

水野教授から読者へメッセージ

LC:最後に、AIの法規制に関心を持つ一般の読者に向けて、AIと法の未来について、先生が最も伝えたいメッセージをお願いします。

水野氏:これまでも科学技術は、人間の生活を豊かにし、幸せにするために生み出されてきました。

しかし、歴史を振り返ると、技術の進歩が必ずしも人間に幸福をもたらしてきたわけではありません。

産業革命による労働環境の悪化や、情報技術の発展によるプライバシー侵害など、技術の発展が人間に不幸をもたらした例は数多く存在します。

これはAIも例外ではなく、倫理に基づく適切なルールがなければ、AIによって人間の尊厳が脅かされる危険性が言われ、実際にAI失業、自己決定、例えば投票行動の不正な操作、顔識別技術を用いた一般市民に対する監視などの問題が現実化しています。

こうした問題を防ぐために重要なのは、AIの開発と利用において「人間中心」の視点を徹底することです。

人間中心とは、技術発展の目的を人間の幸福に置き、その利用が人間の尊厳とそれに基づく権利を拡大してくものであることを意味します。

そのためには、企業や開発者の自主的な努力だけでなく、社会全体で共有されたルールが必要です。

ここで法規制の役割が非常に大きくなります。

法規制は、AIの暴走を防ぎ、透明性や説明責任を確保するための有効な手段です。

例えば、AIが意思決定に関わる場合、そのプロセスを説明できる仕組みを義務付ける法律や、個人データの利用を厳しく制限する規制は、私たちの尊厳、権利を守るために不可欠です。

もちろん、過度な規制は技術革新を妨げる恐れがありますが、適切なバランスを取ることで、AIの恩恵を最大限に享受しつつ、リスクを最小化することができます。

私たちが目指すべき未来は、AIが人間を支配する世界ではなく、AIのよって人間の尊厳が保障された社会を実現することです。

AIの進化は加速度的でこれを止めることは不可能です。

AIの危険性から逃れるために今さらスマートフォンやパソコンを捨て、AIが搭載された機器を廃棄してAIのもたらした便利さを放棄した暮らしに戻ることも困難でしょう。

AIの危険性を十分に認識しつつ、人間のためのAI、人権保障を実現するAIの社会実装のために法律、ガイドラインなどのルール作りがますます必要となります。

この記事を書いた人

目次