📝 試験項目
  • 各ガイドラインを通じ共通で議論されている事項を理解している
  • ソフトロー・ハードローやリスクベースアプローチなどの重要な概念を理解し、そのメリットデメリットを理解している
🏷️ 主要キーワード
#AI 倫理#AI ガバナンス#価値原則#ハードロー#ソフトロー#リスクベースアプローチ ---

1. 各ガイドラインを通じ共通で議論されている事項を理解している

💡 ポイント
  • 公平性、安全性、プライバシー、透明性、アカウンタビリティ、セキュリティ、仕事への影響、民主主義への配慮など多岐にわたる課題が存在する。
  • これらの課題に対し、明確な基準設定、適切な情報開示、プライバシー・バイ・デザインの導入、AIガバナンスの確立などの対策が求められる。
  • 人間とAIの適切な協働や、多様なステークホルダーの参加も重要となる。

公平性の確保

AIシステムの判断や結果に偏りがないことは非常に重要です。例えば、採用AIで性別による合格率の差が生じたり、顔認識システムで人種による認識率の違いが出たりすることは避けるべきです。このような偏りは主にデータに起因します。人間が無意識に持つ先入観がデータ生成やアノテーションの過程で入り込むことがあるのです。対策としては、まず何を問題のある偏りと考えるかを明確にすることが大切です。例えば、融資の判断で年収による差は妥当かもしれませんが、同じ年収でも性別で差が出るのは問題となるでしょう。また、現在の人間による判断と比較することも大切ですが、既存の差別を再生産しないよう注意が必要です。

安全性と有効性のバランス

AIの安全性、つまりAIが利用者や第三者に危害を与えないようにすることは重要です。同時に、AIがタスクに対して適切に判断できる有効性も求められます。安全性と精度は往々にして関連しますが、常に一致するわけではありません。例えば、がん診断AIでは、健康な人をがんと誤診断するより、がんを見逃す方が安全性の観点からは問題となります。安全性への対応には、各分野の安全基準に従うことが大切です。また、人間がAIを過信しないよう、適切な注意喚起や情報開示も重要となります。

プライバシーの保護

AIの開発や利用において、個人のプライバシーを守ることは非常に重要です。プライバシーには、個人情報を他人に知られない権利だけでなく、自分の情報をコントロールする権利も含まれます。データ収集の段階では、どのようなデータを集め、どのようにAIの学習に使うのかが問題になります。また、AIによる推論の段階では、センシティブな情報の推論や、広範囲な監視につながる推論が問題になることがあります。対策として、システムやAIの設計段階からプライバシー保護を考える「プライバシー・バイ・デザイン」という考え方が有効です。また、カメラ画像を使う場合は、推論の内容や目的、データの保存方法などを慎重に検討することが望ましいでしょう。

透明性とアカウンタビリティの確保

AIの判断過程が不透明なことは、大きな課題の一つです。特に、ディープラーニングなどの複雑なモデルでは、どのような根拠で判断を行ったのかが分かりにくいのです。透明性の確保には、AIを使っていること、判断の根拠、AIの目的や適切な使い方、責任者、AIがもたらす影響などの情報を開示することが求められます。また、データの来歴、つまりデータがどのように生成され、どのような処理をされてきたかについても、開示が必要な場合があります。アカウンタビリティは、AIに関して責任を負うことを意味します。具体的には、AIの出力の原因を追跡・検証できること、必要な文書を残すこと、AI倫理に関する責任者や担当組織を明確にすることなどが重要です。

セキュリティと悪用の防止

AIに特有のセキュリティ問題も重要な課題です。例えば、学習データを汚染する攻撃や、敵対的事例を用いた推論結果の操作、学習データやモデルの推測、細工したモデルの配布など、様々な攻撃方法が存在します。また、AIの悪用も大きな問題です。特に最近では、生成AIの悪用が注目されています。例えば、AIで作成した偽の動画や音声を使った詐欺などが懸念されています。

仕事への影響と民主主義への配慮

AIによる自動化で仕事が失われることへの対応も重要です。完全に仕事がなくなるのを防ぐのは難しいかもしれませんが、影響を最小限に抑えたり、新しい仕事への移行を支援したりすることが大切です。また、若年層や女性の仕事が特に影響を受けやすいという指摘もあり、公平性の観点からも注意が必要です。一方で、AIは特定のタスクを自動化するものであり、人間とAIの協働を考えることが重要だという意見もあります。さらに、AIが民主主義に与える影響も無視できません。例えば、AIによる誤情報の拡散が選挙に影響を与えたり、AIを使った外国からの選挙介入が行われたりする可能性があります。また、AIによる情報のフィルタリングが社会の分断を深める可能性も指摘されています。

AIガバナンスの取り組み

これらの課題に対処するため、多くの組織がAIガバナンスの取り組みを行っています。経営層の関与、AIポリシーの策定、責任者の特定、リスク評価、目標設定、社内教育、文書化、モニタリング、内部監査など、様々な施策が実施されています。また、人間の関与、フィードバックの収集、多様なステークホルダーの参加、開発チームの多様性確保、データ品質の管理なども、リスク低減のための重要な取り組みです。

2. ソフトロー・ハードローやリスクベースアプローチなどの重要な概念を理解し、そのメリットデメリットを理解している

💡 ポイント
  • ソフトローとハードローは法的拘束力の有無で区別され、AIの分野ではソフトローが主流だが柔軟性と迅速性に優れている。
  • リスクベースアプローチはAIシステムのリスク程度に応じて規制レベルを変える手法で、EUのAI法案などで採用されている。
  • これらの概念は技術革新を阻害せず安全性を確保する上で重要だが、リスク評価の難しさなど課題も残る。

ソフトローとハードロー

法律や規制の形態は、大きく分けてソフトローとハードローの2つに分類されます。ハードローは、一般的に法律を指します。これは、公的機関が定め、遵守が義務付けられるルールです。例えば、個人情報保護法などがこれにあたります。ハードローの特徴は、法的拘束力があり、違反した場合に罰則が科されることです。一方、ソフトローは、公的機関だけでなく、業界団体や学会なども策定する自主規制やガイドラインを指します。ソフトローには法的拘束力はありませんが、実務上重要な意味を持つことがあります。例えば、契約時に業務の実施基準として参照されたり、裁判で善管注意義務違反の判断材料として用いられたりすることがあります。ソフトローとハードローには、それぞれ長所と短所があります。ハードローは法的強制力があるため、規制の効果が高いですが、成立や変更には議会の承認が必要で、迅速な対応が難しいという面があります。また、その適用は厳格であるため、個別の事情に応じた柔軟な運用が難しい場合があります。対照的に、ソフトローは法的強制力はありませんが、迅速な変更が可能で、個々の案件に即した柔軟な運用ができるという利点があります。技術の進歩が速いAI分野では、この柔軟性が特に重要になります。現在、AIに関するルールは、EU以外では主にソフトローの形をとっています。ただし、今後ハードロー化の動きが広がる可能性もあります。

観点 ハードロー ソフトロー
定義 公的機関が定め遵守が義務付けられる法令 法的拘束力のないガイドライン・自主規制
法的拘束力 あり (違反時に罰則) なし (実務上の指針)
策定主体 立法府・公的機関 公的機関、業界団体、学会など
改定の迅速性 議会承認が必要で時間を要する 比較的迅速に改定可能
長所 強制力が高く規制効果が大きい 柔軟・迅速で個別事情に対応しやすい
短所 個別の事情に応じた運用が難しい 強制力がなく遵守は任意
代表例 個人情報保護法、EU AI Act 人間中心のAI社会原則、AI事業者ガイドライン

注: AIに関するルールは EU 以外では主にソフトローが中心。

表1 ハードローとソフトローの比較

リスクベースアプローチ

AIの規制において注目されているもう一つの概念が、リスクベースアプローチです。これは、AIシステムのリスクの程度に応じて、異なるレベルの規制を適用する方法です。例えば、EUのAI法案では、AIシステムを以下のようにリスクレベルに応じて分類し、それぞれに適した規制を設けることを提案しています。

リスクレベル 説明
容認できないリスク 完全に禁止されるAIシステム
高リスク 厳格な規制の対象となるAIシステム
限定的リスク 透明性の義務が課されるAIシステム
最小リスク 特別な規制なしで使用可能なAIシステム
EU AI Act のリスクベースアプローチ階層EU AI Actの4階層リスク分類(容認できないリスク/高リスク/限定的リスク/最小リスク)をピラミッドで示す。図1 EU AI Act のリスクベースアプローチ階層容認できないリスク完全禁止(EU域内での提供・使用が許されない)高リスク厳格な規制 (適合性評価・リスク管理システム構築・データガバナンス・透明性・人による監督等)市場投入前に厳格な審査限定的リスク透明性義務 (AI使用の明示・利用者への通知)例: 対話AI・生成AIの判別等最小リスク特段の規制なし自主的な行動規範の策定が推奨大半のAIシステムが該当規制の強さ(上ほど厳しい)対象システム数(下ほど多い)注: EUのAI法案 (AI Act) における分類 / リスク評価基準は技術進歩に応じ見直しが必要
図1 EU AI Act のリスクベースアプローチ階層

このアプローチの利点は、リスクの高いAIシステムに対しては厳格な規制を課す一方で、リスクの低いシステムの開発や利用を過度に制限しないことです。これにより、AIの技術革新を阻害せずに、安全性と信頼性を確保することを目指しています。ただし、リスクの評価基準や分類方法については、技術の進歩や社会の変化に応じて常に見直しが必要になるでしょう。また、AIシステムの複雑さや用途の多様性を考えると、適切なリスク評価を行うことが難しい場合もあります。


キーワード解説

AI 倫理
AI倫理とは、AIの開発や利用に際して、人間の尊厳や権利を守り、公平性や透明性を確保するための指針や原則を指す。日本では、経済産業省が「AI原則実践のためのガバナンス・ガイドライン Ver.1.1」を策定し、AIの社会実装における倫理的課題への対応を推進している。このガイドラインは、国内外の動向を踏まえつつ、産業競争力の強化とAIの社会受容の向上を目指している。一方、欧州連合(EU)は「信頼できるAIのための倫理ガイドライン」を公表し、AIシステムの開発と利用における倫理的原則を提示している。このガイドラインは、AIの透明性、公平性、説明可能性などを重視し、社会における信頼性の確保を目指している。また、国際連合教育科学文化機関(UNESCO)は、AI倫理に関する勧告案を策定し、国際的な枠組みの構築を進めている。この勧告案は、AIの開発と利用が人権や基本的自由を尊重し、持続可能な開発に寄与することを求めている。
AI ガバナンス
AIガバナンスとは、人工知能(AI)の開発や利用において、倫理的・法的・社会的な課題に対処し、適切な管理と監督を行う枠組みを指す。この概念は、AI技術の急速な進展に伴い、その影響力が増大する中で、社会的な信頼性や安全性を確保するために重要視されている。日本では、経済産業省が「AI原則実践のためのガバナンス・ガイドライン Ver. 1.1」を策定し、AIの開発者や運用者が遵守すべき指針を提示している。このガイドラインは、人間中心のAI社会原則を尊重し、AIの社会実装における具体的な実践方法を示している。国際的には、経済協力開発機構(OECD)が2019年に「AIに関する理事会勧告」を採択し、AIの開発と利用に関する原則を提示している。これらの原則は、AIの透明性、公平性、説明責任などを強調し、各国の政策立案に影響を与えている。さらに、欧州連合(EU)は「AI法案」を提案し、リスクベースのアプローチでAIシステムの規制を進めている。この法案は、AIのリスクレベルに応じて規制の厳しさを調整し、高リスクのAIシステムには厳格な要件を課すことを目指している。
価値原則
「価値原則」は、人工知能の開発や利用に際して、人間の尊厳や社会的価値を守るための指針を指す。これらの原則は、技術の進歩と倫理的配慮のバランスを取ることを目的としている。日本では、2019年3月に統合イノベーション戦略推進会議が「人間中心のAI社会原則」を策定した。この原則は、AIの開発と利用において、人間の尊厳や個人の自由を尊重し、社会的課題の解決に寄与することを求めている。具体的には、教育・リテラシーの向上、プライバシーの確保、公正な競争の促進などが挙げられる。国際的には、2019年5月にOECDが「AIに関する原則」を採択した。この原則は、AIの開発と利用が人権や民主主義の価値観に沿うことを強調している。また、2020年6月には「AIに関するグローバルパートナーシップ(GPAI)」が設立され、各国が協力して責任あるAIの実現を目指している。これらの価値原則は、AI技術の進展に伴う倫理的・社会的課題に対応するための指針として、国内外で広く認識されている。AIの開発者や利用者は、これらの原則を理解し、実践することで、持続可能で人間中心の社会の実現に寄与することが期待されている。
ハードロー
「ハードロー」とは、法的拘束力を持つ規制や法律を指す。これらはAIの開発や利用に関して明確な義務や禁止事項を定め、違反時には罰則が科される。例えば、欧州連合(EU)は「AI法(AI Act)」を提案し、高リスクのAIシステムに対する厳格な規制を導入しようとしている。この法律は、AIシステムの透明性や安全性、公平性を確保することを目的としている。一方、アメリカでは、2023年10月にバイデン大統領がAI規制に向けた大統領令を公表し、既存の法令を活用して大規模汎用モデル開発者からの報告を求めるなどの措置を講じている。これらの動向は、AIのリスクに対処しつつ、技術革新を促進するためのバランスを模索するものである。
ソフトロー
国内外で策定されているガイドラインは「ソフトロー」として位置づけられる。ソフトローとは、法的拘束力を持たないが、関係者が遵守すべき指針や基準を示すものである。これに対し、法的拘束力を持つ法律や規制は「ハードロー」と呼ばれる。日本では、AIの開発や利用に関する基本的な指針として、内閣府が「人間中心のAI社会原則」を策定し、経済産業省は「AI原則実践のためのガバナンス・ガイドライン」を公表している。これらは、AIの倫理的・社会的側面を考慮し、開発者や利用者が遵守すべき原則を提示している。また、2024年4月には「AI事業者ガイドライン」が公表され、国内のAIガバナンスの統一的な指針として機能している。国際的には、欧州連合(EU)が2021年4月に「AI規則案」を公表し、リスクベースアプローチに基づく包括的な規制を提案している。この規則案は、AIシステムをリスクの程度に応じて分類し、それぞれに適切な規制を適用することを目的としている。一方、米国では、2022年10月に「AI権利章典のための青写真」を発表し、AIシステムの開発や利用における基本的な権利や原則を提示している。これらの取り組みは、AIの活用に伴うリスクを軽減し、社会的な信頼を確保することを目指している。ソフトローは、技術の急速な進展に対応し、柔軟かつ迅速にガバナンスを実現する手段として重要視されている。法的拘束力はないものの、業界標準やベストプラクティスとして広く受け入れられ、AIの開発者や利用者にとって指針となる。これにより、AIの倫理的・社会的課題に対応しつつ、技術革新を促進するバランスが図られている。
リスクベースアプローチ
リスクベースアプローチは、AIの活用において、システムがもたらす潜在的なリスクの大きさや性質に応じて対策を講じる手法である。この方法では、リスクの評価と管理を通じて、AIの利点を最大限に引き出しつつ、負の影響を最小限に抑えることを目指す。日本では、経済産業省と総務省が共同で「AI事業者ガイドライン(第1.0版)」を策定し、リスクベースアプローチを採用している。このガイドラインでは、AIシステムを開発・提供・利用する主体が、各自の役割に応じてリスクを評価し、適切な対策を実施することが求められている。具体的には、AIシステムの開発者は、システムの設計段階からリスクを評価し、適切な管理策を講じることが推奨されている。また、提供者や利用者も、それぞれの立場でリスクを認識し、適切な対応を行うことが重要とされている。一方、欧州連合(EU)では、AI規制法(AI Act)を通じてリスクベースアプローチを導入している。この規制法では、AIシステムをリスクの程度に応じて「許容できないリスク」「高リスク」「限定的リスク」「最小限のリスク」の4つに分類し、それぞれに適切な規制を適用している。例えば、高リスクと分類されるAIシステムには、厳格なデータガバナンスや透明性の確保、人的監視の実施などが求められている。