・総務省と経済産業省は、AIの安全安心な活用を促進するため、「AI事業者ガイドライン(第1.0版)」を発表した。
・ガイドラインでは、人間中心、安全性、公平性など10項目の共通指針と、AI開発者、提供者、利用者それぞれに求められる事項を整理している。
・高度なAIシステムには追加的な指針が示され、各主体が連携してアジャイル・ガバナンスを構築することの重要性が指摘されている。

総務省と経済産業省は2024年4月19日、「AI事業者ガイドライン(第1.0版)」を発表しました。このガイドラインは、AIの安全安心な活用が促進されるよう、日本におけるAIガバナンスの統一的な指針を示すものです。

ガイドラインの目的とAIの定義

ガイドラインでは、AIの活用によって生じるリスクを管理しつつ、そこからもたらされる便益を最大化することを目指しています。ここでのAIとは、「現時点で確立された定義はないが、広義の人工知能の外延を厳密に定義することは困難である。本ガイドラインにおけるAIは『AIシステム(以下に定義)』自体又は機械学習をするソフトウェア若しくはプログラムを含む抽象的な概念とする」としています。

AIガバナンスの基本理念

ガイドラインでは、AIにより目指すべき社会の基本理念として以下の3つを挙げています。

  1. 人間の尊厳が尊重される社会(Dignity)
  2. 多様な背景を持つ人々が多様な幸せを追求できる社会(Diversity and Inclusion)
  3. 持続可能な社会(Sustainability)

共通の指針と主体別の事項

ガイドラインでは各主体が取り組む共通の指針として、「人間中心」「安全性」「公平性」「プライバシー保護」「セキュリティ確保」「透明性」「アカウンタビリティ」「教育・リテラシー」「公正競争確保」「イノベーション」の10項目を挙げています。

また、AI開発者、AI提供者、AI利用者のそれぞれについて、共通の指針に加えて重要となる事項が整理されています。例えばAI開発者には「適切なデータの学習」「人間の生命・身体・財産、精神及び環境に配慮した開発」等が、AI提供者には「人間の生命・身体・財産、精神及び環境に配慮したリスク対策」「適正利用に資する提供」等が、AI利用者には「安全を考慮した適正利用」「関連するステークホルダーへの説明」等が求められています。

高度なAIシステムに関する追加的な指針

高度なAIシステムに関しては、上記の共通指針に加えて、「広島AIプロセス包括的政策枠組み」等を踏まえた追加的な指針が示されています。例えば、「AIライフサイクル全体にわたるリスクを特定、評価、軽減するための適切な措置の実施」「脆弱性への対処」「透明性の確保によるアカウンタビリティの向上」等が求められています。

アジャイル・ガバナンスの重要性

ガイドラインでは、各主体が連携してAIガバナンスを構築していくことの重要性が指摘されています。その際、事前にルールや手続きを固定するのではなく、様々なステークホルダーが継続的かつ高速に関与する「アジャイル・ガバナンス」の考え方が重要だとしています。