・第9回AI戦略会議が2024年5月22日に開催され、AI戦略の課題と対応、AI制度に関する考え方などが議論されました。
・海外ではAIに関する取り組みが進む中、日本国内でも生成AIサービスへの注意喚起、政府データのAI学習への提供、ガイドラインの策定などが行われています。今後はイノベーション推進と安全性確保のバランスを取りつつ、国際的な連携も進めていく方針です。
・AI制度については、事業者ガイドラインなどのソフトローを基本としつつ、高リスクのAIには法的規制の検討が必要とされました。影響が大きいAI提供者・利用者には業法等での対応を求める一方、政府によるAIの適切な調達・利用や、リスク情報の調査と悪用される蓋然性の高いAIへの措置も提言されています。

今回の会議では、「AI戦略の課題と対応について」をテーマに議論が行われました。会議では以下の資料が提示されています。

資料1-1: AI戦略の課題と対応

・海外では、OECD、G7、AI安全性サミット、EU、日米、欧州評議会、国連などにおいて、AIに関する取り組みが進められています。広島AIプロセスなど日本がリードする国際的な議論もあります。

・国内では、生成AIサービスに関する注意喚起、政府データのAI学習への提供、政府における生成AIの試験的利用、偽情報等への対策の検討、雇用への影響の分析、ガイドラインの策定や履行確保の取り組み、知的財産権との関係の整理などが行われています。

・今後、AIのイノベーション推進とともに、データ整備、計算資源の確保、研究開発、人材育成などの基盤整備を進めていく方針が示されています。

・また、AIの安全性確保に向け、ガイドラインによる自主的な取り組みを基本としつつ、国際的な議論も踏まえて制度的な対応も検討するとのことです。

・さらに、国際的な連携を通じて、日本がグローバルなAIガバナンスのルール作りを主導していく姿勢が表明されています。

資料1-2: 統合イノベーション戦略2024 AIパート(案)【非公開】

・非公開のため情報なし

資料1-3: 田中構成員資料(進化する日本でのAIの利活用)

・広告分野では、エイチエムシステムズ株式会社が運営するマッチングアプリ「オタ恋」でAI生成の広告を展開し、反響を呼んでいるとのことです。また、株式会社サイバーエージェントでは、生成AIを活用した商品画像の自動生成機能を開発・運用しているそうです。

・エンターテインメント分野では、ソニー株式会社が小型で軽量なセンサーとスマートフォンのみでモーションキャプチャーを実現する「mocopi」を発表しています。日本コカ・コーラ株式会社は、写真からオリジナル曲を生成する「AIソングメーカー」を展開中とのことです。

・教育分野では、atama plus株式会社が学習理解度を最短10分で診断・可視化する「atama+ AI伸びしろ診断」を開発。株式会社ベネッセホールディングスは、子どもの疑問をAIで解決する「チャレンジAI学習コーチ」の提供を開始したようです。

・医療・ヘルスケア分野では、画像診断支援AIの実用化が進み、数十種類が導入されているとのこと。日本医科大学などは、AIを活用した食生活記録・改善アプリ「あすけん」を開発しています。

資料1-4: 松尾座長資料(生成AIの産業における可能性)

・この1年間、日本政府は生成AIに関して、これまでにないスピード感で取り組んできており、最善手が続いている

・グローバルに日本が注目されているのは、AIにポジティブな反応、人件費の安さ、大企業のDX余地の大きさなどの理由がある

・今後は各産業での活用につなげるべく、適切な手を打っていくことが必要である

・東南アジアLLM計画への参画、医療や製造業など産業別の生成AI活用、防衛や金融などAIによる関連産業の新展開、AI人材の育成といったテーマでの可能性を提示した

・生成AIが作る未来に対しての中長期的な見通しをしっかり持っておくことも重要である

・正しい戦略でやるべきことを進めれば、グローバルにもある程度の勝負になると感じている

・生成AIの技術が、日本の産業をエンパワーし、人材の能力を引き出し、人々の生活を豊かにする手助けができればと考えている

資料2-1: 「AI制度に関する考え方」について

・政府のAI戦略チームは、AI制度に関する考え方をまとめたと発表しました。

・AI事業者ガイドラインなどのソフトローを基本としつつ、特にリスクの高いAIには法的規制の検討が必要としています。

・影響が大きく高リスクのAI開発者には、リスク評価やリスク緩和措置、情報提供等の義務付けを検討するとのことです。

・医療機器や自動運転車など、人の生命・身体等に直接影響を及ぼすAI利用については、既存の法規制により承認・認可等を求めていくとしました。

・政府関係機関は、AIの悪用による被害発生の可能性が高い場合、実態調査や注意喚起、改善命令等の措置を講じることも提言されています。

・AI生成物によるフェイクニュース対策として、電子透かしの付加や信頼できる情報への目印付けなどの技術的対策にも言及がありました。

・知的財産の観点からは、法的措置だけでなく技術的対策や契約による対価還元なども重要と指摘されています。

資料2-2: 「AI制度に関する考え方」について(概要)

・AIにはイノベーションの側面と様々なリスクの側面があり、イノベーション促進のためにも適切なガードレールが必要とのこと。

・各国はリスクの大きさに応じてソフトロー(規格・ガイドライン)とハードロー(法律・基準)を組み合わせた対策を取っている。日本もAI事業者ガイドラインで迅速に対応したが、制度の要否も含め検討が必要とされています。

・考え方の一つとして、影響が大きく高リスクのAI開発者に対しては、国民の安全・安心の観点からソフトローを補完する法制度の要否を検討。一方、変化の速さや多様性を踏まえ、規制の運用は官民連携型の第三者機関が担う「共同規制型」「ゴールベース」も重要とのことです。

・影響が大きく高リスクのAI提供者・利用者については、基本的に業法・規制法で対応。業法等のない重要インフラ等では、技術変化や利用状況に応じて機動的な対応が望まれるが、議論の積み重ねが必要とされています。

・政府によるAIの適切な調達・利用や、リスク情報の調査と悪用される蓋然性の高いAIへの改善・排除措置の検討も提言されています。