・OpenAIがAI生成コンテンツの信頼性向上のための新たな取り組みを発表しました。
・国際的な認証規格C2PAへの参加や、AI生成コンテンツ判別ツールの提供を行います。
・OpenAIは、業界全体での協力を呼びかけ、コンテンツの出所に関する透明性確保の重要性を訴えています。
OpenAIは、AI生成コンテンツの信頼性を高めるための新たな取り組みを発表しました。
国際的な認証規格への参加
OpenAIは、デジタルコンテンツの認証規格である「C2PA(Coalition for Content Provenance and Authenticity)」のステアリング委員会に参加します。C2PAは、ソフトウェア企業やカメラメーカー、オンラインプラットフォームなど、幅広い関係者によって開発・採用されている国際的な規格です。
OpenAIは、「DALL·E 3」で生成・編集された画像すべてにC2PAのメタデータを追加し、将来的には動画生成モデル「Sora」にも同様の対応を行う予定だと述べています。
AI生成コンテンツ判別ツールの提供
C2PAへの取り組みに加え、OpenAIは独自の信頼性向上策として、AI生成コンテンツを判別するためのツールを開発しています。
その第一弾として、DALL·E 3で生成された画像を判別するための分類器を、研究機関やジャーナリズム非営利団体に提供開始しました。この分類器は、DALL·E 3で生成された画像を約98%の精度で識別できるとのことです。
また、音声生成モデル「Voice Engine」にも、音声の透かしを組み込んでいると発表しています。
業界全体での取り組みが不可欠
OpenAIは、こうした技術的な取り組みだけでなく、コンテンツの信頼性を実現するには業界全体の協力が必要不可欠だと訴えています。
プラットフォームやコンテンツ制作者、中間処理者が一丸となって、コンテンツの出所に関する透明性を確保することが重要だと述べています。
OpenAIは、業界全体でこうした取り組みを進め、オンラインでの透明性を高めていくことが必要だと結んでいます。