・OpenAIは安全保障委員会を新設し、プロジェクトと運営における安全とセキュリティの決定について取締役会に提言する。
・委員会は今後90日間でOpenAIのプロセスと保護対策を評価・発展させ、提言を取締役会と共有し、一部を公開する予定。
・OpenAIは安全性、セキュリティ、技術の専門家を雇用・相談し、責任あるAI開発を最優先に進める姿勢を示した。
OpenAIが安全保障委員会を新設
OpenAIは2024年5月28日、安全保障委員会を新設したと発表しました。この委員会は「OpenAIのプロジェクトと運営に関する重要な安全とセキュリティの決定について、取締役会全体に提言を行う責任を負う」とのことです。
委員会のメンバーは以下の通りです。
・Bret Taylor氏(委員長)
・Adam D’Angelo氏
・Nicole Seligman氏
・Sam Altman氏(CEO)
OpenAIは発表の中で、「最近、次のフロンティアモデルのトレーニングを開始しました。その結果得られるシステムは、AGIへの道のりにおいて、次のレベルの能力をもたらすことが期待されます」と述べています。
さらに、「業界をリードする能力と安全性の両方を備えたモデルを構築し、リリースできることを誇りに思っていますが、この重要な時期に活発な議論を歓迎します」とコメントしています。
安全性と安心に向けた具体的な取り組み
安全保障委員会の最初の仕事は、今後90日間でOpenAIのプロセスと保護対策を評価し、さらに発展させることだそうです。
90日後には、委員会が提言を取締役会全体と共有し、取締役会の審査後、「安全とセキュリティに合致する方法で、採用された提言について公に共有する」としています。
加えて、OpenAIは「この取り組みを支援するために、他の安全性、セキュリティ、技術の専門家を雇い、相談する」方針です。元サイバーセキュリティ担当者のRob Joyce氏やJohn Carlin氏など、セキュリティに関してOpenAIに助言する専門家も名を連ねています。