OpenAI、AIモデルの安全性強化へ 独立委員会「Safety and Security Committee」を設立

OpenAIは、自社のAIモデルの安全性とセキュリティを強化するため、独立した監視機関である「Safety and Security Committee(安全・セキュリティ委員会)」を設立しました。

この委員会は、モデル開発と展開における重要な安全・セキュリティ上の決定に関する提言を行う役割を担います。

現時点でのメンバーには、カーネギーメロン大学コンピュータサイエンス学部の機械学習部門ディレクターであるジコ・コルター氏(委員長)、クオラの共同創設者兼CEOのアダム・ダンジェロ氏、元米陸軍大将のポール・ナカソネ氏、そしてソニー株式会社の元執行副社長兼法務責任者のニコール・セリグマン氏が含まれています。

委員会の主な機能は、OpenAIのモデルが新たな能力レベルに到達する際の安全性評価や、モデルの開発・展開プロセスに関する安全対策の審査です。

具体的には、安全・セキュリティ基準の監督、モデルリリースのための評価、潜在的なリスクへの対応策の策定など、リリース前後の段階で安全性を確保するための役割を果たします。

さらに、委員会はモデルのリリースを延期する権利も持ち、安全性に関する懸念が解消されるまでリリースを見合わせることが可能です。

この委員会は、以下の5つの主要な分野におけるOpenAIの安全・セキュリティ実践を強化するための提言を行い、同社はそれらを採用しました。

安全・セキュリティの独立したガバナンスの確立

委員会が独立した監督組織として機能し、主要なモデルリリースに関する安全評価について報告を受ける体制を整えています。

セキュリティの強化

内部情報のセグメンテーション拡大やセキュリティ運用チームの人員強化、セキュリティ向上のための継続的な投資を行っています。

活動の透明性の確保

OpenAIはモデルの機能とリスクについて詳細に説明したシステムカードの公開を継続し、リリース前の外部チームによるリスク評価の結果やリスク緩和策を提供しています。

外部組織との協力

独立した第三者機関や政府機関と協力して、安全基準の確立とモデルの独立評価を進めています。例えば、ロスアラモス国立研究所と連携し、AIがバイオサイエンス研究に安全に利用される方法を研究するなど、幅広いコラボレーションを展開しています。

モデル開発と監視のための安全フレームワークの統合

OpenAI内の複数のチームが協力し、モデルリリースの成功基準を明確に定めた統合された安全フレームワークを構築しています。このフレームワークはリスク評価に基づき、モデルの能力が向上するにつれて増加するリスクに対応するために適応していきます。

このような取り組みを通じて、OpenAIはAI技術の発展に伴う安全性とセキュリティに関する課題に積極的に対処し、社会に対して信頼性のあるAIソリューションを提供することを目指しています。


出典:An update on our safety & security practices | OpenAI

よかったらシェアしてね!
  • URLをコピーしました!
  • URLをコピーしました!
目次