OpenAIは、米国商務省の国家標準技術研究所(NIST)に設立された米国AI安全研究所と、AIの安全性に関する研究、テスト、および評価を進めるための正式な協定を締結しました。
この協定により、OpenAIは次期AIモデルのリリース前後に、米国AI安全研究所に対してアクセスを提供し、モデルの機能や安全リスクの評価を共同で行うことが可能になります。
次期AIモデルということで、これがGTP-5を指すのではないかとみられます。
この協定は、AIの安全性を確保しつつ技術革新を推進するための画期的な取り組みと位置づけられています。
米国AI安全研究所は、Anthropicとも同様の協定を締結しており、両社の最新AIモデルの安全性評価に関する共同研究が進められる予定です。
これにより、リスク軽減の方法やモデルの安全性向上に向けたフィードバックが提供されることが期待されます。
米国AI安全研究所のエリザベス・ケリー所長は、今回の合意がAI安全性の科学を進展させるための重要な一歩であり、今後の技術的協力を通じて、安全で信頼性の高いAI技術の実現に向けた取り組みが進むことを強調しました。
“Safety is essential to fueling breakthrough technological innovation. With these agreements in place, we look forward to beginning our technical collaborations with Anthropic and OpenAI to advance the science of AI safety,” said Elizabeth Kelly, director of the U.S. AI Safety Institute. “These agreements are just the start, but they are an important milestone as we work to help responsibly steward the future of AI.”
「安全性は画期的な技術革新を促進する上で不可欠です。これらの契約が締結されたことで、私たちはAnthropicおよびOpenAIとの技術協力を開始し、AIの安全性に関する科学を前進させることを楽しみにしています」と、米国AI安全研究所所長のエリザベス・ケリー氏は述べた。「これらの契約は始まりに過ぎませんが、AIの未来を責任を持って守るために私たちが取り組む上で重要な節目となります。」
出典:NIST
OpenAIのサム・アルトマンCEOも国家レベルでのテストが重要だとXでポストしました。
当社は、将来のモデルの発売前テストについて米国AI安全研究所と合意に達することができて嬉しく思っています。 多くの理由から、これが国家レベルで行われることが重要だと私たちは考えています。米国は引き続き主導的役割を果たす必要があります。
出典:Sam Altman / X
we are happy to have reached an agreement with the US AI Safety Institute for pre-release testing of our future models.
— Sam Altman (@sama) August 29, 2024
for many reasons, we think it's important that this happens at the national level. US needs to continue to lead!
また、英国のAI安全研究所との協力により、国際的な枠組みの中でのAI技術の安全性向上が図られる予定です。
NISTは、120年以上にわたり技術標準の策定をリードしており、今回の協定はその延長線上にあります。
AIの安全で信頼性の高い開発と使用を推進するために、米国AI安全研究所とOpenAI、Anthropicとの協力が今後さらに重要な役割を果たすことが期待されています。