OpenAIは、AIモデルを使ったサイバーセキュリティ研究を支援するプログラムである、サイバーセキュリティ補助金プログラムの2023年の成果を発表しました。600以上の応募の中から、カリフォルニア大学バークレー校のワグナー研究室、ダートマス大学のブロイヤー研究室、ボストン大学のセキュリティ研究室、企業のCoguard、Mithril Securityなど、革新的なプロジェクトが選ばれました。これらのプロジェクトは、AIの力を活用してサイバーセキュリティの強化を目指しています。
例えば、カリフォルニア大学バークレー校のワグナー研究室は、AIの一種である巨大言語モデル(LLM)への攻撃を防ぐ技術を開発しています。Coguardは、AIを使ってソフトウェアの設定ミスを減らし、Mithril Securityは、TPMという技術に基づいた安全な環境でAIモデルを展開するためのオープンソースツールを開発しました。
個人の助成対象者であるガブリエル・ベルナデット=シャピロ氏は、AIを活用した情報収集のワークショップとセキュリティスターターキットを提供し、国際的な戦争犯罪調査官や情報セキュリティ専門家へのトレーニングを強化しています。
また、ダートマス大学のアダム・ブロイヤー教授の研究室では、ニューラルネットワークを攻撃から守る新しい防御技術を開発しています。ボストン大学のセキュリティ研究室では、コードの脆弱性を発見し修正するLLMの能力を向上させる研究を行っています。
その他の研究内容についてはOpenAIの公式サイトから確認ができます。
出典:Empowering defenders through our Cybersecurity Grant Program | OpenAI