
OpenAIが提供するChatGPTにおいて、一部のユーザーから報告されていたモデルの自動切り替えの原因が、新たな安全対策機能のテストであることが明らかになりました。
これまで、GPT-4oモデルを使用中に突然GPT-5に切り替わる現象が一部ユーザーの間で話題となっていました。この挙動について、OpenAIのプロダクト責任者(Head of Product)であるニック・ターリー(Nick Turley)氏が公式に説明を行いました。
ターリー氏によると、この現象の原因は現在テスト中の「Safety Routing System」と呼ばれる新機能によるものだということです。この新機能は、会話の内容がセンシティブであったり、感情的なトピックを含んでいる場合に、それらをより安全に扱うことができるモデル(GPT-5や推論モデルなど)に自動的に切り替える仕組みとなっています。
We’ve seen the strong reactions to 4o responses and want to explain what is happening.
— Nick Turley (@nickaturley) September 27, 2025
OpenAIでは従来から、特に複雑な推論や詳細な分析を要する会話については、より適した推論モデルへルーティングする措置を取っていますが、「Safety Routing System」も同様の仕組みで運用されています。これにより、ユーザーに対して常に適切で安全な回答を提供することを目指しているとのことです。
また、モデルの切り替えは会話全体に対して行われるのではなく、あくまでメッセージ単位での一時的な措置です。モデルが切り替わった場合でも、ユーザーはどのモデルが現在有効なのかを、ChatGPTに質問することで確認できます。
OpenAIは今回の措置を、ユーザーがChatGPTをより安心して使用できる環境を整えるための一環として位置づけています。ターリー氏は、このテストを通じて現実的な利用シーンで得られたデータをもとに、今後の本格的な導入に向けて取り組んでいく考えを示しています。
同社はこうした取り組みを9月2日付けの公式ブログでも公表しており、ChatGPTの安全性や実用性をさらに向上させるための施策を幅広く実施していることを強調しました。
今後もユーザーの反応や実際の利用状況を踏まえながら、モデルの挙動を調整し、さらに快適かつ安全な利用体験の提供を目指す方針です。