OpenAIは、ChatGPTで作った文章を見破る技術を開発中で、その精度は99.9%と非常に高いといわれています。
しかし、この技術はまだ公開されていません。
学校では、AIを使った不正が大きな問題になっていて、先生たちはAIの悪用を防ぐ方法を強く求めています。
しかし、OpenAI社内で議論が続いているため、公開が遅れています。
OpenAIが開発したこの技術は、ChatGPTが作る文章に、人間には見えない特別な印(ウォーターマーク)を埋め込む仕組みです。
この印は、文章にわずかな変更を加えることで作られ、特別なプログラムを使うことで見つけることができます。
これにより、AIが作った文章かどうかを高い精度で判断できます。
しかし、簡単な翻訳や編集でこの印が消えてしまう可能性もあるという問題点も指摘されています。
学校でのAI不正利用に対する不安は年々高まっています。
最近の中高教師への調査では、59%の先生が「生徒がAIを使って宿題をやっている」と確信していて、その数は去年より大幅に増えています。
このような状況から、先生たちはAI不正を見抜くためのツールを強く望んでいます。
WSJによると、ニューヨーク市の高校で英語とジャーナリズムを教えるアレクサ・ガターマン氏も、同僚の先生たちとAIが引き起こす問題について毎日話し合っているそうです。
ある大学教授は、学生のAI利用を確かめるために、レポートの課題に「バットマンについて触れる」という指示をとても小さな文字で隠しました。
すると、数名の学生のレポートに、課題とは関係のないバットマンについての記述がありました。
これは、学生がAIを使ってレポートを書いたことを示唆していて、AIの安易な利用がいかに問題かを示す例です。
OpenAIがこの技術を公開しない理由は、一つだけではありません。
公開によるリスクを慎重に検討しています。
例えば、英語を母国語としない人への影響や、AIが作ったと間違えて判断してしまうリスクを心配しています。
また、2023年の調査では、ChatGPTユーザーの約30%がこの技術の導入でChatGPTを使わなくなる可能性があると答えていて、ユーザーの反発も重要な要素です。
さらに、この技術がChatGPTの文章の質に影響するかどうか社内でテストした結果、文章の質が悪くなることはなかったそうです。
OpenAI社内では、この技術を公開すべきかどうか議論が続いています。
公開によるメリットとリスクのバランスを取るため、幹部たちは慎重な姿勢を崩していません。
例えば、誰にこの技術を提供するかも決まっていません。
多くの人が使えるようになると悪用される可能性があり、限られた人にしか提供しないと十分に役立たない可能性もあります。
Googleも「SynthID」というAIで作った文章を見破るツールを開発し、テストを行っていますが、まだ一般には公開されていません。
一方、OpenAIは画像を作るAI「DALL-E 3」にはすでに検出ツールをテスト用に公開していて、特にアメリカの選挙期間中の偽情報拡散を防ぐため、画像に重点を置いています。
出典:Exclusive | There’s a Tool to Catch Students Cheating With ChatGPT. OpenAI Hasn’t Released It. – WSJ