OpenAI a mis au point un nouvel outil destiné à détecter les textes générés par ChatGPT, dans le but de lutter contre la triche académique et scolaire. Malgré qu’il soit techniquement prêt à être lancé, sa mise en service a été repoussée d'un an en raison de débats internes et de préoccupations quant à son impact potentiel.
Les employés d’OpenAI sont divisés sur cette question. Certains plaident pour le maintien de la transparence, tandis que d’autres craignent que l'outil n'éloigne une partie des utilisateurs. Une enquête citée par le Wall Street Journal révèle qu'un tiers des utilisateurs réguliers pourraient être découragés par cette technologie anti-triche.
Atteignant une efficacité de 99,9 %, l'outil fonctionne en insérant un motif détectable dans les textes générés. Toutefois, il existe des moyens de contourner ce système, comme la traduction du texte ou l'ajout d'émojis. De plus, déterminer les parties qui devraient avoir accès à cet outil reste une question délicate.
OpenAI envisage deux principales options pour la distribution de cet outil : le fournir directement aux éducateurs ou via des entreprises spécialisées dans la détection du plagiat. La décision finale sur la publication de cet outil dépendra de son impact sur les utilisateurs et sur l'ensemble de l'écosystème.
OpenAI s'efforce de prendre cette décision en alignement avec ses valeurs de transparence et de responsabilité.