Le Wall Street Journal a rapporté dimanche 4 août que OpenAI, une entreprise américaine, possédait depuis environ un an un système pour identifier les textes créés par ChatGPT, leur produit emblématique, bien qu’il ne l’ait pas encore mis en application. Cette information a été validée par un représentant de OpenAI.
Créé en novembre 2022, ChatGPT est un outil d’intelligence artificielle qui est capable de produire des textes sur demande, qu’il s’agisse de courriels, de publications sur les médias sociaux ou même de dissertations. Cela a suscité l’inquiétude de plusieurs enseignants et incité à se demande comment distinguer un texte créé par un humain de celui généré par ce logiciel. Plusieurs programmes de détection ont été créés en réponse, mais les résultats n’ont pas été concluants. OpenAI avait même développé un outil de détection en 2023 pour repérer les textes produits par des IA, qu’ils soient de ChatGPT ou d’autres programmes concurrents. Toutefois, l’outil a été retiré quelques mois plus tard en raison de son inefficacité.
Néanmoins, le Wall Street Journal a découvert qu’OpenAI dispose d’un système efficace pour identifier les textes générés par ChatGPT depuis environ un an. Selon un document interne de l’entreprise consulté par le journal, ce système serait efficace à 99,9%. En termes simples, ce système alterne subtilement la manière dont ChatGPT sélectionne les mots pour former des phrases, créant ainsi un motif identifiable par un outil spécifique. Cet outil attribue un niveau de probabilité à chaque texte pour savoir s’il a été créé par ChatGPT. Cependant, il y a une crainte de perdre des utilisateurs.
Depuis deux ans, un débat interne fait rage sur la question de savoir s’il convient ou non de rendre public une certaine technologie, selon le Wall Street Journal. L’entreprise semble tiraillée entre son objectif initial d’élaborer des instruments d’IA pour le bien commun et accessible à tous, une ambition sur laquelle elle a déjà fait des concessions, et son désir d’augmenter son nombre d’utilisateurs. En 2023, une enquête effectuée auprès des utilisateurs de ChatGPT a révélé que 69% d’entre eux craignaient qu’un outil de détection puisse entraîner de fausses accusations de fraude. Un notable 30% d’entre eux ont également indiqué qu’ils utiliseraient moins ChatGPT si un tel outil était spécifiquement mis en place pour le générateur de texte d’OpenAI. L’entreprise craignait également que la mise en place de ce système, qui nécessite de changer le fonctionnement de ChatGPT, puisse nuire à la qualité de son écriture, mais plusieurs essais ont démontré que ce n’est pas le cas.
Une porte-parole d’OpenAI a exprimé au Wall Street Journal une « approche prudente ». Elle a affirmé que : « Bien que la technique que nous développons soit prometteuse, elle présente des risques majeurs que nous examinons tout en explorant d’autres options », faisant référence à « un impact potentiel sur l’écosystème plus large d’OpenAI ». L’un des soucis de l’entreprise, a-t-elle indiqué, est que cet outil pourrait affecter de manière disproportionnée les personnes dont l’anglais n’est pas la langue maternelle et qui utilisent ChatGPT comme assistant.
Suite aux divulgations du Wall Street Journal, OpenAI a apporté des modifications à un article de mai sur son blog relatif à l’authentification des informations sur internet. La société a souligné que son outil a fait preuve d’une grande précision et performance, y compris face à des modifications locales telles que les paraphrases. Cependant, elle reconnaît que son système est moins efficace lorsque le texte complet a été paraphrasé, par exemple par une traduction automatique du contenu dans une autre langue, puis sa re-traduction dans la langue originale. En conséquence, OpenAI considère que son système de détection peut être facilement contourné par des individus malveillants.
Laisser un commentaire