×
google news

Chatbots: répéter sans comprendre

Emily M. Bender, linguiste et directrice du laboratoire de linguistique informatique à l’Université de Washington, réunit également des crédits en tant que professeur. La notoriété lui est venue à travers son article « Perroquets Stochastiques » de mars 2021, rédigé avec les chercheurs en éthique Timnit Gebru, Angelina McMillan-Major et Margaret Mitchell. Cet ouvrage a reçu une large reconnaissance dans le domaine de l’intelligence artificielle (IA) en mettant en évidence les limitations, les risques, les erreurs potentielles et le coût environnemental des grands modèles linguistiques, très utilisés dans les logiciels de discussion type ChatGPT. Bender continue d’être très critique envers les tendances du domaine de l’IA et ne manque pas de partager sa censure sur le « buzz » à son sujet dans un podcast qu’elle anime avec le sociologue Alex Hanna.

Lorsqu’on lui demande si elle pense avoir visé juste dans son papier de 2021 sur les périls des grands modèles linguistiques, elle considère que ces mises en garde n’étaient pas des prédictions mais qu’il n’était pas agréable de voir le début d’une course vers ces modèles linguistiques de plus en plus volumineux et de constater que, malgré les défauts potentiels identifiés, les gens s’y sont mis quand même.

Bender admet, cependant, que son équipe a manqué quelques points comparativement à leur travail initial. Ils n’avaient pas réalisé à quel point la création de ces systèmes peuvent entraîner de l’exploitation au sein des conditions de travail (notamment chez les sous-traitants qui annotent les données, évaluent les réponses ou modèrent le contenu problématique des IA), et combien le monde serait emballé par le texte synthétique.

En dépit de critiquer l’évolution vers des modèles toujours plus conséquents, qui sont en réalité ce qui les a améliorés, elle se pose la question de savoir s’il aurait été préférable de ne pas les développer.

Il n’est pas garanti que les modèles linguistiques soient supérieurs. Certes, ils sont aptes à reproduire du texte humain, mais l’application de cette compétence reste incertaine. Il manque des preuves tangibles montrant que pour certains usages, ils donnent des résultats améliorés.

Les modèles de langue ne sont pas nouveaux et remontent aux recherches du scientifique américain Claude Shannon dans les années 1940. À l’origine, ces modèles jouaient un rôle crucial dans les programmes de transcription automatique, de correction orthographique et de traduction automatique. Toutefois, nous avons largement excédé la quantité de données nécessaires pour l’entrainement attribué à ces tâches. Pour développer des technologies fiables, il est indispensable de comprendre leur contenu. Or, en 2020, nous avons déjà dépassé le volume de données d’entraînement où cette compréhension est encore possible.

Pour continuer à lire cet article, il vous reste 78.45%. La partie restante est réservée pour les abonnés.

Soyez le premier à commenter

Laisser un commentaire

Votre adresse de messagerie ne sera pas publiée.


*


Lire aussi

example 43
Economie

Europe lance constellation Iris²

1 novembre 2024
Priorisant sa souveraineté, l'Europe cherche à devenir indépendante face au GPS Américain en lançant son propre système de radionavigation, Galileo, en service depuis 2016. La prochaine étape consiste à créer…
example 41
Economie

Parc Astérix : alternative à Disney cher

1 novembre 2024
La routine se répète toujours, avec le même impact à chaque fois. Soudainement, un homme surgit d'une petite pièce avec une tronçonneuse, caché derrière un masque en cuir dégoulinant de…
example 4
Economie

Canal+ risque redressement fiscal

1 novembre 2024
Alors que Canal+ se prépare pour son introduction en bourse à Londres le 16 décembre et dans l'approche de son 40ème anniversaire le 4 novembre, une mauvaise nouvelle vient assombrir…