Responsable de la recherche fondamentale en intelligence artificielle (IA) pour Google DeepMind, Joëlle Barral chapeaute les équipes de recherche du géant de l’internet et de la jeune entreprise britannique d’IA, acquise en 2014, dans différents lieux allant de Londres à Paris, en passant par la Silicon Valley. Arrivée à Google en 2004 après des études à Polytechnique et à l’université américaine de Stanford, cette ingénieure a participé à plusieurs de ses projets liés à la santé, y compris Verily. Aujourd’hui, elle se prononce sur les défis et l’avenir des principaux modèles de langage qui soutiennent les assistants d’IA, comme Gemini, que Google envisage d’intégrer à son moteur de recherche et à son système d’exploitation Android. Elle exprime également sa conviction quant à la capacité de cette technologie à faire avancer la recherche, suite à l’attribution du prix Nobel de physique à Demis Hassabis, Directeur Général de DeepMind, et au chercheur John Jumper.
Quand on lui parle de l’avenir de l’IA et des spéculations à son sujet, elle réagit en perspective. L’IA existe depuis longtemps, la base des réseaux de neurones de l’IA générative actuelle étant en place depuis plus d’un demi-siècle. Ce qui a créé l’accélération récente, ce sont les données quantitatives et la puissance de calcul qui ont permis à ces algorithmes de dépasser nos attentes. Elle exprime ce phénomène comme un engouement sociétal exceptionnel pour les résultats de la recherche en matière d’IA. Ce n’est selon elle pas seulement une bulle, mais le prémisse d’une nouvelle ère industrielle déclenchée par cette technologie révolutionnaire. Elle insiste sur le fait que nous sommes loin d’avoir épuisé ses potentialités, il est plutôt question de maîtriser cette technologie qui va influencer un grand nombre de domaines humains.
En dépit de ces avancées, les erreurs factuelles restent fréquentes parmi les assistants d’intelligence artificielle. N’est-ce pas un obstacle dans leur fonction dans les moteurs de recherche ? Ce problème est-il résoluble ?
Au début, on avait une intelligence artificielle dite « étroite » qui était entrainée à partir d’un ensemble d’exemples concrets, tels que la classification d’images de chats et de chiens entre autres. Avec l’évolution vers l’intelligence artificielle générative, on ne présente plus des exemples mais les modèles apprennent en utilisant de larges ensembles de données pour anticiper le mot suivant d’une séquence, basé sur la fréquence de ce mot dans leurs données d’apprentissage.
Afin de limiter les erreurs, on peut « améliorer » ces applications en leur apprenant comment utiliser des outils. Par exemple, en fournissant une calculatrice aux modèles d’IA, ces derniers éviteront des erreurs lorsqu’ils effectuent une multiplication…
L’article est encore à peu près 78.64% à lire. Le restant est seulement accessible aux abonnés.
Laisser un commentaire