×
google news

Sommet Paris : militants IA inquiets

« La France est-elle en négation sur les risques de l’IA? » C’était le sujet central de la conférence de presse tenue par l’organisation Pause IA le mardi 10 septembre à Paris. Avec l’approche d’un sommet international sur l’intelligence artificielle (IA) prévu à Paris les 10 et 11 février 2025, les militants les plus préoccupés par la « sécurité de l’IA » se sentent mal compris et se mobilisent. Selon Maxime Fournes, président de Pause IA en France et ancien ingénieur en IA dans le secteur financier à Londres, les dirigeants français sont « trop optimistes ».

Dans une « contre-expertise » publiée mardi, Pause IA critique le rapport de la Commission de l’IA remis au gouvernement en mars, pour avoir « ignoré les avertissements de nombreux experts sur les risques existentiels » de l’IA. Le rapport indique que ceux-ci « pourraient mener à l’extinction de l’espèce humaine ou causer des dommages catastrophiques », par la « création d’IA incontrôlables ou mal alignées sur les valeurs humaines » ou la « utilisation malveillante pour créer des armes biologiques ou des cyberattaques dévastatrices ».

Pause IA soutient également que le président Emmanuel Macron et la commission se reposent trop sur les opinions de représentants de firmes d’IA, comme Yann LeCun de Meta (la société mère de Facebook), Arthur Mensch de Mistral AI, ou Cédric O, ancien secrétaire d’État devenu un conseiller et actionnaire de Mistral – ce dernier a été accusé de conflit d’intérêts, mais la Haute Autorité pour la transparence de la vie publique a déclaré en juin que « rien ne permet de conclure » que les inquiétudes exprimées sur son passage au secteur privé aient été ignorées.

Le but de Pause IA est de « mettre l’IA en pause ».

Pause IA, une organisation internationale fondée par un ingénieur néerlandais en 2023, a organisé des manifestations minoritaires à Paris en mai, appelant à un traité international qui interromperait la recherche sur les IA de pointe. Cela reflète l’initiative de plus grandes pétitions lancées en 2023 pour mettre « en pause » la recherche sur l’IA ou pour reconnaître les « dangers de l’extinction » comme une priorité, similaire aux pandémies ou à la guerre nucléaire; des sujets qui ont dominé le sommet sur la sécurité de l’IA à Londres en novembre 2023.

Le Future of Life Institute (FLI), le groupe de réflexion américain à l’origine de la pétition pour une « pause » dans la recherche sur l’IA, a désigné une déléguée à Paris pour organiser une série de petits-déjeuners axés sur la sécurité de l’IA. Stuart Russell, un chercheur américain et figure de proue dans la dénonciation des dangers existentiels de l’IA, avait exprimé en juillet que le sommet de Paris détourne l’attention de la sécurité et que l’IA est considérée comme un outil du nationalisme économique. Même si le sujet de la sécurité de l’IA est en régression partout, la France l’emporte en termes e régression, selon Connor Leahy de la start-up ConjectureAI, qui est très alarmiste et qui était présent à Londres.

L’article complet est disponible uniquement pour les abonnés, avec 34,88% de l’article restant à lire.

Soyez le premier à commenter

Laisser un commentaire

Votre adresse de messagerie ne sera pas publiée.


*


Lire aussi

example 43
Economie

Europe lance constellation Iris²

1 novembre 2024
Priorisant sa souveraineté, l'Europe cherche à devenir indépendante face au GPS Américain en lançant son propre système de radionavigation, Galileo, en service depuis 2016. La prochaine étape consiste à créer…
example 41
Economie

Parc Astérix : alternative à Disney cher

1 novembre 2024
La routine se répète toujours, avec le même impact à chaque fois. Soudainement, un homme surgit d'une petite pièce avec une tronçonneuse, caché derrière un masque en cuir dégoulinant de…
example 4
Economie

Canal+ risque redressement fiscal

1 novembre 2024
Alors que Canal+ se prépare pour son introduction en bourse à Londres le 16 décembre et dans l'approche de son 40ème anniversaire le 4 novembre, une mauvaise nouvelle vient assombrir…