La législation sans précédent visant à réguler les systèmes d’intelligence artificielle (IA) a été formellement adoptée par les vingt-sept membres de l’Union européenne (UE) le mardi 21 mai. Cette législation vise à encourager l’innovation en Europe tout en prévenant les abus potentiels. Après des négociations ardues qui ont commencé en début décembre, un accord a finalement été atteint, malgré les inquiétudes de certains pays, dont la France, quant à un encadrement trop strict qui pourrait entraver le développement de ce secteur prometteur. Le texte a ensuite été voté par une grande majorité des députés européens le 13 mars.
Selon Mathieu Michel, secrétaire d’Etat belge au numérique, cette législation constitue une première mondiale. Il explique que l’Europe tient à souligner l’importance de la transparence, la responsabilité et la confiance tout en veillant à ce que la technologie évolutive puisse favoriser et stimuler l’innovation européenne.
Cette nouvelle loi sera principalement appliquée à partir de 2026 et adopte une approche basée sur le risque, imposant à divers systèmes d’IA des restrictions qui sont en proportion avec les dangers qu’ils posent à la société.
Il est à noter que les interdictions seront peu nombreuses. Les systèmes d’IA présentant un risque faible seront soumis à des obligations de transparence minimes, tandis que les systèmes à risque élevé, qui sont employés notamment dans les infrastructures essentielles, l’éducation, la gestion du personnel ou le maintien de l’ordre, devront respecter des règles plus strictes avant d’être autorisés au sein de l’UE.
Par exemple, certaines des exigences imposées comprennent la surveillance humaine sur les machines, la création de documents techniques, ou la mise en œuvre d’un système de gestion des risques. Il y aura peu d’interdictions, principalement pour les applications qui sont contraires aux principes européens, telles que les systèmes de notation des citoyens ou de surveillance de masse, tels qu’ils sont utilisés en Chine.
Des règlements spécifiques seront mis en place pour les IA génératives comme ChatGPT d’OpenAI, pour garantir la qualité des informations utilisées pour développer les algorithmes et pour respecter les droits d’auteur.
Les sons, images et textes fabriqués par l’intelligence artificielle doivent être clairement identifiés afin d’éviter leur utilisation dans la manipulation de l’opinion publique. La contribution et la réutilisation de ce contenu sont encouragées.
Une tentative d'effraction peut laisser les propriétaires vulnérables et anxieux. Savoir comment réagir immédiatement après un tel événement est crucial pour sécuriser votre espace et aider à l'enquête.
Dans un message publié sur Twitter, le ministre ukrainien des affaires étrangères, M. Kuleba, a appelé la population à boycotter trois entreprises bien connues.