Il n’y a pas une seule discussion concernant l’innovation, le numérique, et l’intelligence artificielle (IA) qui n’accorde une importance centrale à l’humain. La perspective centrée sur l’humain considère la technologie comme un instrument au service de l’homme. Ceci est également mis en avant dans le rapport « IA : Notre ambition pour la France », présenté au président de la République le 13 mars par la commission de l’intelligence artificielle, qui comprend un chapitre intitulé « Humanisme: Mettons l’IA à notre service ». C’est une approche louable, indéniable et irréfutable. Cependant, elle représente une limite à la fois pour la compréhension de l’IA et pour une acceptation plus large du mouvement humaniste.
D’abord, un outil ou service numérique n’est pas, et n’a jamais été, un simple instrument. L’Internet, les réseaux sociaux, et l’IA sont des mécanismes sociotechniques et politiques créés par des êtres humains. Mais, à force de calculs (intentionnel, mathématique, éthique, moral, financier, etc.), ces éléments deviennent invisibles dans le numérique. Il est donc nécessaire de « lever le capot » de ces calculs afin de s’assurer que l’homme, qui est à l’origine de toute création numérique, reste son destinataire.
Ensuite, l’humanisme sous-jacent dans l’avancement de l’IA, comme il est décrit dans le rapport de la commission, ressemble davantage à un humanisme existentialiste, axé sur l’individu, la liberté de choix et la responsabilité personnelle, qu’à un humanisme dans son sens populaire, qui se rapporte à la bienveillance, à l’altruisme, et à l’intérêt pour le bien commun à une échelle globale plutôt que locale. L’humanisme mentionné ici limite sa portée aux frontières nationales et au contour de l’individu. « Culture commune ».
Affirmer un intérêt pour l’humanité engendre une obligation envers celle-ci. Les créateurs de systèmes d’IA doivent être conscients des impacts sociétaux, cognitifs, environnementaux et éthiques résultant de leurs décisions techniques. Si un bâtiment s’écroule, l’architecte est tenu responsable. Qu’en est-il lorsque des algorithmes favorisent la désinformation ou accentuent les risques psychosociaux ?
En conséquence, il est essentiel d’intégrer plus profondément les principes fondamentaux de la science, de la technologie, de l’anthropologie et de la sociologie dans les programmes de formation technique. Favoriser une telle compréhension commune permettrait également de dépasser les illusions technicistes et les approximations précipitées qui transforment chaque nouvelle tendance en révolution.
Il reste encore 56.19% de cet article à lire. Le reste de l’article est accessible seulement pour les abonnés.
Laisser un commentaire