×
google news

« IA: L’humain, départ et arrivée numérique »

Il n’y a pas une seule discussion concernant l’innovation, le numérique, et l’intelligence artificielle (IA) qui n’accorde une importance centrale à l’humain. La perspective centrée sur l’humain considère la technologie comme un instrument au service de l’homme. Ceci est également mis en avant dans le rapport « IA : Notre ambition pour la France », présenté au président de la République le 13 mars par la commission de l’intelligence artificielle, qui comprend un chapitre intitulé « Humanisme: Mettons l’IA à notre service ». C’est une approche louable, indéniable et irréfutable. Cependant, elle représente une limite à la fois pour la compréhension de l’IA et pour une acceptation plus large du mouvement humaniste.

D’abord, un outil ou service numérique n’est pas, et n’a jamais été, un simple instrument. L’Internet, les réseaux sociaux, et l’IA sont des mécanismes sociotechniques et politiques créés par des êtres humains. Mais, à force de calculs (intentionnel, mathématique, éthique, moral, financier, etc.), ces éléments deviennent invisibles dans le numérique. Il est donc nécessaire de « lever le capot » de ces calculs afin de s’assurer que l’homme, qui est à l’origine de toute création numérique, reste son destinataire.

Ensuite, l’humanisme sous-jacent dans l’avancement de l’IA, comme il est décrit dans le rapport de la commission, ressemble davantage à un humanisme existentialiste, axé sur l’individu, la liberté de choix et la responsabilité personnelle, qu’à un humanisme dans son sens populaire, qui se rapporte à la bienveillance, à l’altruisme, et à l’intérêt pour le bien commun à une échelle globale plutôt que locale. L’humanisme mentionné ici limite sa portée aux frontières nationales et au contour de l’individu. « Culture commune ».

Affirmer un intérêt pour l’humanité engendre une obligation envers celle-ci. Les créateurs de systèmes d’IA doivent être conscients des impacts sociétaux, cognitifs, environnementaux et éthiques résultant de leurs décisions techniques. Si un bâtiment s’écroule, l’architecte est tenu responsable. Qu’en est-il lorsque des algorithmes favorisent la désinformation ou accentuent les risques psychosociaux ?

En conséquence, il est essentiel d’intégrer plus profondément les principes fondamentaux de la science, de la technologie, de l’anthropologie et de la sociologie dans les programmes de formation technique. Favoriser une telle compréhension commune permettrait également de dépasser les illusions technicistes et les approximations précipitées qui transforment chaque nouvelle tendance en révolution.

Il reste encore 56.19% de cet article à lire. Le reste de l’article est accessible seulement pour les abonnés.

Soyez le premier à commenter

Laisser un commentaire

Votre adresse de messagerie ne sera pas publiée.


*


Lire aussi

example 44
Actualité

Grégory Delaplace : morts débordent cadres funéraires

1 novembre 2024
Dans son ouvrage récent titré "La Voix des fantômes. Quand débordent les morts" (Seuil, 2024), l'anthropologue Grégory Delaplace s'interroge sur la nature des entités que deviennent les défunts dans l'interaction…
example 42
Actualité

Présidentielle 2024 : sondages et questions

1 novembre 2024
"Le Monde offre une couverture en direct de la compétition présidentielle américaine, où les sondages indiquent une lutte acharnée entre Donald Trump et Kamala Harris. - L'actualité la plus récente.…
example 39
Actualité

COP16 biodiversité : fin prometteuse

1 novembre 2024
Contradictant les prévisions sur une extension des pourparlers à Cali, en Colombie, samedi, Susana Muhamad, présidente de la 16e conférence de la Convention des Nations unies sur la diversité biologique…