Numérique

Dis madame IA : où allons-nous ? [1/2]

Temps de lecture : 5 minutes

23 novembre 2023. 6h05 du matin. La troisième guerre mondiale va éclater. Telle est la prédiction de l’IA d’Amazon. « Elle va commencer quand la Russie va lancer une attaque sur l’Allemagne », nous explique avec assurance et précision Alexa. Si l’intelligence artificielle se met à flirter avec la voyance, on imagine les potentiels vents de panique. Mal maîtrisée, ne risque-t-elle pas de générer des ondes de choc à l’échelle mondiale ?

Avez-vous entendu parler d’Anne Kerdi ? La ravissante influenceuse a récemment défrayé la chronique, en faisait la promotion de régions françaises sur les réseaux sociaux. Elle a reçu pléthore de lettres d’amour. Mais aussi moultes propositions d’emplois. Elle répondait à tout… sauf qu’elle n’existait pas. Enfin, pas « pour de vrai ». Fruit de l’imagination d’un breton en reconversion professionnelle, ce cas d’école montre à quel point il très difficile de distinguer le vrai du faux.

Faut-il avoir peur de l’IA ?
À l’instar de la photo du pape François en doudoune Moncler ou Balenciaga – une fausse image sophistiquée réalisée grâce à l’intelligence artificielle – l’IA déroute parce qu’elle rend difficile la distinction entre le vrai et le faux. Il faut dire que l’image sera désormais source de doutes, et que si pour certains secteurs, l’IA est une vraie bonne nouvelle, pour les artistes en général, c’est un coup de massue. Récemment, une fausse chanson de Drake et The Weeknd, conçue par une IA, a généré des millions d’écoutes. De quoi relancer les débats sur la propriété intellectuelle à l’ère numérique. Pour Antonio Somaini, chercheur en culture visuelle, l’intelligence artificielle est un véritable tournant mais représente surtout, une nouvelle mutation de l’image photographique que les artistes doivent apprendre à manier. Getty Images ne s’y est pas trompée : elle a lancé son propre outil de génération d’IA en interne. Une question de survie !

Autre motif d’appréhension qu’on entend régulièrement : l’IA tendrait à supprimer des emplois. Un faux argument à en croire une récente étude menée par l’Organisation internationale du Travail, qui explique qu’elle est plus susceptible de les compléter que de les détruire. Comment ? En automatisant certaines tâches plutôt qu’en remplaçant entièrement un rôle. Selon l’étude, l’impact sera observé surtout au niveau des changements concernant la qualité des emplois : « le travail de bureau sera la catégorie la plus exposée aux technologies d’intelligences artificielles ». Les auteurs rappellent que ce sont les êtres humains qui sont à l’origine de la décision d’incorporer ces technologies et ce sont eux qui doivent guider le processus de transition. Autrement dit, il ne faut pas avoir peur de l’IA, mais apprendre à la dompter. Elle peut être très utile à partir du moment où elle est entre des mains avisées et des esprits avertis !

Alors l’IA, remède ou poison ? Première option si l’on considère qu’elle permet de remédier au côté stakhanoviste de certaines tâches, et de libérer l’humain qui peut désormais se consacrer à la créativité. Certaines personnes ne seront sans doute pas remplacées par une IA, mais peut être en revanche par quelqu’un qui l’utilise mieux qu’eux !

“ Il ne faut pas avoir peur de l'IA mais apprendre à la dompter ”

De toute façon, elle est déjà partout ! D’ailleurs, l’IA a déjà investi 80 % de nos actions quotidiennes. Impossible de s’en passer. Quand vous vous connectez sur les réseaux sociaux, le contenu proposé a été sélectionné par une IA. Quand vous sollicitez un assistant vocal pour écouter un podcast, vous faites appel à une IA. Idem quand vous faites vos courses en ligne, quand vous échangez avec un chatbot, quand vous êtes en conduite (semi) autonome grâce au système de navigation … Une fois rentrés chez vous, devant la télévision, les films proposés par les plateformes de streaming sont le fruit du travail d’une IA sur la base de vos historiques et préférences.

Et que dire de la médecine numérique et de ses innombrables IA qui surveillent votre santé en temps réel et alertent sur la moindre défaillance (démarche instable, oxygène insuffisant dans le sang, chute, rythme cardiaque trop rapide ou trop lent…). La marque Coca-Cola a lancé le 1er septembre dernier une boisson sans sucre en édition limitée : « Y3000 », dont la recette a été élaborée grâce à une IA. Même l’administration fiscale s’est emparée de cette technologie pour lutter contre la fraude, ce qui se révèle ultra-rentable pour les caisses de l’État. Et côté fonction publique, le gouvernement a aussi lancé une expérimentation visant à permettre à l’administration d’alléger la charge de travail des agents, afin qu’ils puissent consacrer plus de temps à l’accompagnement des Français qui en ont le plus besoin, au téléphone ou au guichet. Les entreprises sont elles aussi confrontées à cette technologie tous les jours en tant que clientes, qu’il s’agisse de calculer des risques, des primes ou de solliciter un prêt, car les taux d’emprunt sont là aussi calculés par une IA. Toutes ces IA ont pénétré le quotidien de millions de Français sans qu’ils en soient réellement conscients.

Si une posture critique est nécessaire … Cette adoption aussi massive que passive ne doit pas empêcher une analyse critique, car l’IA doit être au service de l’homme. Et non l’inverse ! Les algorithmes ne sont pas infaillibles comme le rappelle Laurence Devillers, professeure d’informatique à l’université Paris-Sorbonne et chercheuse au CNRS. Ces systèmes peuvent générer aussi des erreurs. « Il faut donc être en capacité d’avoir un libre- arbitre par rapport à ce que la machine avance. Sinon, le risque serait d’être manipulés par une analyse biaisée des données, et n’être au final qu’un maillon d’une chaîne qui va faire baisser l’intelligence collective », prévient la spécialiste des interactions homme-machine, auteur de Les robots émotionnels (Édition L’Observatoire, 2020). L’occasion pour elle de pointer du doigt les « manques intrinsèques » de l’IA, à commencer par l’absence de raisonnement, de morale et d’éthique « Parce que la machine utilise notre langue, possède une tonalité vocale, nous répond parfois de façon très personnelle, la tentation est forte de croire qu’elle est humaine, qu’elle a des intentions, des valeurs, des sentiments. C’est faux. Elle n’a que des informations qui lui ont été transmises et qu’elle doit traiter. L’objectif des constructeurs est d’entraîner ces machines à reproduire nos rituels d’interaction sociale afin de nous mettre en confiance », ajoute-t-elle. « Une IA éthique et morale n’est pas possible, mais une IA créée par l’Homme et programmée pour avancer des réponses acceptables sur les plans de l’éthique et de la morale, c’est imaginable », conclut celle qui est par ailleurs membre du Comité national pilote d’éthique du numérique.

Pour Cédric Villani, aujourd’hui c’est l’intelligence artificielle qui fait fleurir les prédictions roses ou noires. « Souvenez-vous : l’énergie atomique, à peine découverte, était censée remplacer le pétrole en quelques années. Les voyages spatiaux habités devaient se généraliser avant l’an 2000. Internet, fonder une ère sereine de partage universel. Les formations en lignes ouvertes à tous mettre à bas 99 % des universités », écrivait-il dans les colonnes de Libération en juin dernier. « Ne pas s’y intéresser, c’est laisser ces outils puissants servir seulement des intérêts malveillants ou égoïstes, c’est négliger de former les experts et expertes sans qui les lois et chartes resteront inopérantes. C’est comme pour toute grande vague, qu’elle soit technologique, écologique ou politique : pour l’affronter, il faut la lucidité de ce qui se passe, l’amour de ce que nous voulons préserver, et l’énergie de l’engagement ».

Découvrez la suite de notre dossier consacré à l'intelligence artificielle [2/2].