Dangers de l’intelligence artificielle : fantasmes et réalité

Pierre Metivier – Flickr

Bien qu’elle soit appliquée dans de très nombreux secteurs, l’intelligence artificielle (IA) reste un domaine encore mal connu du grand public qui confond trop souvent les fantasmes de science-fiction et les faits scientifiques et techniques à cause d’annonces fracassantes relayées par la presse et d’infox propagées par les media sociaux. Le catastrophisme assumé par certains de ses développeurs, qui renvoie à l’imaginaire collectif de la machine qui échappe à son créateur, est excessif. Cependant l’intelligence artificielle soulève d’autres problèmes très concrets.

L’intelligence artificielle et nous

Depuis 80 ans déjà

C’est au cours des années 1940 que sont menés les premiers travaux de recherche sur les machines pensantes et que les scientifiques commencent à débattre sur la possibilité de créer un cerveau artificiel. En 1950 Turing publie un article fondamental où il pose la question : ” les machines peuvent elles penser? “. Face à la difficulté de définir l’intelligence il propose d’apprécier la capacité intellectuelle d’une machine par le test de l’imitation (ensuite appelé Test de Turing) qui consiste à examiner si une machine peut se faire passer pour un être humain par les réponses écrites qu’elle fournit aux questions ou problèmes qu’on lui pose (écrire un texte, effectuer un calcul…).

L’IA est établie comme une discipline scientifique lors de la conférence de Dartmouth en 1956 dont le thème était ainsi énoncé : « « Chaque aspect de l’apprentissage ou toute autre caractéristique de l’intelligence peut en principe être décrit avec une telle précision qu’une machine peut être conçue pour le simuler. »

Il faudra tout de même attendre le 7 juin 2014 pour qu’un programme informatique exécuté par un supercalculateur réussisse le test de Turing… et le 30 novembre 2022 pour que Chat-GPT soit lancé officiellement. Bien que cet agent conversationnel « grand-public » produise des textes réalistes sa capacité à réussir le test de Turing est controversée.

* Dans ce bref rappel de l’histoire de l’IA je retiens deux mots importants : imitation et simuler

IA : le soft et le hard

L’IA a d’abord été développée sous la forme de règles logiques du type « si… alors ». Cette  méthode dite symbolique, fondée sur le raisonnement et des instructions, a prévalu jusque dans les années 1990 quand une approche statistique de l’IA a ensuite pris le pas avec l’apprentissage automatique, également appelé apprentissage machine. Là, l’homme demande à l’ordinateur d’apprendre à identifier des relations statistiques entre les données. Il n’y a pas d’enchaînement d’instructions explicites, la machine est entraînée à reconnaître des liens à partir d’un corpus de données dites d’entraînement. C’est grâce à cet apprentissage que la machine peut ensuite appliquer ces liens à des données nouvelles pour effectuer une tâche.

Ainsi, pour générer le texte qu’on lui demande la machine va décomposer la question posée en unités élémentaires (token) qui sont des suites de lettres ne correspondant pas forcément à un mot ; l’analyse de cette suite de tokens à la lumière des données d’entraînement produit la réponse la plus probable (statistiquement parlant).

Les avancée technologiques de l’IA ont été possible

  • grâce au cloud qui permet le stockage de gigantesques quantités de données et leur accès (distant) de plus en plus rapide via internet,
  • grâce à la capacité de calcul des microprocesseurs grâce auxquelles on peut « brasser » ces données quasi instantanément en effectuant des dizaines de milliards d’opérations par seconde. Illustration: suite à une requête contenant le seul mot  « science » le moteur de recherche de Google produit une réponse composée de 7,9 milliards d’occurrences en 0,29 secondes !

Présentée ainsi l’IA semble immatérielle, En réalité elle ne peut fonctionner qu’avec infrastructures lourdes : des milliers de centres de données mutualisés auxquels s’ajoutent des myriades de centres de données privés. Tout ce « backoffice » de l’IA consomme actuellement 1 % de l’électricité mondiale.

Pour mémoire une cerveau humain pèse 1,4 kg et consomme 20 W

L’IA est (presque) partout

L’IA et les robots intelligents sont utilisés dans de très nombreux domaines

-Industrie : Automatisation des procédés, analyse prévisionnelle, gestion des approvisionnements et de la logistique, optimisation des ressources, contrôle prédictif de la qualité, planification de la maintenance…

-Commerce et Finance : Collecte et traitement des données de consommation, publicité ciblée sur internet, assistants virtuels, détection d’anomalies bancaires, conseil financier personnalisé…

-Services publics et parapublics : Automatisation des tâches administratives, accompagnement des élèves dans les apprentissages, tri du courrier, optimisation du trafic routier, assistance à la recherche d’emploi, détection des fraudes fiscales…

-Santé :Aide au diagnostic, optimisation et personnalisation des traitements, chirurgie assistée, robots compagnons, recherches de nouveaux médicaments,

-Sécurité : Prévention des activités délictueuses et criminelles, analyse des données de surveillance, détection de comportements suspects, aide à la gestion de crise, protection des réseaux informatiques, lutte contre les cyberattaques.

-Défense : Surveillance et reconnaissance, prévention des attaques, assistance au commandement.

-Vie quotidienne : Moteurs de recherche, réseaux sociaux, correction orthographique, traduction automatique, calcul d’itinéraire en temps réel, jeux vidéo, agents conversationnels (chatbots), reconnaissance biométrique, assistants personnels, domotique intelligente, aide à la conduite des véhicules, production de texte, d’images, de musique, de code informatique…

Toutes ces applications conçues conformément à un cahier des charges précis sont en permanence sous contrôle et incapable d’une quelconque initiative échappant à leur programmation : jusque là tout va bien.

IA et fiction(s)

C’est dans la mythologie grecque que l’on trouve les premières références à des mécaniques autonomes ou des êtres artificiels comme les robots dorés d’Héphaïstos, Pygmalion et Galatée .

A partir du 19ème siècle, la thématique de créatures pensantes apparaît dans la littérature et le théâtre : “Frankenstein ou le Prométhée moderne” de Mary Shelley (1818), « Darwin among the Machines » de Samuel Butler (1863) ou R. U. R. (Rossum’s Universal Robots) de Karel Čapek (1921).

Les robots et l’IA sont une source fertile d’inspiration pour le 7ème art, notamment Métropolis (1927), 2001-Odyssée de l’espace (1968), Blade Runner (1982), Terminator (1984), Matrix (1999), Her (2013).

Ces récits parfois terrifiants focalisent la narration sur des sujets comme la machines qui échappe à son créateur-les menaces non maîtrisables-la disparition de la liberté

Si L’intelligence artificielle a permis de nombreux progrès et son utilité incontestable, sa complexité anthropomorphisée et son jargon incompréhensible ouvrent la porte à des peurs terrifiantes. De plus des dérives (usages belliqueux ou malveillants) ajoutent de la suspicion sur le véritable bénéfice de ces nouveaux outils.

I’lA générale maître du monde attendra !

Dans l’imaginaire collectif l’IA est associé aux récits de science-fiction dans lesquels la machine échappe à son créateur, l’Homme, pour l’asservir. C’est oublier un peu vite que ces objets prétendument intelligents exécutent des tâches qui leur ont été assignées par leur concepteurs, qu’elles ne font (et ne feront) rien d’autre que des calculs mathématiques complexes sans aucune référence à une quelconque sensibilité qu’elle soit physiologique (vue, ouïe, goût, odorat, toucher…) ou psychologique (humour, tristesse, colère…).

Plus prosaïquement, sans de gigantesques infrastructures et d’énormes quantité d’électricité produites par homo sapiens, l’IA n’existe pas. Faute de pouvoir penser seules ou d’éprouver des émotions ces machines ne sont que des exécutants numériques qui dépendent de l’Homme depuis leur mise en service jusqu’à leur arrêt. Pour ceux qui en doutent on rappellera qu’un seul geste suffit pour arrêter un processus informatique déviant : couper le courant !

En fait, s’il y un risque que des machines « se rebellent » c’est parce que leur inventeur les a programmé pour le faire, là est le plus grand danger. En attendant (longtemps) que cela ne se produise pas, on voit déjà que l’IA présente d’autre risques bien réels que nous développons dans la section suivante.

Risques réels de l’IA

Les récents progrès de l’IA, et leur utilisation par l’Homme, pose des problèmes, certes moins spectaculaires qu’une improbable IA générale dominatrice, mais bien plus concrets.

l’IA est faillible

Comme on l’a dit plus haut l’IA brasse les données qu’elle a en mémoire pour répondre à une question ou exécuter une commande. Ces données sont choisies, collectées, ordonnées et qualifiées par des êtres humains. Il en résulte que ce corpus d’information reproduit l’état des connaissances à un temps t sans être totalement exhaustif (toutes les « données » ne sont pas accessibles), d’une part, et qu’il peut être biaisé par son manque de représentativité, d’autre part. Comme le traitement des données est statistique il pourra produire des résultats erronés (voire absurdes : hallucinations des GenIA).

-qui peuvent induire l’utilisateur en erreur : c’est amusant lors d’un usage ludique, ça l’est beaucoup moins lors d’un usage professionnel technique ou intellectuel,

-qui reproduisent des préjugés : sexisme, racisme, etc…

Bref,faute de véritablement fonctionner comme le cerveau humain l’IA ne peut pas être livrée à elle-même et sa production doit être validée par l’Homme

Vie économique et culturelle

Emplois, Parce ce qu’elle peuvent faire en imitant l’homme l’IA et la robotique suscitent de nombreuses craintes quant à leur impact sur le monde du travail.

On observe déjà des changements dans de nombreuses professions techniques (inspection, maintenance, logistique…) ou intellectuelles (journalisme, diagnostic médical, comptabilité, assistance juridique…). Qu’il s’agisse d’opération simples ou complexes l’IA est capable d’’exécuter tâches répétitives ; en revanche faute de sensibilité, d’intuition ou de capacité de jugement l’IA n’est pas capable d’assurer seule la cohérence de sa production.

De nombreuses études « prospectives » ont été publiées sur les effets de la numérisation et de la robotisation. La disparité de leurs conclusions (qui vont jusqu’à se contredire) doivent nous inciter à une approche pragmatique : à l’instar de l’imprimerie, du chemin de fer, ou de l’électricité, le déploiement de l’IA va détruire certains emplois pour en créer d’autres.

S’il y a un risque dans ce domaine ce serait de négliger l’importance de la formation les travailleurs existants aux technologies nouvelles et éduquer les jeunes générations pour les préparer un environnement nouveau.

Art et Culture. L’IA génère mais ne crée pas car son processus prélève des fragments d’information et les assemble statistiquement pour répondre aussi conformément que possible à la demande qui lui est faite. Cet travail de recombinaison de texte, d’images, de sons ou de codes est très limité dans sa capacité créatrice. En effet la machine n’a pas nos 5 sens et n’éprouve aucune émotion. Elle est donc incapable d’écrire un roman comme « A la recherche du temps perdu » dont le narrateur fait appel à ce qu’il senti et ressenti. Bref l’IA a une mémoire numérique mais elle n’a pas de souvenirs.

IA et vie en société

Que l’on soit à la recherche d’un nouvel emploi ou demandeur d’un prêt, il est de plus en plus fréquent de voir son dossier traité par un automate « intelligent » qui classera notre curriculum vitae dans les profils à étudier ou acceptera d’instruire une demande de crédit.

Ces pré-décisions qui conditionnent le résultat final de la démarche sont issues du fonctionnement de programmes et d’algorithmes qui ont effectué une telle flopée de calculs qu’il n’est pas possible de retracer le  « pourquoi-du-comment » de leur résultat.

On comprend donc aisément que lorsque la conclusion (défavorable) d’un procédure gérée par ces automates ne peut être expliquée cela génère le sentiment frustrant de subir la décision opaque d’un système mystérieux. On ne peut pas faire pire pour susciter la méfiance…

Paradoxalement, le pistage quasi-permanent par une multitude d’IA embarquée sur le smartphone que plus de 5,6 milliards de terriens possèdent ne les émeut guère. Pourtant c’est un risque d’attaque insidieuse et bien plus massive que l’implantation d’une puce dans le cerveau de quelques individus. Au prétexte de nous rendre la vie plus facile et plus agréable l’IA submerge le cerveau d’informations qui n’a plus le temps de les consolider ce qui qui nous prive de la capacité de réfléchir, faire la part de l’essentiel et de l’accessoire et réduit notre capacité d’esprit critique.

Banalisation de la publicité ciblée, propagation de fake-news, automatisation de l’influence personnalisée sont autant de risques pour l’exercice de notre libre-arbitre et pour nos organisations démocratiques comme l’a montré l’affaire Cambridge Analytica.

A cela il faut ajouter la tentation de déléguer des tâches et/ou des décisions à l’IA au lieu de s’en servir comme d’un assistant. A l’ère de la géolocalisation permanente et de l’utilisation d’applications GPS, qui sait encore s’orienter sans cette prothèse numérique ?

Armes autonomes

Les développements de l’IA et de la robotique au cours des deux dernières décennies ont permis la création de robots tueurs aussi appelés systèmes d’armes létales autonomes (SALA) qui sont déjà utilisés. Les militaires qui les ont adoptés déclarent qu’ils sont toujours contrôlés à distance.

Cela dit, à ce jour, il n’y aucune réglementation internationale qui interdit l’usage des SALA. Pourtant dès juillet 2015, plus d’un millier de personnalités, dont une majorité de chercheurs en IA et en robotique, ont demandé l’interdiction des armes autonomes, capables « de sélectionner et de combattre des cibles sans intervention humaine ». Parmi les signataires on peut citer l’astrophysicien Stephen Hawking, le cofondateur d’Apple Steve Wozniak, le linguiste américain Noam Chomsky, le fondateur de la société DeepMind Demis Hassabis…

Surveillance

L’analyse d’image par intelligence artificielle a considérablement progressé grâce aux avancées de l’apprentissage profond depuis plus de dix ans. Elle a a d’abord permis de reconnaître des visages ou distinguer des objets ou des animaux, puis a été appliqué à la vidéo.

Si l’utilisation de la vidéosurveillance peut être justifiée pour prévenir des risques ou/et des comportements objectivement dangereux, elle est malheureusement utilisée larga manu par des dictatures numériques pour la répression de minorités et pour du contrôle social comme le fait la Chine qui promeut très activement ces usages en Iran, au Zimbabwe, en Serbie… Quant à l’utilisation de la vidéoprotection dans les pays démocratiques elle fait débat comme on a pu le voir à l’occasion des manifestations Black Lives Matter ou lors des Jeux Olympiques de Paris.

Notons aussi que la cyber-surveillance ne se fait pas que par des images fixes ou animées, elle peut être appliquée à tous les objets connectés qu’ils soient utilisés par des personnes (domotique, enceintes intelligentes…), des entreprises (capteurs intelligents) ou des organisations publiques dans le cadre du déploiement de smart-cities par exemple

Risque cyber

Les progrès récents de l’intelligence artificielle a augmenté le spectre d’action de la cyberdélinquance. Elle permet aux cyber-criminels de mieux préparer des cyberattaques toujours plus rapides, étendues et sophistiquées: production automatisée d’e-mail d’ hameçonnage (phishing), vol de fichiers, usurpation d’identité visuelle ou/et sonore (deepfake, deepvoice), propagation de malwares ciblés capables de s’adapter aux environnements de sécurité, détournement des modèles d’apprentissage profond par pollution des données qui alimentent des algorithmes du système…

Toutefois les entreprises et organisations publiques peuvent aussi tirer bénéfice de ces nouvelles technologies IA pour se protéger et l’enjeu est de le faire sans délai par rapport à leurs cyber-ennemis.

Imbroglios juridiques en perspective

L’IA n’est pas au dessus des lois ce qui suscite bien des questions de droit , par exemple :

-Qui est responsable des effets des actions ou des productions issue d’un système piloté par IA ?Une telle interrogation s’applique autant aux accidents causés par des véhicules autonomes qu’à une réponse incomplète ou inexacte d’une GenIA utilisée dans une activité professionnelle.

-A qui revient la propriété intellectuelle d’un contenu produit par une GenIA ?

-Le contenu produit par un chatbot est il véritablement original dans la mesure où il utilise les textes, des images ou des sons, des codes imaginés par d’autres auteurs (sans leur autorisation) ?

Rivalités Géopolitiques

L’IA est déjà au cœur d’un bras de fer technologique de plus en plus tendu entre les États-Unis et la Chine. D’autres pays qui ont aussi des ambitions dans ce domaine font tout pour ne pas être dominés par ce duopole : Allemagne, Arabie saoudite, Canada, Corée du Sud, Émirats arabes unis (EAU), France, Inde, Israël, Royaume-Uni.

Microprocesseurs, métaux précieux, terres rares sont au centre de cette course mondiale à la technologie.

Plafond de verre environnemental

On l’a vu plus haut, l’IA a atteint la puissance qu’on lui connaît aujourd’hui grâce au déploiement

– d’infrastructures de plus en plus nombreuses (data center) qui s’étendent sur des surfaces de plus en plus vastes : 167 millions de m² soit 25000 terrains de foot-ball ou près de deux fois la superficie de Paris intra-muros

– d’équipement sans cesse renouvelés (serveurs) qui consomment des matériaux convoités (terres rares…)

– qui consomment de l’énergie et de l’eau de refroidissement en quantités phénoménales.

Une chose est sûre , les ressources de la planète sont limités et c’est maintenant qu’il faut s’en préoccuper pour ne pas payer les progrès futurs de l’IA au prix fort !

Cet article n’a pas la prétention d’être exhaustif dans l’inventaire des risques que présente réellement l’IA (d’ailleurs , sont ils tous connus ?). Toutefois il tente de montrer que le danger s’insinue dans notre vie quotidienne et des activités les plus banales., ce qui doit nous inciter à plus de discernement

Ce n’est pas la première fois qu’une avancée technologique majeure inquiète (train, électricité,…). Il ne tient qu’à Homo-sapiens de maîtriser ses inventions et leurs usages.


Cet article a été republié le 06/09/24 dans la rubrique ” Débats ” site Educavox – https://educavox.fr/accueil/debats/dangers-de-l-intelligence-artificielle-fantasmes-et-realite

Vous avez pu lire cet article et naviguer sur le site sans être incommodé par de la publicité, des textes sponsorisés ou du traçage commercial alors que la rédaction des publications de ce blog demande un important travail de documentation et le recours à de nombreuses sources d’informations qui ne sont pas gratuites. Pour soutenir cette politique et permettre au blog de progresser avec plus d'illustrations didactiques : images et schémas animé(e)s ou non, c’est ICI

5 thoughts on “Dangers de l’intelligence artificielle : fantasmes et réalité”

  1. Excellent résumé de la situation. Je ne peux qu’abonder. Distinguons bien l’outil de son usage et ce n’est pas parce que l’IA peut le faire, qu’on doit nécessairement le faire.

  2. Les pistes de réflexion soulevées sont toutes intéressantes… La vie économique et culturelle qui par sa prééminence dans le quotidien, est potentiellement le secteur où les retombées de l’IA seront sinon les plus visibles, du moins les plus sensibles.
    A l’évidence dans ce domaine, les développements de l’IA non rien d’altruiste, il s’agit d’abord, comme toute activité économique de générer des profits par un accroissement de la production et en parallèle de réduire les coûts en supprimant notamment des emplois. L’excuse consistant à mettre en exergue les emplois créés dans le même temps par l’IA est partiellement illusoire. Si l’on prend l’exemple de la robotique industrielle, ses retombées en termes de réduction d’emplois sont évidentes, même si dans le même temps elle a contribué à réduire la pénibilité. Certes la robotique a créé des emplois, y compris des emplois industriels pour produire les robots eux-mêmes et de l’ingénierie tant sur le plan des développements matériels que logiciels. Le solde – spécialement dans les économies dites développées – reste négatif, voire très négatif puisque dans le même temps, les emplois faiblement qualifiés se sont massivement exportés vers les pays où le coût de la main d’œuvre frise le ridicule.
    Pourtant les progrès technologiques à l’origine des quatre premières révolutions industrielles – vapeur, électricité, automatisation robotique, numérique – n’ont cessés de faire s’envoler la croissance mondiale et donc, la production de richesses. Malheureusement, l’habitus économique mondiale qui s’est installé depuis la fin de la Guerre froide nous conduit vers une catastrophe climatique dont nous serons tous victimes. Les immenses profits générés sont dans leur majorité redirigés vers l’économie immatérielle des marchés financiers, débouchant sur une compétition mondiale stérile visant à glorifier la réussite des quelques milliardaires… Résultat : quelques centaines de milliers de personnes concentrent plus de la moitié des richesses mondiales parmi plus de huit milliards d’humains qui peuplent notre minuscule planète.
    Tout le problème du progrès technologique tient dans une simple question : comment les richesses de la croissance doivent elles être réparties ? A l’évidence, les coûts écologiques, géopolitiques et évidemment sociaux devraient être soustraits du gâteau avant de calculer les dividendes… on en est loin. Plus nous créons de ressources technologiques, plus nous puisons dans les réserves naturelles. Souhaitons que la nouvelle révolution technologique qu’annonce l’IA soit entre autre, pensée en terme de circularité économique plutôt que sous la forme d’une droite financière à coefficient exagérément positif au seul profit d’une poignée d’entre-nous.

  3. A matéria é bem escrita e traz uma visão de vários ângulos. Chama a atenção a quantidade de riscos que corremos com IA e o quanto nem sabemos sobre as possibilidades e o uso que pode ser considerado inadequado. É interessante entendermos que a cerca de 80 anos (usei esse espaço de tempo por ser o possível de uma vida atualmente), se quer tínhamos maquinas de escrever elétrica. Mas nos últimos 20 anos, tantas mudanças ocorreram relacionadas à tecnologia da informação que é difícil explicar tudo que aconteceu.
    Ao ler a matéria que expõe diversos riscos sobre a IA, penso que estamos numa época que correr riscos, ou colocar muitas pessoas em risco, é menos sentido, como se fosse um jogo em que cada peça usada é descartada rapidamente para dar lugar a uma outra que se quer sabe-se o que ela pode fazer num tabuleiro conhecido.
    Assusta alguns e excita outros!

  4. Intéressant, l’IA remplacera des emplois ou fonction dit “répétitives “et créa de nouveaux emplois conducteur de drone routier ou aéronefs ; cybersécurité ; expert comptable ; etc.Faudrait t il former les salariés à l’IA ?
    L’IA classique ;on parle aujourd’hui l’IA GENERATIVE et demain de L’IA INTERACTIVE. 😌

  5. Force est de constater que les avancées scientifiques et technologiques ne transforment pas seulement la société, les métiers, l’économie, mais aussi nos catégories de pensée, notre perception du monde, et notre relation au monde.

Leave a Reply

Your email address will not be published. Required fields are marked *