Robotique et IAG (Intelligence artificielle générale) : le malaise

Les gens ont peur de la robotique et de l’intelligence artificielle. Bien qu’il y ait un lien entre les deux, il s’agit dans les faits de deux problématiques distinctes.

En 2014, plusieurs scientifiques de renom, dont Stephen Hawking, Mark Teiggart, Bill Joy  et d’autres ont appelé́ les spécialistes en Intelligence artificielle (A.I.) à un moratoire immédiat sur les recherches poursuivies dans ce domaine, jusqu’à ce que les dangers potentiels inhérents à ce domaine aient été́ clairement circonscrits et des garde-fous érigés.
Pour Stephen Hawking et Nick Bostrom d’Oxford, le danger potentiel est immense et relève du risque existentiel, autrement dit, de la fin possible de l’humanité́.
D’autres scientifiques, dont Jaron Lanier et Ray Kurzweil considèrent que leur inquiétude est exagérée et que les bienfaits que l’humanité́ peut tirer des applications de l’intelligence artificielle sont trop importants et nécessaires pour inhiber la recherche, alors que celle-ci peut facilement parer aux dangers appréhendés. Toutefois, quelle que soit la vision qu’on adopte à l’égard de l’A.I., l’avènement de cette technologie a et aura des effets tellement disruptifs sur notre civilisation, qu’on peut parler de déchirement probable des présents modes de production économiques. Quant à ses effets sur la production intellectuelle, ceux-ci pourraient être cataclysmiques.
À ce sujet on peut dire que demain est déjà̀ là.

En ce qui touche à la robotisation, la peur découle de la disparition d’une foule de métiers. On prévoit que dans les trois prochaines décennies, un emploi sur trois disparaîtra. D’autres emplois surgiront mais tout laisse penser qu’il y en aura beaucoup moins à l’inverse des révolutions technologiques du passé. De plus, contrairement à la croyance populaire, il y a plus de chances de voir des emplois de haute et même de très haute technicité disparaître qu’en ce qui touche aux services à la personne. Par exemple, il y aura plus de disparition de postes de chirurgiens et de médecins, que de coiffeurs, car le coût de la robotisation de coiffeur sera bien plus élevé que le gain espéré. Idem pour les femmes de ménage. Le secteur du transport et du camionnage va littéralement fondre. Pensons aux milliers de chauffeurs de taxi à Londres qui passaient au moins 2 ans à mémoriser les milliers de rue de la ville, et d’un coup avec le GPS, leur utilité a disparu en l’espace d’un éclair, idem avec les 3 millions d’emplois de camionneurs en Amérique du nord, et à la venue des voitures autonomes, ce sera un secteur enterré dans une trentaine d’années. Le pire est que la scolarisation accrue n’aidera qu’un petit pourcentage de gens, ceux capables de maîtriser des processus de pointe très complexes, les autres ayant été « algorithmétisés ».  
Cette robotisation accrue de l’économie repose évidemment sur un développement accéléré de logiciels de plus en plus puissants, par exemple dans la traduction. Je me demande même si ça vaudra le coup d’apprendre des langues étrangères, tant il sera facile d’avoir un traducteur/micro logé dans une oreille et inséré dans des lunettes connectées au réseau  et qui traduira très bien dans les deux sens, ce que vous dites et ce que vous entendez. Ces logiciels toutefois ne seront pas dotés d’IAG (Intelligence Artificielle Générale)

Définition de l’IAG
Rappelons brièvement que ce qu’on appelle l’intelligence artificielle (A.I) recouvre présentement un large éventail de logiciels, capables de gérer ou de résoudre des problèmes à l’instar d’un être humain : les GPS des smartphones, l’ordinateur Deep Blue de IBM, ayant battu le meilleur joueur d’échecs Kasparov en 1989, la plateforme analytique de IBM, Watson, qui gagna le championnat mondial de jeopardy et qui probablement révolutionnera les diagnostics médicaux, l’ordinateur deep-mind alpha-go de Google qui gagna trois parties de go contre le tenant du titre mondial Lee Sedol, et tous les programmes capables de passer le test de Turing, c’est-à-dire la faculté́ d’une machine, au travers d’une conversation, d’être confondue avec un être humain véritable.

L’A.I ou plus spécifiquement l’AGI (Artificial General Intelligence) serait en somme, la capacité́ d’un ensemble artificiel à résoudre des problèmes dont la solution n’est ni évidente ni triviale, sans utiliser d’algorithmes conçus pour résoudre spécifiquement les problèmes en question, autrement dit une capacité générale à résoudre des problèmes inédits comme un cerveau. À l’extrême limite, l’A.G.I. serait à même de procéder à une auto-amélioration d’elle-même, sans limite.
À ce stade-ci, il n’existe aucune véritable A.G.I. Personne ne croit que Deep-Blue, Deep-mind, Alpha-go, Watson, ni même les LLM tels que ChatGPT soient le siège d’une véritable pensée autonome, à l’instar de la pensée humaine. Leur architecture ne ressemble absolument en rien à celle des circuits synaptiques du cerveau humain. Celui-ci fonctionne de manière analogique et non à partir d’informations réduites et véhiculées sous forme digitale. Mais il n’est ni impossible, ni assuré qu’on arrive ou qu’on échoue à simuler dans les prochaines décennies un niveau d’intelligence humaine.

Si toutefois cela advenait, on peut imaginer trois possibilités :

1) Une AGI, puissante, dénuée de toute conscience d’elle-même et opérant à l’intérieur de sa programmation,

2) Une AGI, dotée d’une forme de conscience de soi mais dépourvue d’agentivité

3) Une AGI doté d’une conscience de soi et d’agentivité, capable d’échapper à sa programmation initiale ; de se reprogrammer selon des orientations qu’elle se choisirait.
Potentiels et bénéfices
La possibilité́ de bénéficier d’une telle ressource d’innovation dans tous les domaines, correspondrait très exactement au contrôle du génie de la lampe d’Aladin. Aucun problème ne serait hors de portée si l’intelligence qui l’examine est elle-même sans limite. Plus prosaïquement, de nombreux problèmes en apparence presque insolubles aujourd’hui, tels les changements climatiques pourraient être abordés plus efficacement et résolus.

Types de dangers
L’A.G.I. ne pourra être autre chose qu’une véritable boite de Pandore.
D’abord, il faut résolument présumer qu’aucun grand acteur étatique ou non étatique ne se laissera arrêter par aucune règle éthique ou moratoire s’il a le sentiment que ses concurrents iront de l’avant dans tous les cas. C’est ce qui se passe déjà̀ dans le domaine militaire.

Scenarios catastrophes :

  1. La mort par inadvertance. On a avancé l’exemple célèbre d’une A.I ayant pour mandat de fabriquer des trombones sans tenir compte d’aucune autre contrainte. Si la programmation est mal faite, on peut avoir une A.I qui décide de contrôler toutes les sources de métal du monde entier ainsi que ses sources énergétiques pour assurer la production ininterrompue de trombones, condamnant ainsi par inadvertance l’humanité́ à la mort par application systématique de ses instructions de départ.
  2. La disparition du travail. On prévoit que dans les deux ou trois prochaines décennies, un emploi sur trois disparaîtra. D’autres emplois surgiront mais tout laisse penser qu’il y en aura beaucoup moins. De plus, contrairement à la croyance populaire, il y a plus de chances de voir des emplois de très haute technicité disparaître que dans ce qui touche aux services à la personne. Par exemple, il y aura plus de disparition de postes de chirurgiens et de médecins, que de coiffeurs, car le coût de la robotisation de coiffeur sera bien plus élevé que le gain espéré. Idem pour les femmes et hommes de ménage. Le secteur du transport et du camionnage va littéralement fondre. Pensez aux chauffeurs de taxi à Londres qui passaient au moins 2 ans à mémoriser les milliers de rue de la ville, et d’un coup avec le GPS, leur utilité a disparu en l’espace d’un éclair, avec les voitures autonomes, ce sera un secteur enterré dans une quinzaine d’années. Le pire est que la scolarisation accrue n’aidera qu’un petit pourcentage de gens, ceux capables de maîtriser des processus très complexes.  Déjà de nombreux articles de journaux sont écrits par des algorithmes à partir des dépêches des agences de presse. Cette robotisation accrue de l’économie repose évidemment sur un développement accéléré de logiciels de plus en plus puissants, par exemple dans la traduction, dans quelques années, je me demande même si ça vaudra le coup d’apprendre des langues étrangères, tant il sera facile d’avoir un traducteur logé dans une oreille et qui traduira dans les deux sens, ce que vous dites et ce que vous entendez. Ces logiciels toutefois ne seront pas dotés d’IAG (Intelligence Artificielle Générale)
  3. Le décrochage menant à la fin de toute recherche originale. Imaginons des avancées mathématiques par une A.I, dont la preuve requerrait de la part d’êtres humains, 5, 10, 20 ou 30 ans de travail pour confirmer sa véracité́. Quel mathématicien entreprendrait un tel travail ? Qu’il prouve que l’A.I. a vu juste ou pas, sa carrière serait fichue, car il n’aurait rien produit d’original lui-même. Cette réflexion me vient en pensant aux sept années de travaux d’Andrew Wiles dans sa démonstration d’un des théorèmes de Fermat. Nous avons aujourd’hui l’exemple d’un brillant mathématicien japonais Shinichi Mochizuki qui a développé́ tout un ensemble d’objets mathématiques permettant d’aborder des conjectures irrésolues. Son énoncé est très complexe et sa compréhension requerrait un énorme investissement en termes de temps. Très peu de mathématiciens l’ont fait. Pour sa démonstration, Mochizuki a développé́ des techniques que peu de mathématiciens comprennent complètement parce qu’il utilise de nouveaux « objets » mathématiques. « A ce stade, il est probablement le seul à les connaitre tous » estime Goldfeld. Et pour cause : la démonstration du Japonais est détaillée dans quatre articles scientifiques, qui reposent chacun sur d’autres longs articles. Brian Conrad de l’université de Stanford, explique : « Comprendre une démonstration longue et sophistiquée peut nécessiter un énorme investissement en termes de temps, et la volonté́ des autres scientifiques de faire un tel travail dépend non seulement de l’importance de l’annonce mais aussi des états de service de l’auteur ». Plus prosaïquement, au-delà̀ des mathématiques, si les avancées scientifiques résultent de plus en plus de travaux d’A.I., comment les hommes vont-ils pouvoir rester dans la course et ne pas devenir juste des appendices de la machine, programmant simplement ce que l’A.I. doit rechercher ? L’effet psychologique d’une telle infériorisation de ce qui était considéré́ comme la partie la plus noble de l’être humain, son cerveau, aura des effets cataclysmiques sur l’image d’elle-même de la société.
  4. Une A.I. dotée d’intentionnalité. Un nombre non négligeable de scientifiques de haut rang (Stephen Hawking, Nick Bostrom, Mark Teiggart …) et d’entrepreneurs hors du commun comme Elon Musk, ont exprimé de vives inquiétudes quant à l’apparition d’IAG, car celles- pourraient ci rapidement atteindre un niveau d’intelligence comparable à l’intelligence humaine et ensuite procéder de façon exponentielle à leur amélioration continue pour atteindre un seuil qui les situeraient dans un rapport à l’homme comme celui-ci l’est par rapport au chien ou même à la fourmi, autrement dit une intelligence si colossale que l’espèce humaine n’aurait aucune chance de survie si une telle intelligence décidait de l’éliminer comme on élimine un insecte nuisible. Or on imagine difficilement une entité́ prodigieusement intelligente, consciente et dotée d’agentivité, accepter d’être inféodée à une autre espèce nettement inferieure. Cette issue est en apparence fort improbable, mais c’est la caractéristique de tout risque existentiel, bien que très improbable, il doit être pris très au sérieux, car son occurrence signerait la fin de l’humanité, à l’instar de ce que s’est passé avec l’astéroïde qui anéantit les dinosaures, il y a 65 millions d’années.

Une question ouverte 
Cependant, je n’arrive pas à comprendre comment une « pure » intelligence si puissante soit-elle, exhiberait une volonté quelconque, à moins qu’elle n’ait été programmée à cet effet. L’intelligence en soi, ne génère pas la volonté ni le désir, ne nourrit aucune passion, ni ne cultive aucune vertu. Ces dispositions ont leurs sources dans les structures les plus primitives et essentielles du cerveau, à l’instar de la faim, de la soif, de l’instinct de survie et de reproduction, parce qu’elles étaient la condition sin qua non de la survie et de l’évolution du vivant. Le hasard a sélectionné au cours des âges les ensembles moléculaires aptes à se perpétuer, i.e à se reproduire à l’identique et à « évoluer », les ensembles incapables de le faire ont disparu purement et simplement de l’environnement. L’intelligence est survenue comme mécanisme additionnel de maximisation de la survie. L’intelligence est une capacité à comprendre, pas à vouloir. Or le désir est à la source de tout acte volontaire, mais d’où vient le désir ? Si je me fie à la biologie évolutionniste, le désir surgit du manque et chez les humains, s’accompagne de la conscience de ce manque. La perception du manque est vitale, car sans cette perception, il ne pourrait y avoir d’homéostasie.

L’idée que le désir et subséquemment la conscience de soi, la volonté, puis l’intentionnalité et l’agentivité puissent accidentellement surgir me paraît absurde pour deux raisons : d’abord parce qu’il n’y aurait à la base aucun manque à combler donc aucune pression pour « évoluer » et ensuite parce qu’un surgissement « accidentel » [non initié par l’homme] ressemblerait à une mutation et qu’il faut des dizaines ou des centaines de hasards « heureux » successifs pour qu’une nouvelle fonctionnalité se développe et cela requiert des éons. 

Je ne suis pas loin de penser qu’il est impossible d’imaginer une intentionnalité́ qui ne soit pas incarnée, autrement dit il n’y a pas de verbe sans chair. Le danger par contre est réel, si on programme une IAG avec des impératifs d’autoprotection qui aurait préséance sur tout autre programmation. De ce point de vue, la règle des trois lois robotiques d’Isaac Asimov est intéressante dans sa formulation. Toute programmation devra donc être conçue avec des garde-fous incassables. Comme c’est impossible, on vivra avec une épée de Damoclès à jamais pointée sur notre tête.

La vie est une machine capable de lutter contre l’entropie, le seul ensemble négantropique connu. Or une IAG, à moins qu’elle n’ait été programmée pour cela, ne «souffrirait » d’aucun manque, n’aurait donc aucun désir, aucune volonté propre, même si elle était dotée d’une conscience de soi artificielle. 

Une programmation comportant une heuristique éthique, me semble indispensable.

Léon Ouaknine

2019.

Notes

(https://www.slate.fr/…/mathematiques-mochizuki-theorie-nomb…)

Laisser un commentaire