Generic selectors
Correspondance stricte
Recherche dans le titre
Recherche dans le contenu
Post Type Selectors
Filtre par catégorie
ADNEthique
Algorithmique
Asso Référentiel
Association
Bibliographie
Domaines abordés
Données personnelles
Economie numérique
Emploi
IA
IA Etat de l'art
IA Risques
Informatique
Marché
Usages du numérique

L’Intelligence Artificielle et la singularité technologique. Mythes et réalités.


Les articles toujours plus spectaculaires sur les progrès des technologies informatiques et leurs réalisations pratiques par l’économie numérique génèrent auprès du grand public presque autant d’angoisse que d’enthousiasme. C’est le cas des multiples annonces d’une prochaine « super-Intelligence Artificielle » dépassant définitivement celle de l’humain, remettant alors en question le leadership de ce dernier, voire son autorité sur la destinée de son espèce. La « Singularité Technologique » est l’expression consacrée pour nommer le moment de bascule après lequel notre humanité n’aurait plus le choix d’un retour arrière et se condamnerait définitivement à une délégation de sa gouvernance aux ordinateurs.

Cet article dédramatise ce débat en relativisant l’intelligence des robots en l’état actuel de ses développements. Comprendre en évitant l’écueil du sensationnalisme est une condition nécessaire pour une approche vigilante et responsable des questions éthiques que nous pose ce domaine de recherche désormais récupéré par les marchés.

 

Définition de l’Intelligence Artificielle et ambiguïté de l’expression

La Commission d’Enrichissement de la Langue Française définit l’intelligence artificielle comme « Champ interdisciplinaire théorique et pratique qui a pour objet la compréhension de mécanismes de la cognition et de la réflexion, et leur imitation par un dispositif matériel et logiciel, à des fins d’assistance ou de substitution à des activités humaines [1].

L’origine essentiellement anglo-saxonne de l’expression « intelligence artificielle » est multiple :

  • On la lie assez souvent au Test de Turing publié en 1950, la première tentative de mesurer la « capacité de penser d’une machine ».
  • Minsky, McCarthy, Newell, Simon, Shannon et quelques autres chercheurs associent l’intelligence à l’adjectif artificiel lors de la Conférence de Dartmouth en 1956 [2].
  • Parallèlement, plusieurs nouvelles d’Asimov font référence à l’intelligence de robots dont le contrôle échappe à leurs concepteurs.

Au-delà de sa seule dimension Informatique, l’IA, ce domaine de la recherche cognitive, héritier de la cybernétique, s’intéresse également aux réseaux neuronaux et à la logique mathématique. Elle est au cœur de la « Convergence des NBIC ». Passée dans le langage usuel, la référence à un domaine de recherche a quasi disparu, l’expression ‘intelligence artificielle » faisant d’abord référence aux nombreuses applications pratiques dont les médias se font régulièrement l’écho.

Le résultat le plus connu de la conférence de Dartmouth (citée plus haut) reste celui de la consécration elle-même de l’expression « intelligence artificielle » qui remplace désormais dans les médias l’ancestrale Cybernétique. Il est important d’insister sur la polysémie du terme « intelligence » pour les Anglo-saxons :

  • Il a le sens de renseignements ou d’interprétation de l’information (comme dans le célèbre acronyme CIA, pour « Central Intelligence Agency »).
  • Il porte aussi celui que nous lui donnons en français, c.-à-d. la capacité de comprendre, d’interpréter un environnement et de s’y adapter. Mais, pour cette dimension particulière, un Anglo-saxon utilise plutôt le mot « cleverness ».
  • Les Anglo-saxons font donc moins de place que nous aux arrières-débats sur la pertinence de l’association du substantif « intelligence » à l’adjectif « artificielle ».

Des mythes à la réalité

Le terme d’Intelligence artificielle est-il aujourd’hui usurpé ?

Dans les années qui ont suivi la création de l’expression, la tendance des recherches a été de prolonger l’analogie entre le fonctionnement des automates et celui d’un cerveau humain. Ainsi dès 1957, Frank Rosenblatt proposera son Perceptron, un algorithme d’apprentissage présenté comme « simulant les fonctions neuronales » : le fonctionnement des automates s’appuiera dorénavant sur un « réseau de neurones ». Cette analogie est toujours celle utilisée par les concepteurs de l’apprentissage automatique — « Machine Learning » — et l’apprentissage approfondi — « Deep Learning » —. C’est cette évolution qui a relancé spectaculairement l’intérêt et les phantasmes du marché pour l’IA, après un demi-siècle de quasi-indifférence dans les grands médias.
Revenons sur quatre étapes qui ont relancé l’intérêt du marché et du grand public :

Le pari perdu sur la suprématie japonaise

La mise sur le marché des microprocesseurs en 1971 et la démocratisation des ordinateurs personnels qui a suivi auront entretenu quelques espoirs intermédiaires relatifs à cette discipline de recherche. Des années 1980 à 1995, le Japon, leader incontesté des jeux électroniques, était présenté comme le centre d’activité d’où devaient jaillir les nouvelles prouesses de l’IA, en s’appuyant sur la capacité d’interconnecter des serveurs et autres petits ordinateurs.
Mais toutes les conditions technologiques n’étaient pas encore réunies pour pérenniser la domination japonaise sur le marché numérique.

DeepBlue versus Kasparov

En 1997, DeepBlue, le supercalculateur IBM dédié au jeu d’échecs, bat Gary Kasparov, champion du monde pendant 15 ans. Battre le grand champion d’un jeu réservé aux grosses têtes, c’est les battre toutes. La suprématie autodéclarée de l’intelligence humaine est dès lors sérieusement bousculée.

Mais la stratégie du jeu d’échecs se fonde sur un nombre limité de règles strictement définies et non sujettes à remise en cause en cours de partie. Toute partie a une fin qui désigne un vainqueur ou constate un match nul. La victoire dépend de la capacité des joueurs à anticiper et à orienter le jeu vers une des configurations répertoriées comme menant inexorablement à la victoire.

Comme l’ensemble des coups possibles ne peut être analysé [3], DeepBlue s’appuie sur l’analyse d’une mémoire phénoménale qui a enregistré des milliers de positions gagnantes avec 7 voire huit coups d’anticipation. Mais à quel point la seule capacité technologique d’analyser systématiquement une masse de combinaisons, aussi phénoménale qu’elle soit, constitue-t-elle la démonstration d’une intelligence ?
Comme le constatait à l’époque Isaac Getz dans le journal Libération [4] : « DeepBlue n’invente rien. L’ordinateur ne formule pas d’hypothèses, il n’est pas capable d’apprendre de ses propres erreurs. Si la machine a su s’adapter au cours des matchs, c’est parce que ses concepteurs l’ont dopée avec un logiciel d’ajustement, qui permettait de la modifier par rapport aux fautes qu’elle avait commises face à Kasparov. […] Le match qui serait autrement plus intéressant serait celui où Kasparov s’allierait à un DeepBlue contre un autre DeepBlue ». L’inventivité de l’homme doublée de la puissance de calcul de la machine, voilà la voie du futur.

Dr. Watson plays Jeopardy

Consciente des réserves levées sur DeepBlue, IBM encore a créé DeepQA, plus connu en tant que « Dr Watson« , un système de gestion d’une base de données considérable pour le jeu télévisé de questions-réponses  Jeopardy. Ce jeu oppose 3 candidats. Une phrase indice leur est proposée [5]. Ils doivent rapidement formuler une question dont la réponse pourrait être cet indice. Les deux premières manches sont basées sur la rapidité. Chaque proposition correcte rapporte une somme d’argent, somme que les joueurs miseront dans la troisième manche.

En 2011, Dr Watson battait avec une facilité déconcertante les plus grands champions de Jeopardy. Pour un informaticien, cette victoire est, plus convaincante que celle de DeepBlue : il fallait être capable de contourner les subtilités d’un langage naturel, avec ses jeux de mots et ses ambiguïtés.

Mais, là encore, moins que de subtilité, il s’agit de capacité brute à traiter un contenu équivalent à un million de livres par seconde. Les algorithmes mis en œuvre ne permettent pas pour autant à Dr Watson de tenir une conversation courante en anglais.

AlphaGo versus Lee Sedol

En 2014, Google achète l’entreprise britannique DeepMind, une spécialiste des stratégies de jeux. Deux ans plus tard, leurs algorithmes permettront de battre Lee Sedol, 18 fois champion mondial du jeu de go.

La stratégie qui avait été utilisée par DeepBlue pour battre Kasparov aux échecs n’est pas adaptée au jeu de go, tant le nombre de combinaisons possibles est énorme [6]. Le mathématicien Irving John Good écrivait déjà en 1964 : « Pour programmer  un ordinateur jouant de manière raisonnable [comme par exemple au jeu de go, (Ndla)] — et non simplement en respectant les règles — il est nécessaire de formaliser les principes d’une bonne stratégie, ou de développer un système capable d’apprentissage. Ces principes sont plus qualitatifs et mystérieux qu’aux échecs, et dépendent plus de jugements intuitifs [7]».
La suite lui a donné raison. La performance a été rendue possible par le développement des algorithmes d’Apprentissage Approfondi [8]. Ils associent à l’approche des systèmes experts des techniques d’analyse statistique et ils étendent les approches d’apprentissage automatique précédentes.

Les énormes capacités de calcul que ces algorithmes requièrent ont été rendues disponibles par l’exceptionnelle conjonction de plusieurs facteurs technologiques et économiques :

  • Le décollage de la courbe exponentielle de la puissance des microprocesseurs ;
  • Le développement de l’Internet qui a facilité les échanges de connaissances et la constitution d’énormes bases de données ;
  • La capacité de stockage des données et les algorithmes de gestion Big Data ;
  • Les progrès des architectures techniques à traitements parallèles ;
  • La globalisation de la demande du marché du numérique qui a soutenu une réduction des coûts de production de ces ressources.

En démontrant au grand public l’efficacité de l’apprentissage approfondi, la victoire d’AlphaGo a fait date dans l’histoire de l’Intelligence Artificielle et les médias attribuent dorénavant aux Robots une part d’intuition, voire de créativité.
Mais l’anthropomorphisme entraîne là encore, une interprétation abusive de la réalité des qualités cognitives des supercalculateurs.

  • Ces derniers sont toujours conçus, paramétrés et sous l’autorité des humains.
  • AlphaGo a mis en pratique le « saut hégélien » selon lequel « une accumulation quantitative produit un changement qualitatif ». Ainsi, même si AlphaGo n’a pas les qualités de créativité ou d’intuition, en termes de résultat, le bénéfice de son énorme capacité de calcul compense voire dépasse ce déficit.

Que les performances des supercalculateurs dépassent celles de l’esprit humain devrait au moins nous rappeler à plus de modestie. Un cheval est plus fort et plus rapide que nous ; un oiseau peut voler et pas nous ; les chimpanzés réussissent en laboratoire certains exercices d’attention et de mémoire mieux que nous… Pourquoi alors ne pas « avoir l’intelligence » d’oublier notre égo et d’admettre que l’efficacité d’une machine, pour certains problèmes, relativise les capacités cognitives de notre espèce?  Nous réaliserons alors qu’entraîner nos enfants au calcul mental n’a pas pour objectif de lutter contre les calculettes, mais que cet apprentissage participe du développement de leurs capacités intellectuelles. Nous nous rappellerons aussi que le jeu d’échecs fascine et passionne toujours et encore.
Luc Julia propose avec pertinence de garder l’acronyme d’IA, mais de remplacer sa traduction Intelligence Artificielle par celle d’Intelligence Augmentée, qui associe alors l’homme et son outil informatique [9]. Ce serait une façon simple de réduire la confusion sémantique initiale.

La singularité technologique, le nouveau nom du golem

En 1965, Irving John Good décrivait le scénario suivant [10] : « Mettons qu’une machine supra-intelligente soit une machine capable dans tous les domaines d’activités intellectuelles de grandement surpasser un humain, aussi brillant soit-il. Comme la conception de telles machines est l’une de ces activités intellectuelles, une machine supra-intelligente pourrait concevoir des machines encore meilleures ; il y aurait alors sans conteste une “explosion d’intelligence”, et l’intelligence humaine serait très vite dépassée. Ainsi, l’invention de la première machine supra-intelligente est la dernière invention que l’Homme ait besoin de réaliser. »

La paternité de l’expression Singularité Technologique est attribuée à l’Américain Vernor Vinge, mathématicien [11], professeur d’informatique à l’Université de San Diego et aussi auteur de science-fiction. Dans son essai « Technological Singularity [12]» publié en 1993, Vernor Vinge prévoyait l’avènement avant 2030 d’une super-intelligence artificielle mettant fin à l’ère de la domination humaine.
Vinge n’a fait que renommer le golem, cet être artificiel fait d’argile de la tradition juive, dépourvu de parole et de libre arbitre, façonné pour assister et défendre son créateur. On se rappelle aussi le Frankenstein du roman de Mary Shelley. Quand l’homme s’improvise dieu et fabrique une créature qui lui échappe, doit-il se résoudre à la détruire ?

Depuis 2015, le concept de singularité technologique s’impose au cœur des questions sociétales, politiques et philosophiques que soulèvent les développements de l’intelligence artificielle. L’hypothèse même d’une singularité technologique divise assez brutalement la grande communauté du numérique. Les médias se font régulièrement les échos de ces échauffourées.
Parmi les « singularistes », on retrouve des scientifiques tels Stephen Hawking, Max Tegmark (cosmologiste au MIT) ou Stuart Russell (chercheur en IA et informaticien), mais aussi des entrepreneurs comme Elon Musk (Tesla, SpaceX…), Bill Gates (le créateur de Microsoft a depuis beaucoup nuancé ses déclarations), ou encore Raymond Kurzweil (directeur de l’ingénierie chez Google.
Si leur argument commun est le dépassement de l’humain par les technologies grâce, en particulier, à l’apprentissage approfondi, leurs intentions diffèrent considérablement [13] :

  • Stephen Hawking déclarait en 2014 au micro de la BBC « Je pense que le développement d’une intelligence artificielle complète pourrait mettre fin à l’humanité. Une fois que les hommes l’auraient développée, celle-ci décollerait seule et se redéfinirait de plus en plus vite. Les humains, limités par une lente évolution biologique, ne pourraient pas rivaliser et seraient dépassés». Cette alerte est celle d’un humaniste désintéressé.
  • Mais quand Elon Musk affiche sa crainte de la singularité technologique, c’est pour proposer une solution cauchemardesque de greffe neuronale : « Cette solution ambitieuse serait, pour résumer, des électrodes facilement injectables qui forment un réseau neuronal ; ensemble, ils interprètent tous les deux et stimulent l’activité électrique dans le cerveau, fusionnant éventuellement avec l’organe lui-même » [14]. « L’augmentation de l’humain » comme réponse pour préserver sa domination sur les robots…
  • Et quand Raymond Kurzweil nous alerte à son tour sur les risques de la technologie, son arrière-pensée n’est même pas masquée : rassurons-nous, c’est Google (son employeur) qui nous fournira les solutions de contournements.

Le débat s’organise autour de deux singularités technologiques de natures très différentes :

  • La délégation implicite de nos systèmes de décision aux machines est un risque. Les Systèmes Informatiques se rendent chaque jour plus indispensables sans que nous soyons toujours en mesure d’anticiper et de contrôler les conséquences de ces changements sur notre société et sur nos comportements individuels  [15].
  • Liés aux NBIC, les fantasmes transhumanistes ou post-humanistes, sous la forme hybride d’un eugénisme génétique mâtiné d’Informatiqueimaginent déjà la modification de l’espèce humaine, voire son éclatement en plusieurs sous-branches.

Conclusion provisoire

Pour Woody Allen, l’intelligence artificielle est « le double contraire de la bêtise naturelle ». S’agissant de l’IA, les exagérations, les communications extravagantes quand ce n’est pas les manipulations outrancières ne manquent pourtant pas de bêtise naturelle. Mais prenons le parti de les ignorer.

Le détail du fonctionnement de l’intelligence humaine est encore trop peu connu. L’intelligence artificielle est un concept qui surfe encore sur une analogie approximative au cerveau humain pour désigner une part croissante des activités automatisées autrefois du domaine réservé de notre intelligence.

Ne disposant pas des éléments matériels pour accepter ou exclure définitivement la pertinence des scénarios des singularistes,  efforçons-nous de résister aux diverses tentations millénaristes. L’IA en est encore à ses balbutiements et le jour de la grande bascule n’est pas pour un avenir rapproché. Mais le concept de singularité et son principe de non-retour ont ceci de bon qu’ils nous aident à formaliser nos préoccupations éthiques.

Maîtriser la délégation créative ou décisionnelle aux machines

Sans en avoir toujours eu conscience, nous avons déjà vécu « plusieurs singularités ».
Après que l’informatique a « libéré » des cohortes d’ouvriers et d’employés du tertiaire de leurs tâches répétitives, saurions-nous aujourd’hui faire machine arrière ? Saurions-nous nous passer de nos smartphones, de nos réseaux sociaux, de l’Internet ? N’avons-nous pas déjà délégué une partie significative de notre sécurité physique à l’intelligence artificielle embarquée sur notre mobilier urbain, dans nos voitures, nos avions ou nos équipements médicaux ? Et qui envisagerait sérieusement de revenir aux seuls contrôles manuels d’hier ?

La question est plutôt aujourd’hui de développer la proactivité dans nos modèles de gouvernance majoritairement réactifs. Alors :

  • Quand un service délègue une décision à un automate, exigeons par exemple que les algorithmes soient rendus publics et puissent être audités par des parties externes à l’organisation qui propose ce service.
  • L’information immédiate et obligatoire des utilisateurs comme le renforcement de leur éducation continue restent des contributions évidentes et efficaces pour reprendre le contrôle démocratique de la part de notre autorité déléguée implicitement aux machines.

Définir nos priorités

Avant de décider de son utilisation, est-ce que je confronte toujours ce qu’un nouveau service numérique m’apporte aux contreparties à payer en retour ?
Lors de chacun de nos arbitrages, insistons plus particulièrement pour intégrer la question de l’impact écologique de notre choix. Abordée sous cet angle, une solution numérique n’est jamais gratuite or cette dimension est toujours négligée, sinon masquée à dessein.

Ainsi, rappelons-nous que la consommation énergétique d’un cerveau humain, qu’il soit ou pas celui d’un génie, est estimée à 20 watts/h quand celle d’AlphaGo est de l’ordre de 60 000 fois plus [16].

____________________________________

Notes et commentaires

[1] On peut aussi faire référence à la définition de Marvin L Minsky : « [l’Intelligence Artificielle est] une discipline scientifique dont l’objectif est « la construction de programmes informatiques pour réaliser des tâches qui sont encore accomplies d’une façon plus satisfaisante par des êtres humains, car elles requièrent des processus mentaux de haut niveau comme l’apprentissage perceptuel, l’organisation mémorielle et le raisonnement critique ».

[2]  John Mc Carthy fixait ainsi ses ambitions à l’ouverture de la conférence historique de Dartmouth en 1956 :  « Je propose que pendant 2 mois, 10 hommes travaillant sur l’Intelligence artificielle collaborent pendant l’été de 1956 à l’université Dartmouth à Hanover, New Hampshire. Les travaux sur les processus de l’apprentissage comme sur les autres facultés qui caractérise l’intelligence préciseront toutes les étapes automatisables réalisables par une machine. On tâchera d’identifier la possibilité pour un automate de mettre en œuvre le langage, de formaliser les abstractions et les concepts et de résoudre des problèmes aujourd’hui affectés aux humains. Nous espérons des avancées majeures pour une ou plusieurs de ces dimensions, si un groupe de scientifiques soigneusement sélectionnés s’y consacrent ensemble pendant cette période ». La durée de l’exercice et les verbes utilisés suffisaient à limiter l’ambition initiale du groupe constitué. On notera l’attention déjà portée à l’apprentissage. On retiendra aussi la référence au terme générique « intelligence » associé aux tâches affectées aux humains.

[3] Si une partie d’échecs est une succession finie de coups, avec 64 cases, leur nombre d’alternatives plausibles à chaque tour est incroyablement élevé : 10431 suivi de 43 zéros au milieu du jeu. Le nombre de positions plausibles varie jusqu’à 1050. DeepBlue était annoncé capable d’analyser 200 millions de positions par seconde.

[4] Libération du 13 mai 1997, article de Dominique LEGLU avec l’aide d’Isaac Getz, docteur en psychologie, auteur de « l’Expertise cognitive aux échecs ».

[5]  Exemple d’indice : «Ce n’est pas en référence à un personnage de roman policier anglais, qu’IBM a décidé de nommer ainsi un de ses plus puissants ordinateurs ». Réponse : Dr Watson (Thomas J Watson, président historique d’IBM) ».
Pour information, en anglais, jeopardy veut dire péril, menace.

[6] Estimé entre 10172 et 10762 selon les chiffres retenus par Luc Julia, dans son livre « L’intelligence artificielle n’existe pas », page 134.

[7]  Cité par Wikipédia, voir l’article  https://fr.wikipedia.org/wiki/Match_AlphaGo_-_Lee_Sedol.

[8] Aussi connus sous leur nom anglais, de « Deep Learning« , voire de « deep structured learning » ou « hierarchical learning« .

[9] Voir « L’intelligence artificielle n’existe pas », déjà cité. Cette proposition de traduction marcherait aussi pour les Anglo-saxons : AI pour « Augmented Intelligence ».

[10] Cité par Wikipedia, voir l’article https://fr.wikipedia.org/wiki/Singularité_technologique.

[11] La Singularité Technologique est parfois appelée « Singularité Vingienne », en référence à Vernor Vinge.

[12] Le sens déroutant donné ici à « singularité » trouve son origine dans son utilisation en mathématique où ce terme désigne un cas particulier pour lequel un objet mathématique n’est pas définissable, voire subit une transition. Pour exemple, dans la fonction inverse f(x) = 1/x, la valeur 0 est une singularité  car :
– La valeur 0 n’appartient pas à l’ensemble des possibles;
– Quand x < 0 et x tend vers 01/x tend vers -∞;
– Quand x > 0 et x tend vers 0, 1/x tend vers +∞.

[13] On pourra lire à ce sujet le livre acide de J-G Ganascia « Le mythe de la Singularité – Faut-il craindre l’intelligence artificielle ? », Seuil, « Sciences ouvertes », 2017.

[14] Publié par Aurone.com, Jeudi 06/07/2017 – 17:11 Publié dans Intelligence Artificielle.

[15] Lire à ce sujet le livre «Weapons of Math Destruction » de Cathy O’Neil, Broadways Books, 2017.

[16] La consommation d’un « AlphaGo-Lee » est annoncée à environ 10 000 TDP/h (pour « Thermal Design Power », en français « Enveloppe Thermique »). Un TDP est équivalent à environ 120 watts/h.

____________________________________

L’auteur de cet article est Jacques Cassagnabère

Sa version initiale a été publiée le 25 mai 2019.

Avec l’accord de l’auteur, l’article publié intègre les modifications proposées par la commission éditoriale du site Adnethique.org

____________________________________

 

Sidebar