Generic selectors
Correspondance stricte
Recherche dans le titre
Recherche dans le contenu
Post Type Selectors
Filtre par catégorie
ADNEthique
Algorithmique
Asso Référentiel
Association
Bibliographie
Domaines abordés
Données personnelles
Economie numérique
Emploi
IA
IA Etat de l'art
IA Risques
Informatique
Marché
Usages du numérique

Des commandements, ou plutôt du devoir d’éthique face à l’intelligence artificielle

La révolution numérique est en marche et s’accélère : algorithmes, robots, applications de toutes sortes, et pas toujours visibles, sont à l’œuvre et investissent notre quotidien ; (logiciel APB, SMART PHONE, montres connectées, commandes vocales SIRI en sont quelques exemples). Au Japon, près de 1000 robots sont déjà dans les familles ; le robot Paro sert par exemple à stimuler les patients atteints de la maladie d’Alzheimer.
L’Intelligence Artificielle, discipline scientifique cherchant des méthodes de résolution de problèmes à forte complexité logique ou Algorithmique désigne, par extension, des dispositifs imitant ou remplaçant l’humain dans certaines de ses fonctions cognitives. La nouvelle classe d’algorithmes d’auto-apprentissage approfondi — en anglais « deep learning » — permet à leur système d’améliorer ses performances. Ses prouesses ne cessent d’alimenter les imaginaires depuis qu’AlphaGo a battu le multiple champion du monde, le Coréen Lee Sedol.

Les limites de l’intelligence artificielle

Cependant, pour nombre de chercheurs, le pari d’une IA surpassant l’intelligence humaine relève du fantasme. Pour Laurence DHERVILLERS, auteur du livre « des Robots et des Hommes», chercheuse en apprentissage machine et modélisation des émotions, l’intelligence humaine est bien plus complexe. Elle regroupe « l’ensemble des fonctions mentales mobilisées pour l’étude, la compréhension et l’organisation du réel en concepts, la capacité à utiliser le raisonnement causal, l’imagination, la prospective, l’habilité à percevoir et à exprimer les émotions, à les intégrer, à raisonner avec elles et à les réguler chez soi et chez les autres; il y a aussi cette notion de conscience, fruit d’un ensemble d’expériences caractérisant le vécu ou le ressenti d’un sujet associé à des sentiments ou des sensations. L’homme peut par exemple se révolter contre lui-même par la conscience de soi, la pensée».

La notion de désir, dont Spinoza a fait «l’essence même de l’homme», l’ironie, l’autodérision, l’humour, l’empathie, la curiosité, le bon sens, l’intelligence émotionnelle, sont autant d’éléments qui singularisent cette intelligence. De plus, dans un environnement incertain, l’homme a cette capacité à œuvrer avec l’irrationnel et à le transformer. Par conséquent, l’humain met en œuvre«un potentiel différent de celui de la machine». Les robots ne sont pas des créatures sensibles, mais le fruit d’une création technique basé sur les choix d’ingénieurs ; AlphaGo, vainqueur de Lee Sedol au jeu de go, ignore par exemple, ce qu’est l’émotion de jouer, de gagner ou de perdre. De même, derrière une production artistique par l’IA, aussi réussie soit-elle, il n’y aura jamais ni intention ni intuition créative tel qu’on les associe à une œuvre humaine.

Les risques immédiats de l’intrusion des robots

Pour Laurence Dhervillers, le concept de Singularité Technologique n’est que science-fiction. Elle choisit plutôt nous alerter aujourd’hui sur les réels dangers de notre impréparation à interagir dans un futur proche avec ces machines qui vont partager notre intimité. Elle anticipe les conséquences d’un anthropomorphisme et un risque potentiel si l’humain en vient à préférer le confort des interactions avec des robots formatés à celles avec d’autres humains autrement moins prévisibles.
Dans le même esprit, le roboticien japonais Masahiko MORY dans «la Vallée dérangeante» questionne notre seuil d’acceptabilité pour des robots humanoïdes, car, selon lui, « plus un robot est similaire à un être humain, plus ses imperfections nous paraitront monstrueuses ».

Les algorithmes d’apprentissage approfondi enrichissent l’expérience des automates en interaction avec nos propres comportements. Alors, devenus leurs sparring-partners, nous partageons avec leur concepteur la responsabilité de leurs comportements acquis.
Qui plus est, la masse colossale des informations recueillies par ces robots omniprésents dans notre quotidien pourra être récupérée à notre insu, empiétant sur notre espace privée en même temps qu’elles reformatent nos fonctionnements sociaux. N’est-ce pas un modèle que nous fait déjà pressentir la surveillance accrue sur le web et via nos téléphones portables ?

Une responsabilité humaine et partagée

Pour citer Nora BOUDEJEMA, chercheur à l’INRIA, responsable de la plateforme scientifique TransAlgo destinée à tester et à évaluer la nature des algorithmes, «ce ne sont pas les algorithmes qui nous gouvernent, les algorithmes n’ont pas de responsabilité juridique, morale ou politique; ce sont les humains qui les utilisent, les déploient, les conçoivent et les entrainent qui en ont».

La chercheuse souligne, par ailleurs, les dangers inhérents à la « boite noire des algorithmes », cette part d’ombre qui fait peser une réelle menace sur nos libertés individuelles, sur nos droits civiques, voire sur la souveraineté des États.

Certes, la Loi pour une République numérique [1] se préoccupe des droits du citoyen passant par la mise en œuvre stricte du RGPD quant à la numérisation des services publics. Si l’adoption récente par l’UE de règles visant à garantir la sécurité des données constitue de premiers garde-fous, reste néanmoins à contrôler la pertinence et la neutralité des algorithmes. Pour Alain BENSOUSSAN, auteur du livre «le droit des robots», il y aura à terme une demande légitime de sécurité, par les acteurs économiques et les utilisateurs, auquel le droit devra répondre. La confiance qu’ils inspirent et la transparence des règles qui les sous-tendent seront deux clés de la sérénité du déploiement des algorithmes.

L’éthique comme condition d’une révolution numérique pacifiée

Les cycles de décision de nos systèmes de gouvernance ou législatifs sont lents quand chaque jour annonce un nouveau service numérique innovant ou une nouvelle prouesse technique pratiquement prometteuse.

Aussi passionnants que soient les futurologues qui redécouvrent le mythe du Golem [2], l’urgence est plutôt d’imaginer un cadre démocratique pour répondre, voire se préparer aux cycles toujours plus rapides des évolutions du numérique. En 2017, la CNIL a organisé un grand débat national qui a permis d’identifier 6 grandes problématiques éthiques liées au développement des algorithmes et de l’IA [3] :

  • Le risque de la déresponsabilisation face à des machines capables de prise de décision ;
  • Les risques d’exclusion volontaire ou involontaire avec l’arrivée des logiciels apprenants, introduisant des biais et des incertitudes dans leurs prédictions ;
  • Les risques d’enfermement algorithmiques avec la personnalisation de l’offre ;
  • Les risques sur les libertés individuelles avec la collecte et l’informatisation grandissante de nos données personnelles ;
  • les risques liés à notre confiance excessive dans la logique implacable des machines nous faisant oublier l’attitude critique qu’impose pourtant une sélection à dessein des données alimentant l’algorithme  d’IA (questions relatives à la qualité, la quantité et la pertinence de cette sélection initiale avant d’extrapoler la réponse d’une IA);
  • Les risques liés aux interactions personnes-machines dans les usages.

Un comité scientifique réunissant près de 160 pays auquel participe Laurence Dhervillers a aussi mis en place un groupe de travail sur les valeurs morales des machines. Cette initiative mondiale a permis de souligner les risques sur les comportements d’addiction, d’isolement et de manipulation liés aux interactions avec un robot.

En France l’Office Parlementaire d’Évaluation des Choix Scientifiques et Technologiques s’est saisi de la question ; le rapport Villani sur l’IA consacre un volet conséquent à l’importance de l’éthique dans ce domaine avec des recommandations à l’appui. Les points au cœur de la stratégie en intelligence artificielle pour la France lancée en 2017 sont :

  • Éviter les peurs et les fantasmes ;
  • Anticiper l’arrivée des robots ;
  • Enseigner la robotique à l’école ;
  • Prévoir le changement dans le monde du travail.

La réflexion éthique s’impose à tous les niveaux de la société. Chercheurs, concepteurs, sociologues, juristes, utilisateurs sont tous invités à définir ces règles et veiller à ce qu’une régulation internationale voit le jour. Il est de notre devoir commun de comprendre de façon claire et lucide ces enjeux et d’accompagner ces changements sociétaux devenus inéluctables.

Désamorcer les craintes est la première condition pour une réflexion lucide sur notre avenir commun pour préserver notre nature humaine, son pouvoir d’autonomie, dans le respect de l’autre et de notre environnement.

Pouvons-nous encore définir et partager une grille de valeurs pour mieux analyser, réagir et organiser l’intégration des nouveaux services que le numérique nous promet ?

Notes et commentaires :
[1] La loi pour une République numérique (abrégée en loi numérique) est une loi française initialement proposée par la secrétaire d’État au numérique Axelle Lemaire et promulguée le 7 octobre 2016. Voir l’article Wikipédia  » Loi pour une République numérique« .

[2] Le Golem est être artificiel de la mythologie juive. Fait d’argile, incapable de parole et dépourvu de libre arbitre, façonné pour assister et défendre son créateur, le Golem échappe cependant à ce dernier qui doit alors se résoudre à le détruire.

[3] Lire à ce sujet le rapport de la CNIL remis le 15 décembre 2017, « Comment permettre à l’Homme de garder la main ? Rapport sur les enjeux éthiques des algorithmes et de l’intelligence artificielle »

____________________________________

L’auteure de cet article est Marie-Annick Leroy

Sa version initiale a été publiée le 22 mai 2019

Avec l’accord de l’auteure, l’article publié intègre les modifications proposées par la commission éditoriale du site Adnethique.org

____________________________________

 

 

Sidebar