accueil > articles > Intelligence artificielle : nettoyer nos représentations pour ouvrir le débat sur l’éthique

Intelligence artificielle : nettoyer nos représentations pour ouvrir le débat sur l’éthique

Le récent rapport présenté par le député Cédric Villani a confirmé la nécessité de subordonner toute question liée à l’intelligence artificielle (IA) à des principes éthiques forts. Pour Mathieu Guillermin, enseignant-chercheur en éthique à l’Université Catholique de Lyon, s’il faut développer une IA éthique, il est également nécessaire de se défaire de quelques fantasmagories à son propos. C’est seulement alors qu’il sera possible de s’approprier pleinement les possibilités les plus positives de cette intelligence pas comme les autres. Entretien.

De quoi parle-t-on réellement lorsqu’on évoque l’intelligence artificielle ?

Avec la transformation numérique, on parle de plus en plus d’intelligence artificielle. La transformation numérique que nous vivons est en effet consubstantielle du développement exponentiel d’un domaine particulier des techniques d’IA : l’apprentissage automatique (« machine learning »)L’édition 2013 du concours international de traitement d’images par intelligence artificielle, ImageNet, a été charnière. Une des équipes participantes a écrasé  ses concurrents en faisant appel aux techniques d’apprentissage profond (« deep learning »). L’année suivante, ils s’y mettaient tous. Toutefois, le concept d’apprentissage machine, tout comme la notion d’IA ne sont pas nouveaux. L’idée de l’apprentissage machine date des années 80. La notion d’IA remonte quant à elle au milieu du 20ème siècle, avec les travaux de pionniers comme Alan Turing, John McCarthy, Marvin L. Minsky, Nathaniel Rochester ou Claude E. Shannon. En 1968, Marvin Minsky propose une définition toujours d’actualité :

« L’intelligence artificielle est la science de faire faire à des machines des choses qui demanderaient de l‘intelligence si elles étaient faites par des humains ».

Sur la base de cette proposition, on peut distinguer les notions d’ “IA faible” et d’ “IA forte”. Une IA faible est extrêmement spécialisée. Elle est performante pour reproduire seulement certaines tâches spécifiques dont on reconnaît qu’elles demande de l’intelligence lorsqu’elle sont faites par des humains. En ce sens, une calculatrice effectuant « 2+2 = 4 » reproduit une tâche qui demande (un peu) d’intelligence à un humain, et pourrait être vue comme une proto IA (ou une IA très très peu intelligente). A contrario, une IA forte égalerait l’humain dans toutes les tâches cognitives qu’il est capable d’assurer. Elle pourrait notamment, et ce serait un bon marqueur, passer le fameux “test de Turing” (se rendre indistinguable d’un humain lors d’une conversation par écran interposé avec des humains). Notons que les approches de Turing et Minsky contournent des questions extrêmement épineuses : comment définir l’intelligence ? Être intelligent suppose-t-il forcément d’être conscient ?

L’intelligence artificielle pourrait-elle alors être consciente ?

De manière spéculative, rien n’interdit d’envisager une possible conscience de l’IA. D’ailleurs, il n’est pas déraisonnable de penser que, pour parvenir à créer une IA forte, nous devrions réussir à créer une conscience artificielle, un être artificiel doté des mêmes capacités que nous à percevoir et à comprendre son environnement et à s’y adapter. Mais qu’est-ce que la conscience ? Serons-nous capable d’élaborer un système artificiel doté de conscience ? Quel est le lien entre conscience et intelligence chez l’homme ? Comment faudrait-il traiter un système artificiel conscient ? Autant de questions passionnantes, mais dont les réponses nous échappent largement.

Néanmoins, la question de la comparaison (voire de la compétition) entre l’IA et l’intelligence humaine (avec son enracinement dans la conscience) soulève, à mon sens, un défi éthique très important et plutôt sous-estimé. Les enjeux éthiques soulevés par l’IA aujourd’hui sont pressants, mais ne concernent que l’IA faible (le seul type d’IA qui existe effectivement). Malheureusement, les question liées à l’IA forte ont tendance à occulter ces problèmes plus pressants. Si on confond IA forte et IA faible, on est très rapidement happé par les thématiques transhumanistes, les questions autour de la  singularité technologique ou pire, par des fantasmagories de type Terminator qui nous projetterait dans une ère post-humaine plus ou moins apocalyptique. Or, il n’y a pas de raison de penser que les techniques actuelles d’IA engendrent des entités conscientes (des IA fortes)

Même si nous arrivons aujourd’hui à des résultats très pointus, comme transformerun échantillon de voix ou une image en un fichier (par exemple un fichier texte) décrivant son contenu grâce à des techniques d’apprentissage machine, l’intelligence artificielle produite n’est que faible. Rien ne laisse penser que de la conscience artificielle est créée. Il faut toujours garder à l’esprit que l’IA actuelle est produite par des algorithmes (des programmes) qui exécutent (mécaniquement) ce pourquoi il ont été configuré par l’homme. Ce n’est pas parce que les intelligences artificielles pourront demain conduire des voitures qu’elles seront conscientes. Siri ou Cortana ne passent pas le test de Turing.  Ces questions, notamment éthiques, liées à l’IA forte ou consciente se poseront peut-être dans le futur, mais ne sont pas d’actualité. Trop nous focaliser dessus, mal comprendre ou mal dire ce que sont réellement les techniques actuelles d’IA, risque de nous détourner des enjeux éthiques les plus pressants.

Prenons par exemple le cas des deux IAs qui ont créé leur propre algorithme de cryptage. La qualité de notre représentation de la situation est un enjeu éthique en soi. Si nous n’avons pas les idées claires sur le fait que les IA actuelles ne sont que des IAs faibles, on commencera à penser que cette expérience nous place à l’aube de la création d’IA qui pourrait vouloir nous détruire. Pourtant, dans cette expérience de Google Brain, les systèmes artificiels ne font que ce qu’on leur a demandé : communiquer un message sans être espionnés par une troisième IA. Autant la perspective d’un futur Skynet paraît peu plausible, autant on pourrait vouloir anticiper les effets que l’application de l’IA à des problèmes de cryptographie pourrait engendrer sur nos équilibres géopolitiques et économiques actuels.

On peut aussi mentionner le cas des armes autonomes. Dans une ambiance IA forte, on peut vouloir commencer à parler d’IA ou de robots tueurs (voire de robots meurtriers) … De là à voir revenir la thématique “skynet” sur le devant de la scène, il n’y a qu’un pas. Pourtant les armes autonomes létales actuelles restent des IAs faibles, exécutant un programme informatique plus ou moins bien construit leur permettant de détecter un ennemi et éventuellement d’ouvrir le feu. Bien avant le risque skynet, d’autres questions éthiques devraient attirer notre attention. Elon Musk et 115 autres signataires ont même écrit une lettre ouverte aux Nations Unies pour demander leur interdiction, pointant les risques de mauvais usages et le danger d’une déstabilisation des équilibres géostratégiques (la course à l’arme autonome pouvant même, selon eux, conduire à des conflits armés à grande échelle). Une autre question éthique me paraît se poser de manière urgente :

« est-il acceptable d’automatiser intégralement la décision de tuer une personne ? ».

Tuer sans que personne n’appuie effectivement sur la gâchette n’est-il pas profondément déshumanisant ? N’est-il pas souhaitable qu’une personne puisse être affectée par cette décision ?Puisse même éventuellement en souffrir ? Et en cas de bavure, qui doit porter la responsabilité ? Les codeurs qui ont conçu le programme ? Les distributeurs des armes autonomes ? L’État ? Quelle quantité de responsabilité pour chacun ? L’intelligence artificielle est toujours le fruit d’un travail collaboratif.

Y aurait-il donc de l’humain partout dans l’intelligence artificielle ?

Oui, de bout en bout ! Lorsque l’on dit IA, on doit toujours entendre “résultat du travail d’humains qui écrivent des programmes, les combinent avec des programmes écrits par d’autres avant eux …” Même dans le cas de l’apprentissage machine, c’est l’humain qui écrit une architecture algorithmique dont certains paramètres peuvent varier. Il écrit ensuite un autre programme qui va tester des jeux de paramètres afin d’atteindre l’objectif défini par les humains (par exemple à travers de grandes bases d’apprentissage, comme des couples images – fichiers textes décrivant l’image). Rien ne garantit donc qu’un code est fiable et dépourvu de problèmes éthiques. L’humain peut introduire des erreurs, des biais ou des discriminations dans les codes qu’il écrit. Les biais potentiellement présents dans les bases d’apprentissage se retrouveront dans les architectures algorithmiques paramétrées par apprentissage automatique. Ces biais peuvent même être amplifiés.

En dehors de tout fantasme, quelles sont aujourd’hui les risques réels de dérive de l’utilisation de l’intelligence artificielle ?

Premier exemple : aux États-Unis, de l’IA a été introduite pour soutenir l’activité judiciaire. En s’appuyant sur de grands ensembles de données sociologiques, judiciaires ou pénitentiaires, etc., des algorithmes ont été conçus pour prédire le risque de récidive d’un criminel et pour suggérer aux juges des montants de caution, des durées de peine ou de période probatoire à appliquer. Si l’algorithme peut être plus neutre que le juge dans certains cas (pas de changement d’humeur, pas de fatigue, etc …), rien ne garantit qu’ils soient immunisé à d’autres problèmes … On peut notamment s’interroger sur les biais préexistant dans les données sociologiques et surtout judiciaires ou pénitentiaires aux Etats-Unis (et ailleurs). Le risque est donc grand de voir ce type d’algorithmes propager ou amplifier des discriminations sociales préexistantes. On doit donc bien se garder de surestimer la neutralité de ces outils.

Autre exemple : l’utilisation de l’intelligence artificielle au sein de ce qu’on nomme les technologies de la persuasion, tant au niveau commercial qu’au niveau politique. Dans le marketing, mieux cibler son audience en lui proposant directement ce qui est susceptible de l’intéresser peut être enrichissant. Même dans le domaine politique, ces technologies peuvent être utiles si elles permettent de mieux cerner les points à mettre en débat pour animer la vie démocratique collective. Néanmoins, les problèmes arrivent vite dès que ces outils sont employés pour manipuler les personnes. Appliquées au domaine politique, ces perspectives technologiques sont particulièrement inquiétantes. En témoigne le récent scandale Cambridge Analytica. Avec les réseaux sociaux et les grands ensembles de données collectées, il devient possible de manipuler de vastes franges de l’opinion publique à l’aide d’outils visant à prédire l’impact de telle ou telle (fausse) nouvelle. Comment va-t-elle être reçue par les utilisateurs et utilisatrices présentant tel ou tel profil … Comment la nouvelle sera-t-elle mise en avant (ou non) dans les expériences personnalisées des utilisateurs des réseaux sociaux et des moteurs de recherche (on peut ainsi tenter de booster la viralité de la nouvelle). Il serait dangereux, dans cette affaire, de ne se focaliser que sur la question de la collecte plus ou moins légale (et consentie) des données sur les utilisateurs. Même avec une collecte légale, les possibilités de nuisance sur nos vies démocratiques de tels outils de manipulation de masse demeurent vertigineuses …

Il est vraiment déplorable que les premières applications qui sortent de ce type de possibilités technologiques soient aussi négatives. Le domaine est pourtant, à mon avis, lourd d’opportunités fantastiques pour enrichir nos vies démocratiques, pour faire remonter plus d’informations plus vite aux gouvernants, pour mieux s’organiser, débattre et construire de l’intelligence collective. J’espère que cette affaire n’entraînera pas un simple rejet massif, mais qu’au contraire, nous saisirons l’opportunité pour nous demander comment ces nouvelles technologies pourraient être développées et exploitées pour le bien commun …

Les données collectées pourraient-elles devenir un bien commun ?

Je l’espère, au moins pour une part des données collectées. A l’heure actuelle, on s’insurge surtout sur la collecte et l’usage qui sont fait des données personnelles que nous semons derrière nous à chaque visite d’un site web, d’un réseau social ou à chaque requête sur un moteur de recherche. Certains se plaignent parfois d’être « spammés » ou qu’on leur vole des données personnelles. C’est un sujet très important du point de vue éthique. Néanmoins, il convient de rappeler que ce type de collecte vient souvent avec un modèle économique basé sur la “gratuité” des services et produits proposés. Si le service est gratuit, c’est qu’un bénéfice est produit autrement, en particulier via le traitement et le commerce des données personnelles pour le marketing ciblé. Plus de transparence et d’explication à ce niveau serait souhaitable. Et nous pourrions alors nous demander : suis-je prêt à payer pour tel ou tel service ? Ce service est-il vraiment utile ? Vaut-il ce qu’il me coûte (directement ou indirectement) ?

Pourtant, les données collectées, même quand ce ne sont pas des données personnelles (c’est-à-dire des données associées à des informations identifiantes), ont aussi de nombreux autres usages possibles. On a déjà parlé des technologies de la persuasion. Il est aussi important de mentionner le rôle des grands ensembles de données qui abreuvent notre écosystème big data dans l’élaboration des IAs, à travers les techniques d’apprentissage automatique. Un extrait de conversation, une photo partagée (parfois accompagnée d’une description de son contenu), l’indication que je suis triste devant telle photo, etc. Tout cela constitue ensuite des bases d’exemples qui peuvent servir à élaborer de nouvelles intelligences artificielles capables d’assurer de nouvelles tâches ou de résoudre de nouveaux problèmes. Ce mouvement est d’ailleurs, d’un certain point de vue, absolument magnifique : un tissu numérique planétaire au sein duquel l’humanité rassemble, de manière collective, les éléments nécessaires à l’élaboration d’outils IAs de plus en plus performants. Même Teilhard de Chardin n’aurait peut-être pas osé en rêver. Par contre, si l’on adopte une lecture plus socio-économique, d’autres débats importants émergent : qui bénéficiera des apports de ces IAs, alors que tous contribuent à les élaborer ? Seulement, les entreprises propriétaires, les grands acteurs du big data ? Que deviendra une personne dont le travail peut-être automatisé par ce genre d’IA ? La notion de bien commun pourrait nous aider dans ce contexte … On devrait repenser la question du chômage ou l’idée du revenu universel (dans ses différentes formes) à la lumière de ce nouveau contexte socio-technologique.

Comment voyez-vous la législation à venir sur les données personnelles ?

Le RGPD opère plusieurs basculements intéressants. Un des plus frappant : le renversement de la charge de la preuve. Avant, c’était au client de prouver que son consentement n’était pas éclairé (de prouver, par exemple que les conditions générales de vente et d’utilisation étaient floues ou peu lisibles). Avec l’entrée en vigueur du RGPD, ce sera au pourvoyeur de service de démontrer que le consentement était bien éclairé. Cette législation remet un peu d’ordre dans le Far West qu’était devenu le marché de la donnée : les conditions générales de vente et d’utilisation ont positivement évolué avec l’approche de l’entrée en vigueur du RGPD ! Un autre point important prévu par ce règlement est la possibilité d’« opt in, opt out » : plus on approche du 25 mai, plus l’utilisateur trouve des explications claires sur les cookies. Le paramétrage est de plus en plus simple et modulable. L’utilisateur peut choisir les données qu’il accepte de partager (avec une information lisible les services assurés ou non en retour). Cette amélioration de l’information et de la liberté de choix est cruciale. La collecte de données pour le marketing ciblé serait par exemple beaucoup mieux encadrée si les modèles économiques sous-jacents étaient explicités. Nous sommes en tout cas à un moment charnière et le RGPD est un vrai pas vers un numérique plus responsable et éthique.

Est-il plus facile pour une start-up d’être éthique ?

Je crois beaucoup aux petits acteurs qui sensibilisent de larges pans de la population. Les start-ups bénéficient d’un contact privilégié avec les utilisateurs finaux. Si ces derniers formulent une demande plus éthique, elles pourront faire caisse de résonnance. Même si elles ont moins de moyens que les grands groupes, elles peuvent encourager une prise de conscience à taille plus humaine. Agir en réseau à un niveau très local me semble une condition indispensable pour l’émergence d’une réelle demande éthique (avec des clients et des citoyens exigeants, prêts à faire des efforts pour faire avancer les choses dans le bons sens). Face à une telle demande éthique, des autres entreprises privilégiant uniquement la performance économique au détriment de la valeur éthique gagneraient de moins en moins de parts de marché. Grâce à leur flexibilité et leur dynamisme, les startups pourraient ainsi constituer un trait d’union de grande valeur entre utilisateurs finaux, grands groupes et le monde scientifique. A l’image d’ailleurs de Rocket Labs que j’ai découvert lorsque Boris Petrovitch, le fondateur, a sollicité Thierry Magnin (recteur de l’Université Catholique de Lyon et directeur de mon groupe de recherche en philosophie et éthique des sciences et technologies) pour réfléchir aux initiatives à créer afin de contribuer à une ébullition théorique et pratique autour des questions d’éthiques.

Comment s’est passée cette rencontre avec Rocket Labs ?

Boris avait l’idée de se regrouper autour d’un Manifeste de l’éthique du numérique. Appuyé sur un réseau d’acteurs du numériques, nous avons alors commencé à discuter avec la Digital League pour créer une dynamique transdisciplinaire : une structure de réflexion et d’action rassemblant ceux qui font le numérique, ceux qui l’utilisent et des acteurs universitaires comme moi-même, afin de faire évoluer les nouvelles technologies numériques vers plus d’éthique, plus d’humain. Ce projet est toujours en construction et nous souhaitons y fédérer encore plus d’acteurs.

Le transdisciplinaire favorise-t-il l’éthique dans les avancées de l’intelligence artificielle ?

Absolument. Mettre en contact l’agilité technique de structures comme Rocket Labs, la puissance plus traditionnelle d’entreprises de plus grande taille, les réflexions des experts et des chercheurs, et la force vive des citoyennes et citoyens ouvre un bel espace pour la démarche éthique sur les nouvelles technologies numériques. En tant que chercheur, ce type de projet me permet d’être dans une perspective de « recherche-action », et dans une dynamique plus rapide. Favoriser le transdisciplinaire et l’expérience humaine permet d’aller vers une performance globale qui intègre la dimension éthique au lieu de se seulement focaliser sur la rentabilité et la fiabilité.

À propos

Rocket Labs

Laboratoire d’innovation numérique dédié à l’expérience client.

Contact

Boris Petrovitch Njegosh

CEO et fondateur

À lire aussi

Voir plus
 
Centres de « contact » hors sol, scripts robotisés ou chatbots sans saveur : dernier maillon de la relation client, SAV ou service client laissent souvent un goût amer dans la bouche. Jonathan Lefèvre, ancien ...
 
La Rocket Team a défini sa trajectoire pour 2019 et au-delà : devenir le premier réseau indépendant de la transformation numérique en France. Une plateforme agile pour lutter contre toutes les rigidités. Première mise en ...
 
Derrière les beaux discours et les levées de fonds record, la French Tech est-elle vraiment en phase de décollage ou proche de l’implosion en vol ? Réponses sans concession d’Eric Burdier, PDG-fondateur de l’accélérateur de ...