OUPS...
Ce site n'est malheureusement pas adapté à une exploration en format portrait, mais vous pouvez passer en format paysage !
Relation Forme / Fonction
Du fait de leur complète immatérialité, les concepteurs d’IA cherchent souvent à leur “ donner corps ” dans un but de communication, que ce soit à travers des interfaces utilisateurs séduisantes ou des visuels de robots intelligents. Si ces matérialisations nous permettent d’interagir plus directement avec ces technologies au fonctionnement de plus en plus complexe, il est important de chercher à comprendre dans chaque cas d’utilisation la fonction que sert le système d’IA intégré.
Relation Fournisseurs / Usagers
Grâce à leur capacité d’analyse et de prédiction, les technologies d’IA commencent à être de plus en plus intégrées en tant que composants de systèmes d’information plus vastes, si bien que nous serons certainement dans le futur exposés à de tels systèmes sans même le savoir. Dans ce contexte, le respect de notre liberté et de nos droits d’usagers pourrait nécessiter d’expliciter clairement le traitement qui est fait de nos données et si celui-ci est assisté de telles technologies.
Effet Réseau & Représentation
Le fonctionnement technique des IA et devenue quasiment incompréhensible pour un public non expert, qu’il s’agisse des réseaux de neurones utilisés pour l’apprentissage en deep learning ou de la façon dont ces technologies s’intègrent à des systèmes d’informations plus vastes. Il est important de rester critique face aux représentations parfois simplistes qui en sont faites, qui servent une volonté pédagogique mais masquent la complexité réelle de ces systèmes.
Gouvernance & Éthique (ARTICLE)
Le développement exponentiel des recherches autour des technologies d’IA semble être inévitable, mais l’implémentation de ces technologies dans notre quotidien soulève de nombreuses questions éthiques, en particulier alors que leurs capacités prédictives deviennent de plus en plus performantes. Les concepteurs de ces technologies et le corps politique ne sont peut être pas aptes à les réguler seuls, rendant nécessaire notre implication dans ces questions en tant que futurs usagers.
ARTICLE
Intelligence artificielle
Outil d’asservissement
ou d’assistance libératrice ?
Juin 2019
En 2014, Amazon met en place un programme informatique secret visant à utiliser une intelligence artificielle (IA) dans ses processus de recrutement. Le programme en question est chargé d’examiner et de classer les curriculum vitae des candidats, en attribuant à chacun une note allant d’une à cinq étoiles. Le service des ressources humaines d’Amazon peut alors s’appuyer sur ce classement réalisé par le système pour choisir les meilleurs candidats et les embaucher. Au bout d’un an d’utilisation, l’entreprise se rend compte d’un problème majeur : le système note les candidats de manière sexiste pour un grand nombre d’offres d’emplois, sous-notant les profils féminins à compétences égales et les excluant donc d’une embauche potentielle. Après avoir tenté de modifier le programme à plusieurs reprises et alors que l’existence de ce dernier commence à être connue, Amazon finit par révéler en 2017 son arrêt complet.

L’intelligence artificielle semble en ce début de 21ème siècle être la promesse technologique suscitant le plus de débats, et ses critiques ainsi que ses défenseurs s’accordent pour beaucoup à dire qu’il pourrait s’agir de “ l’enjeu du siècle ” en terme de développement technologique, pour reprendre le titre du livre que le philosophe Éric Sadin a dédié à cette technologie. Le sujet est devenu si omniprésent dans la presse et les débats publics qu’il est difficile de ne pas en avoir entendu parler, à défaut de savoir précisément de quoi il s’agit. L’état français s’est saisi de la question en 2017 en confiant à Cédric Villani, mathématicien lauréat de la médaille Fields depuis devenu député de la majorité, un rapport ministériel autour de cette question. En Mars 2018, ce document intitulé “ Donner un sens à l’intelligence artificielle ” la présente comme une des priorités majeures en termes de développement technologique, et c’est sur cette base que la ministre de la recherche Frédérique Vidal et le secrétaire d'Etat au numérique Mounir Mahjoubi détaillent fin 2018 comment l'Etat français va consacrer 665 millions d'euros à la recherche dans cette discipline d'ici 2022.

Devant l’ampleur du phénomène il sera bien sûr impossible de mener ici une étude exhaustive du sujet. Mais alors que les fantasmes et les attentes autour de ces nouvelles technologies et de leurs potentiels domaines d’applications ne cessent d’augmenter et que de nombreuses entreprises émergent ou restructurent leurs activités autour d’elles, il me semble essentiel d’aller au delà du phénomène médiatique pour étudier les ambitions et les potentiels de révolution de ces technologies. Dans cet article, je chercherai donc à porter une réflexion sur la façon dont nous envisagerons d’intégrer ou non les intelligences artificielles dans notre environnement dans le futur, à l’image de l’emblématique système de recrutement d’Amazon. Jusqu’à quel point leur expansion nous sera t-elle bénéfique ? Et comment devons nous envisager de programmer et de réguler ces “ intelligences algorithmiques ” ?
“ L'Intelligence artificielle ou l'enjeu du siècle ” (couverture) , Éric Sadin, L'Échappée, 2018
LES FONDAMENTAUX
Qu’est ce que l’intelligence artificielle ?
En 1947, le mathématicien Norbert Wiener fonde le mouvement moderne de la  cybernétique. Son but était alors d’unifier les domaines naissants de l'automatique, de l'électronique et de la théorie mathématique de l'information, pour créer une “ théorie entière de la commande et de la communication ”. Sa volonté première était d’unir les scientifiques de ces domaines à travers le monde pour voir comment les recherches techniques qui avaient menées quelques années auparavant au bombardement d’Hiroshima et de Nagasaki pourraient permettre dans le futur des effets bénéfiques pour l’humanité. Si l’ampleur de cette ambition rendait les limites du mouvement cybernétique assez floues, l’un de ses projets était de concevoir des systèmes techniques copiant le cerveau humain, aujourd’hui souvent cité en exemple et étudié par les chercheurs contemporains de l’intelligence artificielle.
Le concept d’intelligence artificielle en lui même est souvent attribué au mathématicien John McCarthy, même si on le retrouve dans d’autres travaux, comme ceux du pionnier de l’informatique Alan Turing. En 1956, alors que McCarthy travaille au MIT, il préside la conférence de Dartmouth qui rassemble d’autres pionniers du domaine pour beaucoup issus du mouvement cybernétique. Pendant cette conférence, il dira alors que “ chaque aspect de l’apprentissage ou toute autre caractéristique de l’intelligence peut en principe être décrit avec une précision telle qu’une machine peut être conçue pour la simuler ”. La volonté du groupe de chercheurs est donc “ de trouver un moyen de faire en sorte que les machines utilisent le langage, forment des abstractions et des concepts, résolvent des types de problèmes actuellement réservés aux humains et puissent s’auto-améliorer ”. Cette phrase fonde toujours aujourd’hui l’ambition des chercheurs en IA de concevoir des algorithmes (suites d’opérations ou d'instructions programmées sur ordinateur pour obtenir un résultat précis) capables de résoudre des problèmes de plus en plus complexes.
Où en est-on aujourd'hui ?
Avec l’ampleur de la médiatisation que connaît l’intelligence artificielle depuis quelques années, de nombreux fantasmes se sont développés autour d’elle. Le plus commun est l’idée qu’on puisse rendre une machine “ intelligente ” au point de lui conférer une volonté, une conscience et des émotions, ce qui est loin d’être le cas aujourd’hui et pourrait bien ne jamais l’être : la notion d’intelligence algorithmique est davantage philosophique que technique et dépend de la façon dont nous définissons notre propre intelligence… Il est par ailleurs important de distinguer les systèmes d’intelligence artificielle, purement informatiques et donc immatériels, des robots qu’ils peuvent faire fonctionner. Ces derniers ont en effet souvent été utilisés pour “ donner corps ” à l’intelligence artificielle dans un but de communication, mais ils ne représentent qu’une petite partie des applications potentielles de ces technologies.
Il est aussi essentiel de comprendre que le terme d’intelligence artificielle est aujourd’hui avant tout utilisé à des fins de marketing, mais désigne le plus souvent des algorithmes d’analyse statistique et/ou structurelle, c’est à dire capable de reconnaître les composants d’un système et la façon dont ils interagissent. Quand ces algorithmes ont été perfectionné pour pouvoir extrapoler des résultats et faire des prédictions sur les évolutions à venir de leurs sujets d’éudes, ces “ algorithmes prédictifs ” sont devenus des “ intelligences artificielles ”, terme sans doute plus “ tendance ” et donc plus vendeur… Il y a donc encore un fossé énorme entre l’ambition de McCarthy de simuler l’intelligence humaine, voir à terme en s’auto-améliorant de la surpasser, et les systèmes qu’on trouve aujourd’hui sur le marché de l’intelligence artificielle, encore très limités mais surtout reposant toujours sur une grande quantité de travail humain, comme vous le verrez dans la suite de l’article.
Pour la suite de l’article, on utilisera donc les termes “ intelligence artificielle ” ou “ IA ” par convention de langage et pour faire court, mais il serait plus juste au vu de l’avancée de la recherche actuelle de parler “ d’algorithmes d’analyse statistique et / ou structurelle, pouvant parfois être prédictifs ” !
Qu’est ce que le machine learning ?
Pour comprendre les enjeux des IA, en particulier en termes d’éthique, il est important de comprendre dans les grandes lignes les différentes méthodes d’apprentissage permettant de les programmer et de les faire progresser.
La grande majorité des recherches actuelles en IA reposent sur le principe du machine learning (ou apprentissage automatique en français). Ce domaine de recherche vise à rendre un algorithme de plus en plus précis et performant grâce à un apprentissage basé sur un grand nombre d’exemples qui lui sont soumis. Pour comprendre l’évolution des ces technologies d’apprentissage automatique, je m’arrêterai sur plusieurs exemples d’IA emblématiques issues du domaine du jeu.
Le 11 Mai 1997 est l’une des dates les plus symboliques du développement moderne des IA : Garry Kasparov, alors champion du monde d’échec, est vaincu par Deep Blue, un “ super calculateur ” développé par IBM. Grâce à ses 256 processeurs, les concepteurs de Deep Blue ont pu y enregistrer des millions de parties d’échec passées. A chaque fois qu’il doit jouer, Deep Blue analyse donc simplement sa base de données, et calcule par avance 200 millions de coups par seconde pour déterminer en fonction de la situation le meilleur coup possible parmi tous ceux qu’il a en mémoire. Le machine learning de Deep Blue n’est donc pas très “ subtil ”, la machine dispose d’une puissance de calcul telle qu’elle peut passer en revue un très grand nombre d’exemples et anticiper les prochains coups possibles de son adversaire. En revanche, l’IA Deep Blue n’est pas évolutive : elle s’appuie sur une base de données pré-établie, mais ne s’enrichit pas au cours du temps pour devenir plus rapide ou précise.
Qu’est ce que le deep learning ?
Le deep learning est un sous-domaine du machine learning, une nouvelle méthode d’apprentissage algorithmiques très répandue depuis quelques années. Le principe du Deep Learning est toujours de soumettre un grand nombre d’exemples à une IA, mais d’en plus lui permettre d’apprendre de son expérience et de ses erreurs pour discriminer ces exemples entre eux et en déduire des logiques d’organisation. Son développement était une nécessité dans un contexte où les chercheurs en IA commençaient à vouloir les utiliser pour des problèmes de plus en plus complexes.
En Mars 2016, Lee Sedol, un des meilleurs joueurs mondiaux du jeu de Go est à son tour vaincu par Alpha Go, une intelligence artificielle développée par une filiale de Google, fonctionnant sur le principe du Deep Learning. Dans ce cas l’algorithme doit faire face à un problème plus complexe que Deep Blue : si le plateau d’échec ne comprend que 64 positions, le jeu de Go en comprend 361, démultipliant donc très rapidement le nombre de situations à estimer par l’IA au cours de la partie, et donc la puissance de calcul qu’il faudrait pour fonctionner de la même façon qu’auparavant. Par ailleurs, contrairement aux pions d’échecs, les pierres de Go ont toutes la même “ valeur ”, rendant beaucoup plus subtile l’évaluation de la force d’un coup donné, comme l’explique plus en détail le vidéaste ScienceEtonnante dans une vidéo à ce sujet. Alpha Go se basait donc sur un grand nombre de parties stockées dans sa mémoire, mais apprenait aussi au fur et à mesure qu’il jouait pour déterminer les coups et stratégies les plus gagnants dans une situation donnée et pouvoir s’améliorer dans le futur.
Qu’est ce qu’un réseau de neurones ?
Un réseau de neurone (artificiel) est une logique mathématique utilisée pour l’apprentissage en deep learning, inspiré du fonctionnement de nos neurones biologiques. Nos neurones sont des cellules interconnectées, qui reçoivent des signaux électriques de certains neurones avec lesquelles elles sont connectées puis selon les cas renvoient ou non un signal vers d’autre neurones, et ainsi de suite. Un neurone artificiel imite donc ce principe : son programmeur lui soumet des variables et en fonction de la façon dont il est programmé il détermine s’il doit ou non renvoyer ces variables vers d’autres neurones, avec lesquels il s’organise en réseau, jusqu’à aboutir à un résultat ou à une prédiction finale. L’enjeu de ce réseau est de faire évoluer pas à pas la programmation des différents neurones afin d’aboutir à un résultat final de plus en plus juste et précis, comme l’explique plus en détail le vidéaste ScienceEtonnante dans une autre vidéo à ce sujet. En d’autres termes, le programmeur de l’IA ne lui apprend plus à jouer aux échecs, mais il la programme pour qu’elle puisse apprendre seule comment y jouer...
Du 11 au 31 janvier 2017, quatre des meilleurs joueurs de poker mondiaux disputent un tournoi en équipe contre Libratus, une IA développée par des chercheurs de l’Université de Carnegie Mellon de Pittsburgh. Seulement, contrairement à Deep Blue et Alpha Go, Libratus n’avait aucune partie enregistrée en mémoire au début du tournoi… Grâce à la durée suffisamment conséquente du tournoi, l’IA qui ne connaissait au départ que les règles du poker, a pu tester de manière imprévisible différentes façons de jouer pour déterminer celles qui s’avéraient les plus payantes. Pendant la nuit, elle analysait ensuite les parties jouées dans la journée pour améliorer sa façon de jouer et éliminer les failles de sa stratégie que les équipes humaines avaient pu découvrir, en faisant évoluer au fil du tournoi son réseau de neurones. Les chercheurs ont par exemple pu observer que l’IA s’est peu à peu mise à faire émerger le bluff dans sa façon de jouer, augmentant parfois ses mises alors qu’elle avait un mauvais jeu, ou les minimisant à l’inverse alors qu’elle avait un bon jeu… Grâce à ce fonctionnement, les 4 joueurs humains se sont vite fait surpasser, l’écart de jetons entre l’IA et eux ne faisant qu’augmenter par la suite.
1/5
Que révèlent ces “ intelligences ” algorithmiques sur notre propre intelligence humaine ?
L’élément primordial dans la programmation des IA est donc comme je l’ai expliqué ci-dessus la base d’exemple à partir de laquelle le système est entraîné. En revanche, la capacité de ces systèmes à s’entraîner de manière autonome ne fait pas consensus. Ainsi, dans une édition de son émission radio “ La suite dans les idées ” (France Culture) intitulée “ Une très artificielle intelligence artificielle ”, le journaliste Sylvain Bourmeau dialoguait à ce sujet avec le sociologue Antonio Casilli. Ce dernier y nuancait fortement l’idée de l’algorithme autonome dans son apprentissage et capable de s’auto-améliorer, le rôle du travail humain dans cet apprentissage étant selon lui encore très fort, bien que consciemment ou inconsciemment “ invisibilisé ” dans les discours qui vantent ces nouveaux systèmes technologiques. Il rappelait alors que les bases d’exemples nécessitent aujourd’hui un très grand volume de données, qui doivent être nettoyées et qualifiées avant de pouvoir être utilisées, tâches encore réalisées en grande partie par des travailleurs humains. Il prenait notamment l’exemple des tests “ Re-captcha ”, utilisés par de nombreux sites internet pour vérifier qu’un internaute est bien un humain, par exemple lorsqu’il doit remplir un formulaire important. L’un des plus répandus est celui créé par Google dans lequel l’internaute doit indiquer quelles images correspondent à un objet donné, comme un pont, un sandwich, un magasin… Sachant que ce genre de test peut justement servir à Google pour qualifier des images en vue de l'entraînement de futurs IA de reconnaissance d’image ! Ce travail numérique humain est en tout cas un phénomène en pleine expansion, et le sociologue rappelle que selon certaines estimations, ce sont plus de 5 millions de personnes dans le monde, surtout dans les pays en voie de développement, qui passent leurs journées à qualifier des images, des sons ou des vidéos pour constituer ces bases d’exemples. Des plateformes dédiées à ces nouveaux modes de travail émergent d’ailleurs, à l’image de “ Mechanical Turk ”, plateforme en ligne lancée par Amazon en 2015, qui regroupe des propositions de tâches de travail réalisables en quelques minutes pour quelques dizaines de centimes de dollars. Les IA, systèmes d’analyse “ automatisés ”, ne le sont donc pour l’instant pas tant que ça, et restent imprégnées d’intelligence humaine…
Tests Re-captcha, Google, 2017
De ce fait, il est alors intéressant de se pencher sur le type “ d’intelligence ” des IA, pour se rendre compte à quel point celle ci diffère encore de la nôtre, dont elle veut pourtant s’inspirer depuis le début du mouvement de la cybernétique moderne dans les années 1950. Réda Benkirane, sociologue suisse, a mené pendant plusieurs années une série d’entretiens autour du thème de la complexité, regroupés dans son recueil “ La complexité, vertiges et promesses : 18 histoires de sciences ”. Plusieurs de ces entretiens concernent des chercheurs de référence du domaine de l’IA, parmi lesquels Neil Gershenfeld, physicien et informaticien au MIT très renommé à travers le monde. Il y évoque les limitations de l’IA en expliquant “ que ce qui n’a pas marché dans l’étude de l’intelligence artificielle, est que l’ordinateur reste aveugle, sourd et muet au monde. Il n’a pas l’expérience vivante et concrète d’un enfant de deux ans ! Songez à votre manière de vivre, à la façon dont vous utilisez vos sens et votre expérience pour extraire la signification du monde qui vous entoure ! ”. Ce concept est repris par plusieurs spécialistes du domaine et désigne ce que les chercheurs appellent le “ sens commun ”, à savoir l’ensemble des mécanismes et des codes inconscients par lesquels nous interagissons avec le monde qui nous entoure : ce qui est évident pour nous ne l’est pas pour l’IA… Laurent Alexandre, l’un des essayistes français les plus médiatisés autour du sujet résumait efficacement le fonctionnement des IA contemporaines dans une interview sur la chaîne Youtube Thinkerview, expliquant qu’elles “ ressemblent beaucoup à des autistes de type Asperger, c’est à dire capable d'apprendre par coeur le bottin, capable de jouer aux échecs merveilleusement, capable de faire des calculs de tête et de retrouver les 10.000 premières décimales de Pi en quelques secondes mais incapables de faire un café ”. En d’autres termes, leur “ intelligence ” peut certes être très poussée, mais elle reste aujourd'hui extrêmement spécialisée. Ce manque de transversalité, de multidisciplinarité, est aujourd’hui la principale limitation de ces systèmes.

Du fait qu’elles soient entraînées sur des exemples définis par nous mais sans posséder le même sens commun que nous, les dérives de fonctionnement des IA s’expliquent alors très bien… Pour mettre en évidence ce phénomène, une équipe de chercheurs du MIT a cherché à développer une intelligence artificielle “ psychopathe ”, en utilisant pour l'entraîner uniquement des images issues d’un groupe de discussions du site Reddit dédié à la mort. Cette IA, baptisée Norman, en l’honneur du personnage de Norman Bates du film Psychose d’Alfred Hitchcock, a ensuite passé le test psychiatrique de Rorschach, qui consiste à présenter au patient des taches d’encre symétriques en lui demandant de décrire ce qu’il voit. Les chercheurs ont aussi fait passer le même test à une IA identique, mais entraînée quant à elle avec des images plus “ neutres ” de personnes et d’animaux. Le résultat est prévisible : là où l’IA neutre décrit “ deux personnes, l’une à côté de l’autre ”, Norman “ voit ” plutôt “ Un homme sautant d’une fenêtre à l’étage ”. Cet exemple rappelle une autre IA emblématique nommée Tay, lancée en 2016 sur Twitter par Microsoft Technology and Research et Bing. Alors que Tay devait simplement apprendre des posts des différents internautes pour devenir de plus en plus “ intelligente ”, de nombreux utilisateurs de Twitter se sont amusés à tester ses limites en lui soumettant des messages racistes, négationnistes et conspirationnistes. Au bout de 8 heures et de 96.000 tweets les tweets de l’IA au départ amicaux et un peu niais étaient devenus racistes, négationnistes et conspirationnistes, contraignant ses créateurs à la désactiver.
Extraits des perceptions de Norman, Pinar Yanardag, Manuel Cebrian et Iyad Rahwan, MIT Media Lab, 2018
Si ces deux cas sont révélateurs du fait que la qualité et la quantité des exemples avec lesquels on entraîne une IA comptent, ils restent malgré tout un peu simplistes et caricaturaux : il semble assez normal qu’un système apprenant d’exemples biaisés finisse par lui aussi développer les même types de biais. Mais qu’en est il dans le cas plus complexe d’Amazon, où l’IA avait été entraînée à partir des CV reçus par le groupe sur une période de dix ans et l’analyse qui en avait été faite par les équipes chargées du recrutement ? La logique reste la même, mais les biais sont ici plus subtils... Le premier élément de réponse est le fait que la majorité de ces CVs étaient en effet des CVs d’hommes, car destinés à des postes de développeur ou d’autres postes techniques, pour lesquels on observe encore aujourd’hui une forte prédominance masculine. En étudiant ces CVs, le système en est donc venu à déduire que les candidats masculins pour ces postes étaient préférables. Mais un autre phénomène plus inquiétant qui est intervenu est celui du tri des CVs par les équipes de recrutement, qui appliquaient, de manière consciente ou non, une légère discrimination des profils féminins, peut être justement jugés moins adaptés à ces postes techniques. Cette discrimination sociétale non ressentie à l’époque n’a fait qu’être amplifiée par l’IA de recrutement, qui a en quelque sorte agit comme un révélateur des biais humains, en l'occurrence de biais sexistes. Car si les équipes d’Amazon compensaient ces biais, probablement inconsciemment, en embauchant malgré tout des femmes, l’IA n’avait elle pas en tête cette valeur morale, ce “ sens commun ” la poussant à chercher à équilibrer les embauches. Sachant que nous sommes incapables de lister l’ensemble des critères, biais et influences nous poussant à prendre une décision ou à agir d’une certaine façon, les IA comme celles d’Amazon ne font pour l’instant que mettre en évidence et amplifier ces différents facteurs et biais, alors qu’ironiquement l’entreprise espérait qu’elle puissent être plus “ impartiale ” que ses équipes humaines…
Dilbert, Scott Adams, 2019
2/5
Pourquoi les IA se développent elles de plus en plus dans les entreprises ?
Alors que les Etats-Unis et la Chine ont déjà fait de l’IA l’un de leurs champs de recherches scientifiques prioritaires, certaines estimations parlant de plus d’un milliard de Yuans d’investissements de l’état chinois par an (soit plus de 125 millions d’euros), la France et les autres pays européens sont à un moment charnière face au développement de ces technologies. L’Etat français a lui aussi choisi en 2018 d’en faire une priorité de recherche comme évoqué en introduction, et plusieurs discours récents de politiques et de journalistes rappellent à quel point nous sommes “ en retard ” sur le sujet. Laurent Alexandre va jusqu’à affirmer dans l'interview évoquée plus haut que “ La guerre du 21ème siècle se fera entre IA ” et qu’il est donc inévitable et essentiel de se lancer à grande vitesse dans ce champ de recherche. En réponse à cette vision, le philosophe Éric Sadin pose cependant une question intéressante dans une interview sur la chaîne Youtube Thinkerview : “ Sur quel modèle de société sommes-nous en retard ? ”. Ouvertement technophobe en ce qui concerne les IA, il critique cette “ doxa de l’inéluctable ”, dans laquelle la société se retrouve “ dessaisie de sa capacité à décider de ses orientations ”.

Le développement de telles technologies et leur intégration dans notre vie de tous les jours est en effet loin d’être anodin, et le fait qu’une entreprise comme Amazon s’y intéresse d’aussi près depuis plusieurs années est très révélateur. Dans son excellent documentaire “ L'irrésistible ascension d'Amazon ”, le réalisateur britannique David Carr-Brown explique comment l’entreprise fondée en 1974 a au fil des années imposé ses propres règles sur le commerce, la logistique et l’emploi. Il estime par exemple qu’il faut en moyenne moins de 15 minutes à Amazon pour traiter une commande une fois passée par un client, et parfois moins d’une journée pour la livrer. Ces délais sont permis par un fonctionnement extrêmement automatisé technologiquement, mais qui se fait au dépit des intérêts des travailleurs humains de l’entreprise. Celle-ci a par exemple inventé en 2015 le “ Flex work ”, soit un mode de travail à la demande, payé à la tâche et permettant à l’entreprise de limiter ses coûts et d’améliorer ses délais de livraison. Concrètement, Amazon propose aux travailleurs en question un statut d’intermittent, sans couverture chômage ou maladie, selon lequel un travailleur accepte une tournée de livraison et est payé uniquement pour celle ci, tandis que l’assurance de son véhicule et ses frais d’essence restent à sa charge ! Ces travailleurs utilisent une application dédiée dans laquelle il faut être le plus rapide à accepter une livraison, puis la récupèrent dans l’entrepôt Amazon correspondant. Dans ces entrepôts, les travailleurs sont d’ailleurs eux aussi supervisés par des systèmes technologiques automatisés, qui leur indiquent quels produits récupérer et mettre en colis, permettant d’atteindre ce qu’Éric Sadin appelle le “ tournant injonctif de la technique ”, dans lequel les systèmes d’IA incitent leurs utilisateurs à agir d’une certaine manière, selon les cas de façon “ incitative, impérative, prescriptive ou coercitive ”. L’utilisation par Amazon de systèmes d’IA dans ses processus de recrutement n’est donc que la suite logique de ces systèmes de supervision des entrepôts et de l’ensemble des travailleurs qui y sont rattachés, outils essentiels de la domination de l’entreprise dans le domaine du commerce électronique.
Entrepôt Amazon de Peterborough, communication interne, 2013
À ce niveau, la question de l’impact de ces systèmes sur l’emploi et le travail se pose évidemment… Les études économiques et sociologiques à ce sujet sont nombreuses, mais on ne trouve étonnamment pas de réel consensus de réponse, même si plusieurs tendances émergent. La première est évidemment l’idée bien connue de l’homme remplacé par la machine, phénomène devenue aujourd’hui incontestable et qui semble au moins en partie inévitable. Des études récentes permettent de se pencher sur les conséquences réelles et contemporaines de cette automatisation du travail humain... Dans une étude datant de fin 2014, le cabinet de conseil Roland Berger s’intéressait par exemple aux métiers susceptibles d’être automatisés, estimant que 42% de l’ensemble des emplois français pourraient l’être d’ici 2024. Une autre étude datant de 2013, réalisée par Carl Benedikt Frey et Michael Osborne, estimait ce chiffre à 47% aux Etats-Unis, également à relativement court terme. À terme, l’IA pourrait-elle comme le supposait en 2014 le célèbre cosmologiste Stephen Hawking “ sonner le glas de la race humaine* ” ?… Selon lui, les humains, et donc les travailleurs, seraient “ limités par une lente évolution biologique, ne pourraient pas rivaliser et seraient remplacés* ”.

David Autor, professeur d'économie au Massachusetts Institute of Technology (MIT), complexifie pourtant cette question dans une très intéressante conférence TED intitulée “ Will automation take away all our jobs ? ” (l’automatisation supprimera-t-elle tous nos emplois ?). Il y prend l’exemple du milieu agricole, très touché par l’automatisation, et il explique que de nombreux emplois ont aussi été créés en terme de services et produits technologiques associés à cette automatisation, créant de nouveaux besoins. Cependant, il montre aussi que cette création de nouveaux emplois est loin de toucher de manière égale tous les niveaux de formation… Les tâches répétitives et nombreuses, souvent affectées à des travailleurs peu qualifiés, sont en général les plus faciles à segmenter, modéliser et donc automatiser : il nous est devenu presque impossible de concurrencer ces systèmes “ intelligents ” en terme d’efficacité et de nombre d’erreur sur ce genre de tâches, qui sont donc celles que les IA réalisent majoritairement aujourd’hui. À l’inverse, les systèmes d’automatisation ont plus de difficulté à exercer des tâches où une grande part de subjectivité, de créativité ou de relationnel interviennent, à l’inverse souvent affectées à des travailleurs plus qualifiés, et qui sont donc plus rarement automatisées. En conséquence, comme le dit David Autor, “ le défi que nous pose l’automatisation n’est pas la disparition des emplois [...], le défi est que beaucoup de ces emplois ne sont pas bons et que beaucoup de citoyens ne peuvent pas atteindre les bons emplois qui sont créés* ”. Les nouveaux métiers relatifs à la gestion et à l’utilisation de ces nouveaux systèmes d’automatisation demandent plus de qualifications que les métiers qui sont automatisés par ces mêmes systèmes, et ne seront donc le plus souvent pas exercés par les mêmes personnes... Dans son article “ The productivity paradox ” l’économiste Ryan Avent, éditorialiste à The Economist, explique que selon lui “ l’automatisation tend à augmenter la pauvreté et les inégalités plutôt que le chômage* ”. Il va même encore plus loin dans l’argumentation, en expliquant que la baisse du coût de la main d’oeuvre pourrait rendre malgré tout plus rentable dans certains cas d’embaucher des humains pour faire un travail peu payé, même si moins productifs, creusant encore davantage l’écart entre les métiers les plus qualifiés capables de s’occuper de la gestion de ces systèmes d’IA et les moins qualifiés n’ayant d’autre choix que d’exercer ces emplois peu productifs.

Ces systèmes d’automatisation touchent donc pour l’instant très majoritairement les emplois à bas niveaux de formation, comme l’expliquait dans un article du MIT technology review la journaliste Erin Winick en faisant le bilan d’une autre étude sur les conséquences de l’automatisation : “ le meilleur moyen de vous protéger de l’automatisation : obtenez un diplôme. Les emplois nécessitant un plus haut niveau d’éducation sont moins susceptibles d’être remplacés par la technologie* ”. Actuellement les systèmes d’IA servent plutôt d’outils aux travailleurs les plus qualifiés, comme dans le cas d’Amazon où les équipes de recrutement reprenaient la main sur les embauches une fois le plus gros de la sélection faite par le système. Pourtant, cette idée pourrait vite évoluer au vu des ambitions de nombreux pays en termes de développement des IA... Ce ne serait alors qu’une question de durée avant que les systèmes d’automatisation puissent, si nous le voulons, progresser suffisamment pour remplacer également les emplois plus qualifiés, ce qu’affirmait déjà en 2014 le journaliste Hubert Guillaud dans son article “ Travail et automatisation : la fin du travail ne touche pas que les emplois les moins qualifiés ”. Toujours dans le domaine du recrutement, on peut citer l’exemple de la startup Pymetrics, fondée en 2011 et qui propose à ses clients des systèmes d’IA capables de faire passer des entretiens vidéos en analysant les discours et les expressions faciales des candidats… Et proposant à l’inverse pour les candidats des jeux leur permettant de s'entraîner à ces entretiens !
Dilbert, Scott Adams, 2014
Pourtant, si l’IA mène à la destruction de certains emplois, Hubert Guillaud souligne aussi le phénomène inverse, en soutenant que “ si l’automatisation réduit les besoins en compétence dans une profession, elle peut aussi contribuer à la création de nouvelles catégories de travail ”. S’il est assez facile de mesurer le nombre d’emplois que les IA pourront supprimer, il est plus complexe de prévoir à plus long terme les nouveaux emplois qu’elles pourraient créer. Pour illustrer cette idée, David Autor cite l’économiste James Bessen, qui prenait l’exemple de l’apparition des distributeurs de billets aux États-Unis, alors vus comme une menace directe pour les guichetiers bancaires. Pourtant, si le nombre d’employés par agence a bien diminué, le coût de fonctionnement par agence a aussi été réduit grâce aux distributeurs, permettant d’ouvrir dans les années qui ont suivis 40% de nouvelles agences bancaires à travers le pays. Quelques guichetiers bancaires restant nécessaires dans toutes ces nouvelles agences pour réaliser des tâches commerciales et relationnelles, leur nombre a au final presque doublé, passant d’environ 250.000 à 500.000 en 45 ans, dont 100.000 embauches depuis l’an 2000. Des exemples comme celui d’Uber et le phénomène d’uberisation de l’économie qui en a découlé nous ont également bien montré qu’il peut être plus complexe qu’on ne le croit de prévoir les conséquences à long terme de ces systèmes d’automatisation sur l’emploi et le travail, sachant qu’ils peuvent impacter toutes les étapes de la chaîne de conception, de production et de distribution de nos produits et services, en créant de nouveaux “ besoins ” insoupçonnés. Mais devant l’ampleur que de nombreux états semblent vouloir donner aux technologies d’IA, il est loin d’être certain que cet équilibrage du nombre d’emploi à long terme se produira à nouveau…
3/5
Et si nous étions bientôt tous recrutés par des algorithmes ?
S’il est avéré que ces nouveaux systèmes technologiques impacteront d’une façon ou d’une autre le travail et l’emploi, on peut s’interroger sur leurs conséquences éthiques sur l’expérience d’embauche, du point de vue de l’employeur mais surtout de l’employé qui y sera confronté sans l’avoir choisi. Les services de ressources humaines se sont mis depuis plusieurs années à utiliser ce genre de systèmes pour gérer la formation, les carrières et donc le recrutement des employés, systèmes qui sont aujourd’hui regroupés sous le sigle de SIRH, pour Systèmes d’Information des Ressources Humaines. En parallèle, des outils en ligne se développent, comme ceux de LinkedIn, qui permettent aux employeurs de poster leurs offres en ligne, puis leur proposent un classement des candidats sur la base d’algorithmes de notation. Dans son article “ Mon DRH est une appli ” pour l’Obs, le journaliste Baptiste Legrand évoque l’utilisation faite de ces outils d’IA par une agence de recrutement en intérim. Il explique que les nombreux CV reçus chaque jours sont “ classés par mots clés ” en terme de formation, d’expérience et de compétence, puis que le candidat doit échanger avec un chatbot (ou agent conversationnel), un programme chargé de simuler une conversation humaine pour vérifier auprès du candidat sa disponibilité et sa mobilité géographique et décider ou non de programmer un rendez-vous futur avec un RH humain. Selon le recruteur interrogé, ce genre de système serait très pratique car il permettrait pendant l’entretien de “ s’intéresser directement à la personnalité du candidat ”.

Pourtant, le véritable objectif de ces systèmes semble plutôt de permettre aux équipes RH les utilisant de gagner en productivité dans le recrutement, en passant moins de temps par candidat. Cette volonté peut avoir du sens tant que ces outils servent juste à traiter des informations factuelles, ou à vérifier la complétude des dossiers des postulants. Ils me semblent en revanche beaucoup plus contestables lorsqu’ils sont chargés d’évaluer un candidat sur la base de critères plus subjectifs, comme ses capacités de communication, ses traits de caractère ou sa personnalité. Un entretien de vive voix a justement pour but de révéler ces “ soft skills ”, compétences plus subjectives relatives au caractère social de chaque individu, et cette tâche ne devrait donc je crois pas être laissée à l’appréciation de tels systèmes.

Cette déviance de l’usage des IA risque d’impacter plus encore les personnes en recherche d’emploi, qui pourront se retrouver dans le futur à ne plus avoir aucun interlocuteur humain pendant la majorité des processus de recrutement. L’utilisation très technicienne qui est faite de ces systèmes peut être très désagréable pour leurs utilisateurs, et altérer grandement l’expérience d’embauche, le processus servant uniquement à trier les candidats et ne permettant plus à ces derniers de voir s’ils sont en accord avec l’entreprise et la vision du travail qu’elle propose. De bons exemples de ces dérives sont les tests de “ quotient empathique ” ou “ d’intelligence émotionnelle ” de la plateforme Central test, que font passer certaines entreprises à leurs candidats. L’un d’eux demandent par exemple au candidat d’évaluer de “ -- ” à “ ++ ” à quel point des situations lui correspondent ou non, parmi lesquelles on peut par exemple lire “ Je me sens parfois nostalgique ”, “ Je n’ai jamais rien dit de mal à propos de quelqu’un ” ou encore “ J’ai déjà refusé de donner de l’argent à un mendiant ”. Un algorithme analyse les résultats du candidat et lui fournit le graphique et les descriptions détaillées de son “ quotient empathique ”, évaluant notamment sa lucidité, son optimisme, son estime de soi, sa motivation… En plus d’être assez déshumanisant, ce type d’usages peut rendre tentant de mentir au système pour lui plaire, le test finissant d’ailleurs par demander au candidat s’il a “ cherché à répondre de façon à donner une meilleure image de lui-même ” !
Extrait d'un questionnaire de quotient empathique et diagramme de résultat, Central Test, 2019
Douglas Rushkoff, auteur et essayiste américain spécialisé dans les médias, interviewé par David Carr-Brown dans son documentaire, résumait bien l’absurdité de tels systèmes en expliquant “ qu’au lieu d’utiliser la technologie numérique pour parvenir à nous connecter aux autres et créer des liens de solidarité, nous nous en servons pour isoler et atomiser les individus dans des silos séparés, où ils sont plus efficacement manipulés par des algorithmes et où leur comportement est déterminé par les statistiques. Nous utilisons la technologie pour que les humains ressemblent plus à des machines, et les machines plus à des humains* ”. Si nous continuons à développer ce type d’applications aux systèmes d’IA, ce n’est plus véritablement la capacité sociale du candidat à travailler en collaboration avec d’autres collègues qui sera évaluée dans le futur, mais plutôt sa capacité à s'adapter au mode de fonctionnement d'une IA et à répondre à ses critères algorithmiques…
4/5
Comment programmer et réguler l’inévitable développement des IA dans le futur ?
Au vu de l’enjeu économique que représente l’IA et des investissements massifs de la France dans le domaine, son développement exponentiel dans les années à venir semble être une évidence. Pourtant au fur et à mesure que ces technologies se perfectionnent, leur rôle pourrait devenir de plus en plus controversable... Que ce soit dans le domaine du travail, de la santé, des transports, de l’économie ou bien d’autres, lorsque ces IA seront capables techniquement d'être de plus en plus prédictives et injonctives, quelles utilisations serons nous prêt à en faire ? L’éthique et la gouvernance de ces systèmes technologiques seront un enjeu majeur des décennies à venir. Mais alors, comment organiser cette régulation et par qui doit-elle être menée ?

Une première piste souvent citée concerne la capacité des entreprises développant des IA à s’auto-réguler. Sundai Pichai, actuel PDG de Google, expliquait dans une interview donnée fin 2018 au Washington Post que les craintes au sujet de l’intelligence artificielles sont “ très légitimes ”, mais que l’on pourrait “ faire confiance à l’industrie technologique pour réguler son usage de manière responsable* ”. Il fait notamment le parallèle entre ces questions relatives au développement des IA et celles qui se sont posées lors du développement de la recherche en génétique, soulignant à juste titre que de nombreux biologistes ont su poser des limites à leurs recherches et “ qu’il y a eu beaucoup d'autorégulation de la part du milieu universitaire ”. Pichai a aussi récemment révélé une charte des principes éthiques relatifs au développement de l’IA chez Google, qui touche aussi bien la programmation, le développement et la mise en place de ces technologies. Ses grands principes concernent l’impact social des IA (en particulier en termes de discrimination), ses domaines d’applications prohibés (comme l’armement ou les outils de surveillance) ou encore la protection des données personnelles des utilisateurs. Google a par ailleurs également co-signé avec 247 entreprises et 3253 acteurs du domaine un “ pacte pour les armes létales autonomes ”, tous les signataires s'engageant à ne pas participer de quelque façon que ce soit au développement des ces “ robots tueurs ”, systèmes d’IA capables d’identifier une cible humaine et de l’attaquer de manière autonome. Ce pacte est à l’origine du très médiatisé “ Future of Life Institute ”, association transnationale de contributeurs volontaires qui étudie les risques existentiels menaçant l’humanité et en particulier ceux liés à l’IA, en rassemblant différentes personnalités influentes du monde de la recherche publiques ou privées comme le cosmologiste Stephen Hawking (avant sa mort en 2018), le cofondateur de Skype Jaan Tallinn, l'informaticien spécialisé dans l’IA Stuart Russell ou encore l'entrepreneur et PDG de Tesla Elon Musk.
Sommaire des objectifs pour les applications de l'IA, Google, 2018
Pourtant, si l’intention de ce type d’engagements peut paraître louable, il semble impossible de laisser les entreprise seules responsables de la régulation éthique des projets qu’elles développent. Avant de mettre en place sa charte, Google a par exemple été vivement critiqué en interne après avoir signé un contrat avec le département de la défense américain impliquant le développement d’une IA destinée à être utilisée dans des drones militaires, capables de reconnaître et “ d’étiqueter ” automatiquement des voitures, des bâtiments et d'autres objets. Si ce contrat a depuis été abandonné, cette affaire met en évidence l’ambivalence des entreprises qui disent avoir de réelles préoccupations éthiques, tout en étant fortement guidées par des intérêts stratégiques et commerciaux pouvant entrer en conflit avec ces préoccupations. Il paraît évident que l’appréciation du bien fondé d’un projet d’IA est soumise à une grande marge d’interprétation… Car au delà des cas extrêmes comme celui des robots tueurs, comment réguler les systèmes portant atteinte de manière plus insidieuse aux libertés individuelles ?
Dilbert, Scott Adams, 2016
Interviewée dans le cadre d’un épisode de la chaine Youtube Datagueule dédié à cette question de la programmation des algorithmes, la journaliste et webdesigner Soline Ledesert rappelait que le développement de ces derniers sert avant tout les intérêts privés des entreprises qui le financent, qui “ n’ont pas, par leur statut même, à tenir compte d'intérêts publics, mais ne le font que s’il y a une pression des gouvernements ou des citoyens ”. Soline Ledesert a notamment participé à l’intéressant projet d’un “ serment d’hippocrate des data scientist ”, une charte éthique commune qu’acceptent de suivre les concepteurs d'algorithmes et d’IA signataires. Pourtant, même en faisant preuve d’éthique et de bonne volonté, leur action restera inévitablement restreinte si elle s’oppose aux orientations stratégiques de leurs entreprises...

Cette régulation du développement des IA doit donc selon moi impérativement se faire de manière restrictive pour les entreprises. Si l’Etat semble être l’entité la plus à même d’imposer une telle restriction, l’évolution de la législation passée a montré son inertie et sa difficulté à suivre et réguler les évolutions très rapides des nouvelles technologies. Dominique Boullier, sociologue spécialisé dans les évolutions technologiques, évoque sur sa chaîne Youtube ces enjeux de régulation, expliquant que “ nous sommes habitués au fait que les décisions techniques sont toujours prises par les ingénieurs et les firmes et pas par les gouvernements ni les citoyens ”, faute de compétences techniques de ces derniers. Ce sont donc souvent les entreprises qui discutent directement entre elles, dans une sorte de flou démocratique dans lequel “ les questions de sécurité sont sous-estimées ” pour ne pas “ entraver l’innovation et la fluidité du commerce ”. Face à cette “ étonnante débandade du politique face à la toute puissance des ingénieurs et des firmes, que nous risquons de payer très cher ”, il rappelle l’importance de fonder des “ politiques des systèmes numériques ”. Des initiatives ont depuis eu lieu pour aider les députés et membres du gouvernement à saisir les enjeux technologiques sur lesquels ils sont amenés à légiférer. La plus probante est sans doute le rapport ministériel “ Donner un sens à l’intelligence artificielle : pour une stratégie nationale et européenne ” mené sous la direction de Cédric Villani, mathématicien français lauréat de la médaille Fields, aujourd’hui devenu député de la majorité et président de l’office parlementaire d'évaluation des choix scientifiques et technologiques (OPECST). Ce rapport aborde les questions de la protection et de l’ouverture des données, des enjeux économiques qui y sont associés, des impacts de tels systèmes sur l’emploi, la santé ou encore l’agriculture… Des profils comme celui de Cédric Villani, personnage influent du champ de la recherche scientifique, me semblent être une intéressante façon de permettre l’appropriation par le champ politique de ces questions. Dans une interview pour la chaîne Youtube Thinkerview, il estimait d’ailleurs avoir été élu car “ les citoyens se disaient “ c’est bien d’avoir des scientifiques qui vont en politique et qui vont apporter leur expertise là-bas, et qui permettront aux politiques de juger et délibérer en connaissance de cause ”  ”. Il rappelait alors à juste titre que “ l’IA c’est ce qu’on en fera, [...] il faut que le politique prenne ses responsabilités, il faut qu’on évite à tout prix la prolifération de ces technologies, et qu’on ait des accords mondiaux sur ces questions ”.

Pourtant, cette capacité du corps politique à légiférer pour la régulation de ces systèmes technologiques dans l'intérêt public est aussi contestable, celui-ci étant soumis comme les entreprises à de nombreux conflits d'intérêt. Dans l’interview évoquée plus haut, le philosophe Éric Sadin affirmait de manière assez radicale que les élus sont aujourd’hui “ totalement inféodés aux intérêts économiques des entreprises ”. De fait, dans un modèle capitaliste comme le nôtre, un grand risque est que les lois relatives à ces questions technologiques soient avant tout votées en vue de favoriser la croissance et d’assurer l’avenir économique du pays. Comme dans de nombreux autres domaines, Sadin affirme qu’il y a un fort lobbying des grands groupes des technologies numériques pour que leurs développements futurs soient “ supportés par des lois et des investissements publics ”. L’Etat seul ne suffira donc probablement pas non plus à réguler de manière restrictive les usages émergents des systèmes d’IA…

D’autres groupes ou personnalités indépendantes pourraient alors jouer ce rôle de garde-fou dans ces développements futurs. La Commission nationale de l'informatique et des libertés (CNIL), une organisation gouvernementale qui informe, aide et contrôle les entreprises au sujet de la protection des données personnelles des citoyens en ligne, a par exemple mené un débat public sur les enjeux éthiques des algorithmes et de l’intelligence artificielle, présenté au gouvernement sous la forme d’un rapport de synthèse fin 2017. Elle y dégage deux principes régulateurs pour l’intelligence artificielle : un principe de loyauté, impliquant que tout algorithme doit faire primer avant tout les intérêts de ses utilisateurs, et un principe de vigilance, prônant un questionnement régulier, méthodique et délibératif dans le développement des algorithmes. Ces principes pourraient selon la CNIL devenir “ une nouvelle génération de garanties et de droits fondamentaux ”, appliqués aux développements futurs de l’IA. Plus concrètement, la CNIL pourrait alors forcer les entreprises développant des IA à respecter les libertés individuelles de leurs utilisateurs et sanctionner les développements jugés “ non-éthiques ”, de la même façon qu’elle a été chargée en 2018 par l’Etat de l’application du Règlement Général sur la Protection des Données (RGPD) en France et du contrôle des entreprises. Pourtant, ce contrôle pourrait être difficile à exercer dans les faits : interrogée par Reuters, l’American Civil Liberties Union (ACLU), association à but non lucratif américaine ayant pour mission de “ défendre et préserver les droits et libertés individuelles garanties à chaque citoyen par la Constitution et les lois des États-Unis ”, estimait au sujet des IA utilisées dans le recrutement qu’il pourrait être extrêmement difficile dans le futur de poursuivre un employeur en justice pour des embauches automatisées, les candidats pouvant difficilement prouver que le système a été utilisé...
Affiche d'appel à volontaires de la CNIL, Kiki et communication interne, 2017
Enfin les penseurs, philosophes et essayistes pourraient eux aussi jouer un rôle important dans la définition du futur de ces systèmes, qui nous amèneront peut être à terme à redéfinir en profondeur notre rapport au travail, à la santé, à la connaissance… L’essayiste Laurent Alexandre racontait dans l’interview citée plus haut ce qu’il a pu observer quand il a commencé à s’intéresser à ces questions, en rencontrant des informaticiens, mathématiciens et data scientist : “ Je n’ai vu personne qui réfléchissait aux conséquences politiques, sociales et éducatives de l’IA. J’ai vu des gens le nez dans le guidon qui réflechissaient à leur algorithme, incapables de voir ce que le tsunami de l’IA allait faire à un an, cinq ans, dix ans, cinquante ans, mille ans, un million d’années. Aucune réflexion, parce que les acteurs de l’IA n’ont pas de pensée politique, ils n’ont pas de pensée sociale, ils n’ont pas de pensée économique. ” Ce manque de recul critique chez les acteurs du développement technologique est une idée commune, et l’ampleur des enjeux que ce dernier soulève justifie sans doute pourquoi il est essentiel que des penseurs, autonomes par rapport aux intérêts financiers des technologies en question, aient du temps et des moyens à consacrer à l’étude de leurs répercussions.

Mais un acteur manque encore à la table de réflexion et de législation autour de ces questions : vous ! Qu’en est-il en effet de notre rôle à tous, citoyens et futurs usagers majoritaires de ces systèmes technologiques en développement ?
5/5
En tant que futurs utilisateurs, comment nous positionner sur les évolutions à venir des IA ?
Si l’IA a le potentiel de lourdement impacter le futur de notre société, en bien comme en mal, il semble logique que le grand public s’y intéresse. Comme l’affirmait Cédric Villani dans son interview, “ L’intelligence artificielle est un sujet qui permet à toute la société de dialoguer et qui nous permet aussi de nous explorer nous mêmes, de découvrir dans nos organisations humaines où sont nos biais, nos forces et nos faiblesses et de progresser ”. Mais plus concrètement, quelle action pouvons-nous en tant que citoyens avoir sur la régulation des développements futurs de ces technologies ? Eric Sadin souhaite “ un agissement des citoyens ”, une réflexion collective sur les futurs de l’IA, et ce n’est évidemment pas la première fois que se pose la question d’une implication directe des citoyens dans la prise des décisions impactant l’organisation sociétale. Pourtant, au vu de la vitesse à laquelle évoluent les nouvelles technologies relativement à la compréhension qu’en a le grand public, on peut se demander si la majorité des citoyens peuvent réalistiquement devenir suffisamment connaisseurs pour avoir un avis pertinent quant aux orientations des technologies en question. Une étude IFOP réalisée pour la CNIL début 2017 sur un échantillon de 1000 personnes âgées de 18 ans et plus, révélait par exemple que 17% des personnes interrogées “ n’avaient jamais entendu parler des algorithmes ” et que 52% “ en avaient entendu parler mais ne voyaient pas précisément de quoi il s’agit ”. Face à un tel constat, il y a donc un fort enjeu d’éducation populaire et de vulgarisation scientifique autour de ces questions avant d’imaginer que nous soyons intégrés aux décisions de leurs évolutions futures. Cette volonté est notamment défendue par Yoshua Bengio, professeur à l'université de Montréal extrêmement reconnu dans le monde pour ses travaux de recherche et pour avoir été l'un de trois concepteurs du "deep learning". Interviewé par Le Monde en Octobre 2018, il expliquait en parlant de l’IA que “ les chercheurs ont la responsabilité d’expliquer les enjeux à la population, aux gouvernements, aux entreprises. Mais pour élaborer les repères, tous les acteurs de la société sont concernés ”. Face à la complexité des sujets en question, cette volonté me semble devoir être nuancée.

Ce souhait d’appropriation d’enjeux technologiques par le grand public rappelle d’ailleurs celui du mouvement maker, qui peut nous en apprendre beaucoup sur la façon de chercher une telle implication. Ce mouvement a découlé de l’émergence des fablabs, théorisée par le chercheur Neil Gershenfeld à la fin des années 1990. Ces lieux qui proposaient à l’origine au grand public d’apprendre à utiliser les nouvelles technologies en codant et en faisant de l’électronique et du prototypage rapide avaient justement pour but le partage et la diffusion des connaissances technologiques et donc leur appropriation par le grand public. Pourtant, force est de constater avec le temps que ce mouvement est resté relativement élitiste et confidentiel, car faire la démarche de se rendre régulièrement dans un fablab pour se former nécessite du temps et la volonté de faire quelque chose de ces connaissances. Un mouvement d’appropriation des IA risquerait donc hélas de connaître les mêmes limitations. Mais peut-être que la volonté d’un tel mouvement devrait justement être différente de celle des fablabs, en se concentrant sur des questions idéologiques plus que techniques. Car les questions techniques que seront amenés à se poser les chercheurs du domaine seront d’une complexité dépassant de très loin les connaissances que pourront avoir la moyenne des citoyens, si bien qu’une démarche de vulgarisation technique ne serait probablement pas suffisante à nous rendre plus aptes à comprendre les enjeux idéologiques soulevés par ces technologies. Pour pouvoir jouer un rôle dans ces développements technologiques futurs, il pourrait alors nous suffire d’apprendre à mettre en contexte ces technologies, d’en comprendre les origines, pour pouvoir débattre des enjeux “ citoyens ” que sont leurs implications sociétales, morales, éthiques… Les connaissances techniques nécessaires à ces questionnements, de l’ordre de celles présentées au début de cet article, ne seraient alors qu’une base permettant de débattre en connaissance de cause autour de ces questions.

Des débats citoyens sur l’éthique du développement des IA semblent justement essentiels, alors que la  “ morale ” de ces nouvelles formes algorithmiques est une question subjective et relative. Interrogé à ce sujet, Laurent Alexandre faisait un intéressant constat : “ La question de la morale et de l’IA est très compliquée. On est persuadé d’avoir une morale parfaite, universelle, mais quand on prend un peu de recul, on se rend compte que notre morale est contingente, elle varie dans le temps et dans l’espace. Comment faut-il éduquer l’IA ? Avec la morale du Coran, de la Torah, de l’ancien testament, du nouveau testament, avec la morale bouddhiste, avec une morale athée ?... Est ce qu’il faut lui donner la morale de la manif pour tous, ou la morale de ceux qui sont favorables au mariage gay ? La réponse, c’est qu’on ne va pas trouver de morale universelle parce qu’il n’y en a pas, et qu’on va avoir des conflits éthiques et moraux terribles, et qu’il va bien falloir qu’on explicite notre morale. ” Cette “ explicitation ” de la morale des IA est une tâche qui pourrait, et même devrait, revenir dans le futur à leurs utilisateurs. Un exemple très intéressant d’une telle démarche a d’ailleurs déjà été mené il y a quelques mois par des chercheurs du MIT autour des voitures autonomes, à travers le site “ Moral Machine ”. Les internautes y sont invités à répondre à une série de 13 dilemmes moraux, chacun d’entre eux leur demandant de choisir qui ils préféreraient voir mourir si une voiture autonome était contrainte de sacrifier un groupe de personnes pour en sauver un autre. Les situations proposées sont très variées et interrogent de nombreux paramètres comme l’âge des personnes, leur nombre, leur milieu social, leur genre, mais aussi les éléments contextuels de l’accident comme le respect des feux de circulation, le fait de privilégier les passagers de la voiture plutôt que les piétons… Dans un deuxième temps, l’internaute est invité à évaluer l’importance qu’ont pour lui ces différents paramètres. Au total, plus de 2 millions d’internautes ont déjà participé bénévolement à cette enquête, issus de 233 pays et territoires différents. L’analyse des réponses par pays a notamment permis aux chercheurs de faire émerger des grandes tendances, comme le fait que les humains sont très majoritairement privilégiés par rapport aux animaux, ou encore qu’un nombre minimal de victimes sera presque toujours préféré. D’autres questions à l’inverse portent à débat et révèlent des différences culturelles, comme le fait qu’au Moyen-Orient ou en Asie les personnes âgées soient plus souvent sauvées et le statut social des potentiels victimes moins pris en compte, alors que l’inverse a été observé en Amérique Latine et en Europe centrale.
Exemple de situation de Moral Machine, E. Awad, S. Dsouza, R. Kim, J. Schulz, J. Henrich, A. Shariff, J.-F. Bonnefon et I. Rahwan, MIT, 2018
Ce type de démarche me semble représenter un potentiel d’implication des citoyens très intéressant. Si dans le cas évoqué ici la volonté des chercheurs était surtout expérimentale, des projets équivalents pourraient être menés par les Etats, à la manière de référendum permettant de constituer une base de données accessible d’une part aux chercheurs et scientifiques travaillant sur ces questions, d’autre part aux politiques amenés à légiférer autour d’elles, pouvant ainsi prendre en considération l’avis des principaux intéressés que sont leurs futurs utilisateurs. Ce genre d’initiative jouerait aussi un rôle pédagogique d’éducation des citoyens aux nouvelles questions technologiques, pouvant faciliter leur appropriation mais aussi leur utilisation raisonnée et éclairée de ces systèmes.

Une implication encore plus directe de certains citoyens dans cette régulation éthique des IA pourrait prendre la forme d’assemblées populaires participatives sur la base du volontariat. Ces assemblées pourraient permettrent comme l’explique le chercheur Yoshua Bengio dans la  “ Déclaration de Montréal pour un développement responsable de l'intelligence artificielle ”, co-écrite avec d’autres chercheurs et spécialistes, de “ développer des projets sociaux, d’élaborer des règles (règlements, codes) qui s’y appliquent, de pouvoir en contester les orientations mauvaises ou imprudentes, ou encore d’être en mesure de lancer des alertes à l’opinion publique quand cela est nécessaire ”. Si les développements de l’IA semblent de plus en plus inévitables, c’est par cette implication en tant qu’usagers et citoyens que nous pourrons espérer favoriser leur développement à des fins pas seulement économiques, mais aussi humanistes. C’est d’ailleurs la vision que défendait la journaliste et webdesigner Soline Ledesert, car selon elle “ il devient urgent d’apprendre à contester et à défier les gens qui font des algorithmes ”. Même si nous ne sommes pas outillés au mieux pour débattre de ces enjeux technologiques complexes, nous ne devons pas pour autant renoncer à nous exprimer sur ces questions et laisser les entreprises et pouvoirs politiques décider seuls pour nous. Car comme le disait Yoshua Bengio, nous avons “ la responsabilité de faire les meilleurs choix pour la société et de ne pas laisser ces choix dans les mains de quelques personnes, même si ce sont des chercheurs ou des politiciens, car ces nouvelles technologies vont impacter tout le monde dans les prochaines décennies. ”
Conclusion
Les développements actuels des intelligences artificielles ont mis en évidence de nombreux biais potentiels dans leur apprentissage, leur programmation et leur utilisation. Le cas d’Amazon et de son intelligence artificielle de recrutement nous permet de relativiser “ l’intelligence ” de ces algorithmes et de nous rappeler qu’ils sont encore très dépendants de leurs concepteurs. La question de l’éthique de ces technologies d’analyse devient primordiale alors que ces dernières deviennent avec le temps de plus en plus prédictives. Si le développement exponentiel de ces technologies semble aujourd’hui inévitable, nous devons nous rappeler que leur implémentation dans notre quotidien n’est pas une fatalité, mais bien le résultat des orientations scientifiques, sociétales et économiques que nous prendrons à l’avenir. Nous devons pouvoir décider et réguler leurs usages, pour ne pas impacter sans considération et à des seules fins commerciales notre travail et notre expérience quotidienne de vie en société, en créant des usages inutilement complexes, inconfortables, voire avilissants. Il ne faut pas faire aveuglément confiance à ces outils pour nous aider à mieux vivre, tout comme il ne faut pas faire aveuglément confiance aux chercheurs, concepteurs et programmeurs de ces technologies pour décider de ce qui est bon pour nous et de ce qui ne l’est pas. Si le corps politique est en train de s’éveiller à ces questions, nous devons nous aussi en tant que citoyens et futurs usagers expliciter notre conception de la morale et de l'éthique, nous interroger sur les impacts futurs de ces systèmes dans notre vie quotidienne, et exprimer ce que nous voulons ou pas dans ce panel de promesses technologiques. Car plus nous serons amenés à nous poser de telles questions, plus notre esprit critique et notre analyse de ces sujets s’affineront et donc plus nos avis deviendront éclairés et pertinents…
* Propos traduits par l'auteur

Pour toute question, commentaire ou proposition de collaboration :
martinmoreau95@gmail.com