Ce site n'est malheureusement pas adapté à une exploration en format portrait, mais vous pouvez passer en format paysage !
Relation Forme / Fonction (ARTICLE)
Malgré leurs couleurs pastels et leurs courbes douces, de nombreuses frictions empêchent une interaction fluide entre les systèmes d’assistance et leurs utilisateurs. Cette recherche de simplicité de forme et d’usage ne joue pas qu’un rôle fonctionnel, mais sert avant tout les intérêts commerciaux des constructeurs. Grâce à leurs méthodes centrées utilisateurs, les designers peuvent jouer un rôle intéressant dans une conception plus respectueuse des libertés des utilisateurs.
Relation Fournisseurs / Usagers
Les assistants personnels joue le rôle ambigu de système d’exploitation des nombreux contenus et services accessibles à travers eux sur demande, par la mise en relation des utilisateurs avec différents fournisseurs partenaires. Malgré des contenus et modes d’expression différenciés pour chacun d’eux, l’assistant centralise l’ensemble des requêtes des utilisateurs, qui transitent par les serveurs de son constructeur, permettant à ce dernier de les stocker et de les utiliser pour ses propres intérêts.
Effet Réseau & Représentation
Les chercheurs Kate Crawford et Vladan Joler ont réalisé “ Anatomy of an AI System ”, une cartographie du fonctionnement du Amazon Echo, incluant l’ensemble du travail humain, des données et des ressources naturelles nécessaires à sa fabrication, sa diffusion et son fonctionnement. Celle-ci met en évidence les très nombreuses connexions de ces systèmes avec d’autres, invisibilisées par les constructeurs qui véhicule une image “ magique ” de l’objet.
Gouvernance & Éthique
Alors que la majorité des utilisateurs n’auront probablement pas leur mot à dire sur les formes matérielles et immatérielles que prendront ces systèmes, à moins de refuser de les utiliser, ce rôle moral fort revient à leurs concepteurs et aux législateurs. Ces derniers devront s’assurer que le design des assistants ne favorise pas l’hyper-stimulation, le désengagement, la manipulation ou la surveillance de leurs utilisateurs, et réguler voire sanctionner en conséquence ces pratiques.
INTERVIEW
Pierrick Thébault,
designer, chercheur et entrepreneur
25 Novembre 2019
Quelles sont les grandes étapes récurrentes de ton processus de conception d’objets intégrant une forme d'algorithmie et de leur expérience utilisateur ?
“
je m’intéressais à trois aspects de l'intelligibilité, qui étaient l’observabilité, la traçabilité et la contrôlabilité, [...] et à partir de là, par l’expérience, j’essayais d’observer et d’inférer des problématiques et des problèmes de conceptions ...
Quel impact a selon toi le fait d’incarner un algorithme d’assistance dans un objet- enceinte dédié sur la perception qu’a l’utilisateur du système, comparativement à ceux intégrés sur smartphone ou ordinateur ?
“
la version applicative de ces assistants, même si elle a le même fonctionnement et elle n’a juste pas la même incarnation physique, semble moins intrusive et semble donner plus de contrôle à l'utilisateur dans sa modalité de déclenchement. Après, tout l’aspect collecte de données reste le même ...
Quelle est ta vision de l’affordance actuelle de ces systèmes et de l’approche de leurs concepteurs en terme de “ couture ”, leur façon de dévoiler leur fonctionnement interne et leurs connexions avec d’autres systèmes ?
“
aujourd’hui j’ai l’impression qu’il n’y a aucune transparence, aucune couture qui est apparente sur ces assistants, que ce soit sur du mobile ou sur de l’objet ...
Quelle approche as tu quant à la simplification ou non des systèmes d’assistance et de leurs objets dédiés, au service de l’expérience de l’utilisateur, au vu de la miniaturisation et de la dématérialisation des composants fonctionnels des objets technologiques contemporains ?
“
je pense que c’est vraiment le rôle des designers d’explorer de nouvelles voies, et je pense qu’il y a encore un long terrain d’expérimentation sur quelles formes [les assistants] pourraient avoir autre qu’un tube ou un totem, qui finalement va relayer un mythe de l’ubiquité et de l’omniscience ...
Quel lien fais tu entre les théories de l’informatique ubiquiste et le développement des systèmes d’assistance et de domotique contemporains ?
“
ces objets, à part la télé, sont mobiles ou transportables et ils sont extrêmement personnels, chacun a le sien avec sa session, son intimité et ses données, alors que dans la vision des Weiser ce sont des objets sont qui sont collectifs, qui sont laissés sur place et dont chacun peut profiter ...
Selon toi, quelle responsabilité ont et devraient avoir les constructeurs de ces systèmes sur l’utilisation qui est faite de leurs services, au regard du conflit entre leurs intérêts commerciaux et les conséquences morales et sociales des produits qu’ils proposent ?
“
il faut que ces objets soient plus ouverts et plus personnalisables, et qu’ils aient un business model qui soit plus clair. Aujourd’hui quand j’achète en promo un Google Home à 20 euros, est-ce que j’ai bien compris que finalement c’est la monétisation de mes habitudes et de ma vie qui est utilisée par Google pour me vendre de la pub sur tous les autres supports ? ...
Les entreprises développant des systèmes d’assistance peuvent elles et doivent elles selon toi s’auto-réguler ou être régulées dès la programmation, ou seulement une fois que les systèmes sont mis en place et que des dysfonctionnements sont observés ?
“
on utilise des algorithmes [...] en apprentissage profond, dont les concepteurs perdent le contrôle, puisque ce sont des algorithmes qui vont [...] adapter leur comportement en fonction des corpus de données qu’ils avalent. Et du coup un algorithme “ qui est bien entraîné ” à priori, peut totalement changer de fonctionnement suivant la manière dont il est nourri par la suite. Donc ça me parait impossible de prévoir et d’anticiper tous les problèmes ...
Quel rôle jouent ou devraient selon toi jouer les designers et développeurs de ces systèmes en tant que régulateur de leurs usages potentiellement malsains et révélateur d’atteintes aux libertés publiques et individuelles que pourrait générer leur utilisation ?
“
on peut à l’échelle individuelle avoir des convictions et avoir envie de construire des objets éthiques et finalement être contraint de travailler pour une entreprise qui ne va pas forcément les partager, ou les respecter, ou qui va changer d’avis. Ça ne peut pas venir que des individus et des concepteurs. ...
Que pense tu des initiatives de régulation et de législation autour de la conception de tels systèmes, notamment à travers les notions de “ privacy by design and by default ” proposé par la RGPD, et le listage critique des “ pratiques de design potentiellement trompeur ” de la CNIL en terme de design d’interface ?
“
on s’aperçoit que paradoxalement si on applique à la lettre le RGPD et [...] qu’on veut vraiment donner le contrôle aux utilisateurs sur leurs données, [...] on crée des étapes supplémentaires qui peuvent nuire à l’expérience utilisateur du produit, par ce que les gens voient ça comme quelque chose de fastidieux, ou d’inutile, ou de compliqué ...
Pour terminer, quels sont selon toi les enjeux et dangers les plus forts de ces technologies dans les années à venir, en particulier en terme d’applications susceptibles de concerner le plus largement le grand public ?
“
il y a tellement d’enjeux politiques et capitalistiques qui sont liés à ces algorithmes là et à l'usage qui a été fait de la donnée sur ces 20 dernières années que c’est difficile de ne pas voir les aspects très négatifs ...