OUPS...
Ce site n'est malheureusement pas adapté à une exploration en format portrait, mais vous pouvez passer en format paysage !
Relation Forme / Fonction
Les médias sociaux reposent sur des interfaces simples et intuitives invisibilisant la complexité du réseau d’acteurs participant au système. Il nous est difficile en tant qu’utilisateurs de percevoir les raisons pour lesquelles l’algorithme du système nous propose certains contenus ou de tracer l’origine de ces contenus. Il est donc primordial que nous apprenions à comprendre ces principes de fonctionnement, les modèles et les stratégies commerciales derrières les interfaces simplifiées.
Relation Fournisseurs / Usagers (ARTICLE)
L’ampleur qu’ont pris les médias sociaux ne permet aujourd’hui plus aux utilisateurs d’avoir une vision claire de leurs nombreux acteurs et des interactions entre ces derniers. Il est donc primordial que nous apprenions à démêler cette complexité, pour identifier les intérêts du média et des créateurs de contenus et garantir leur responsabilité, mais aussi pour distinguer les groupes d’usagers interdépendants auxquels nous appartenons, et ainsi garantir notre liberté et nos droits.
Effet Réseau & Représentation
Sur les médias sociaux, chaque utilisateur n’a qu’une vision très partielle du système, à travers le cercle de personnes avec lesquelles il s’est lui même mis en relation. Ces bulles d’influences sont un biais courant, nos relations étant proches de nos idées et nous exposant à une vision partiale de la réalité. Il est donc essentiel d’accéder à de plus justes représentations mentales ou visuelles du média dans toute sa complexité afin de prendre du recul sur ce que nous y voyons et partageons.
Gouvernance & Éthique
Du fait de leur modèle économique basé sur l’exploitation des données personnelles de leurs utilisateurs, l’éthique des médias sociaux est une question délicate, les forçant à mener un arbitrage constant entre leurs intérêts financiers et l’impact sur l’opinion des contenus qu’ils diffusent. Nous pouvons en tant qu’utilisateur d’un média impacter indirectement sur sa gouvernance, en modérant l'usage que nous en faisons proportionnellement aux informations que nous concédons au système.
ARTICLE
Médias sociaux
Outils de manipulation de masse ou de liberté d’expression véritable ?
Novembre 2019
En 2016, en pleine campagne pour la présidentielle américaine, l’équipe de Donald Trump fait appel aux services de l’entreprise anglaise Cambridge Analytica, spécialisée dans l’influence politique et ayant déjà été impliquée dans différentes élections à travers le monde. Son rôle est principalement d’aider le candidat, à l’époque donné perdant dans les sondages, à cibler et atteindre ses futurs électeurs afin de gagner leurs votes. Un groupe de recherche de Cambridge Analytica est donc chargé de créer et diffuser un questionnaire sur Facebook à 300.000 internautes, rémunérés en échange de l’utilisation de leurs réponses et de leurs données personnelles. En Mars 2018, deux ans après l’élection de Donald Trump, l’ancien directeur de recherche chargé de sa campagne chez Cambridge Analytica , Christopher Wylie, lance l’alerte par l’intermédiaire de Carole Cadwalladr, journaliste au Guardian : le questionnaire qu’il a créé avec ses équipes ne permettait pas seulement de récupérer les données personnelles de ces 300.000 répondants, mais aussi celles de tous leurs amis Facebook. Ce sont donc au total les données de 87 millions de compte qui ont été récupérées à l’insu de leurs propriétaires, constituant le plus grand scandale de l’histoire de Facebook, depuis connu sous le nom “ d’affaire Cambridge Analytica ”.

Depuis cet événement, de nombreux débats médiatiques ont eu lieu sur le nouveau rôle politique que peuvent jouer les “ médias sociaux ”. Cette expression, aujourd’hui préférable à celle de “ réseaux sociaux ” qui réduit ces systèmes à la simple mise en relation d’individus, rend compte de leur nouveau rôle majeur dans le partage et la diffusion d’informations. L’utilisation de masse aujourd’hui faite de Twitter, Instagram et bien sûr Facebook est régulièrement traversé de “ failles de sécurité ” rendant nos données d’utilisateurs extractibles du système pendant un temps, sans que nous ne sachions réellement ce que cela implique. Plus généralement, la question du respect de la vie privée en ligne se pose très fréquemment depuis quelques années : l’immatérialité des données électroniques facilite leur volatilité, et un grand flou demeurait jusqu’à encore récemment sur l’utilisation qui en est faite sur ces grands médias sociaux… A l’époque des faits, Facebook autorise d’ailleurs ce type de récupération de données, ce que clamait l’entreprise Cambridge Analytica avant son dépôt de bilan en mai 2018, n’ayant techniquement rien fait d’illégal. Le scandale est donc davantage moral, Facebook étant accusé d’avoir laissé faire et de ne pas avoir assez protégé ses utilisateurs. Au final l’affaire Cambridge Analytica fait réagir aussi bien les utilisateurs de Facebook, beaucoup d’américains disant avoir changé leur utilisation du site ou s’en être désinscrit, que le groupe Facebook lui-même, dont le président et fondateur Mark Zuckerberg est convoqué devant le congrès américain en 2018, promettant un “ changement de philosophie chez Facebook ”, puis recevant en Juillet 2019 une amende record de 5 milliards de dollars de la Federal Trade Commission (FTC), agence responsable du contrôle du droit de la consommation et des pratiques commerciales aux États-Unis.

Les médias sociaux ont peu à peu évolué en systèmes technologiques tentaculaires faisant interagir des milliards d’acteurs publics et privés, particuliers ou institutionnels. Les contenus auxquels nous sommes exposés dans notre usage de ces systèmes sont aujourd’hui accessibles par l’intermédiaire de nombreux fournisseurs, souvent difficile à cerner, leur nom et leurs rôles précis étant souvent dissimulés. Ce fonctionnement impacte nos usages, nos pratiques et même nos opinions, questionnant aussi bien la responsabilités des fournisseurs que les droits des usagers. C’est donc la question de cet impact des médias sociaux sur leurs utilisateurs et sur la société en générale que cet article a pour but d’étudier, à travers ce phénomène particulier d’utilisation de Facebook à des fins électorales. Quelles sont l’origine et les conséquences de ce mode de fonctionnement des médias sociaux ? Et est-il possible après une telle affaire de garantir les responsabilités des fournisseurs de ces plateformes et les droits de leurs usagers ?
Détournement humoristique du logo de Cambridge Analytica, Ed Hall (Forbes), 2018
LES FONDAMENTAUX
Qu’est ce qu’une donnée personnelle sur un média social ?
Selon la Commission Nationale de l'Informatique et des Libertés (CNIL), une organisation gouvernementale française qui informe, aide et contrôle les entreprises au sujet de la protection des données personnelles des citoyens en ligne, le terme de “ donnée personnelle ” désigne “ toute information se rapportant à une personne physique identifiée ou identifiable ”. Appliqué à Internet et en particulier aux médias sociaux, ce terme désigne toutes les informations que le système possède sur un utilisateur donné. Il s’agit donc de l’ensemble des informations postées sur le réseau de type texte (nom, prénom, lieu de résidence…), chiffres (numéro de téléphone, numéro de compte…), images (photos de profil, photos postées...), vidéos, sons… En plus des informations ajoutées manuellement par l’utilisateur, le système peut demander à accéder à d’autres informations depuis l’appareil sur lequel il est utilisé (répertoire mail ou contacts téléphoniques notamment). Enfin, au delà de ces données factuelles, le système peut aussi récupérer l’ensemble de nos données personnelles contextuelles, c’est à dire relative à notre activité sur le système : les contenus que nous “ likons ” ou partageons, les pages que nous suivons, les personnes auxquelles nous nous connectons, les contenus que nous regardons…
Ces données sont au coeur du modèle économique des médias sociaux, dont la gratuité est permise par la récupération de ces données factuelles et contextuelles : on parle alors d’économie de la donnée. Ces dernières sont en effet revendues à différents annonceurs afin qu’ils puissent soumettre aux utilisateurs des publicités ou messages ciblés : c’est le principe de la célèbre phrase “ si c’est gratuit, c’est toi le produit ”. Facebook permet d’ailleurs maintenant de télécharger un fichier présentant l’ensemble des données que le système possède sur nous, et celui ci se finit par une longue liste des annonceurs auxquels Facebook a vendu nos données personnelles. C’est donc selon un principe similaire que les chercheurs de Cambridge Analytica ont pu faire passer un test sur le média et récupérer les données des répondants contre rémunération de ces derniers et de Facebook.
Qu’est ce que le profilage psychographique ?
Le profilage désigne l'exploitation de ces données personnelles pour établir les profils des utilisateurs, et prédire le comportement de chacun en vue de leur proposer des annonces personnalisées. Dans les premiers temps des médias sociaux, les annonceurs s’appuyaient majoritairement sur les données factuelles des utilisateurs pour cibler leurs messages : âge, genre, lieu de résidence…
Dans une conférence donnée en 2016, Alexander Nix, fondateur de Cambridge Analytica, évoquait le type de profilage mené par son entreprise pour les campagnes électorales auxquelles elle participe. Selon lui l’idée que “ toutes les femmes devraient recevoir le même message du fait de leur genre ou tous les afro-américains du fait de leur ethnie [...] est ridicule * ”. Il explique que ces facteurs ne sont qu’une petite partie de l’ensemble de ceux capables d’influencer nos points de vue, les plus importants étant selon lui les facteurs psychographiques : critères de personnalité, croyances, style de vie, valeurs, centres d'intérêts… L’entreprise s’appuie donc davantage sur les données contextuelles des utilisateurs dans le but d’hyper segmenter l'analyse des profils et donc les messages qui leur sont soumis par la suite. Ce “ profilage psychographique ”, aussi appelé “ micro-ciblage comportemental ”, n’a donc pas pour but de viser un large public avec des messages peu personnalisés, mais de viser de nombreux petits groupes d’individus avec des messages très personnalisés et se voulant donc plus convaincants. Comme l’explique Alexander Nix, Cambridge Analytica propose à ses clients de leur “ montrer quels électeurs ils doivent convaincre pour assurer leur victoire ! * ”. Par exemple, les chercheurs se sont intéressés aux “ personnes qui iront de manière certaines voter ”, dont les idées étaient plutôt républicaines, mais qui n’étaient pas encore totalement convaincues. D’après l’étude de leur profil psychologique moyen, Cambridge Analytica a déterminé qu’ils devaient recevoir “ un message persuasif sur le droit de posséder des armes à feu, qui doit être nuancé selon les personnalités spécifiques auxquelles on s’intéresse * ”, critère le plus différenciant pour ces personnes entre le programme de Trump et de celui de sa rivale démocrate Clinton.
Comment marche le profilage psychographique ?
Au début de son implantation aux Etats-Unis, Cambridge Analytica avait besoin de récupérer une grande quantité de données personnelles de la population américaine pour pouvoir y appliquer ses méthodes de profilage psychographique. L’entreprise a pour cela lancé une vaste campagne de récupération et de rachat de ces données, notamment auprès des principaux médias sociaux (Facebook, Google, Twitter…), mais aussi de banques et d’organismes de sécurités sociales, une pratique légale aux Etats-Unis.

En complément de ces données majoritairement factuelles, Facebook était donc le meilleur moyen pour l’entreprise de récupérer des données contextuelles, en se basant sur ce que les utilisateurs postent, regardent, likent et commentent. Pour cela, l’équipe de data scientist et de psychologues de Christopher Wylie s’est appuyé sur les travaux du centre de recherche psychométrique de l’université de Cambridge, auquel certains membres de l’équipe étaient affiliés. Ces chercheurs avaient développé une méthode pour déduire les traits de personnalité d’un individu en se basant sur ces données Facebook contextuelles. Cette méthode s’appuie sur un modèle appelé “ OCEAN ”, aussi connu en psychologie sous le nom de “ Modèle des Big Five ”, permettant d’effectuer cette segmentation selon 5 variables formant l’acronyme et définit comme suit.
Openness (ouverture) :
tendance à apprécier l'art, l'émotion, l'aventure, les idées peu communes, à faire preuve de curiosité et d’imagination

Conscientiousness (conscienciosité, conscience morale, vertu) :
tendance à l’autodiscipline, au respect des obligations, à préférer l’organisation à la spontanéité

Extraversion (fait d’être extraverti) :
tendance à chercher la stimulation et la compagnie des autres, à faire preuve de capacité sociale et exprimer des émotions positives

Agreeableness (agréabilité ou amabilité) :
tendance à être compatissant et coopératif envers les autres plutôt que soupçonneux et antagonique

Neuroticism (neuroticisme ou névrosisme) :
tendance à éprouver des émotions comme la colère, l'inquiétude, la dépression ou la vulnérabilité

Les chercheurs ont alors mis en place un questionnaire sur cette base, dans lequel le répondant est amené à évaluer différentes affirmations selon si qu’il estime qu’elles lui correspondent ou non sur une échelle allant de “ Very Inaccurate ” (Très Inexact) à “ Very Accurate ” (Très Exact). En fonction des réponses, un pourcentage d’importance est ensuite attribué à chacune des 5 variables, en fonction de l’importance estimée de chacune d’elle pour le répondant. C’est donc un questionnaire de ce type que Cambridge Analytica a diffusé sur Facebook, obtenant les réponses contre rémunération d'environ 300.000 américains, puis dressant leur profil psychographique très précis. Les données personnelles des amis Facebook des répondants, récupérées à leur insu, étaient quant à elles moins précises, mais ont pu être extrapolées grâce aux résultats des répondants. De cette façon, Cambridge Analytica affirmait avoir réussi à collecter entre 3000 et 5000 données par personne pour la grande majorité des adultes des Etats-Unis.
Dans un deuxième temps, l’entreprise convertissait ces données en une fiche propre à chaque votant, sur laquelle chaque thème de la campagne présidentielle recevait une note entre 1 et 10 en fonction de l’importance estimée pour le votant. En conclusion, un calcul évaluait la probabilité que l’usager vote Républicain : le but principal de ce profilage psychographique était donc de cibler les personnes qui n’étaient pas clairement affiliées au parti républicain mais qui du fait de leur profil pouvaient être amené à voter pour lui. Ainsi, certaines personnes étaient d’emblée exclue du public visé par l’équipe de campagne de Donald Trump, arriver à les convaincre étant jugé beaucoup trop improbable et donc trop peu “ rentable ”. A l’inverse, Cambridge Analytica a pu indiquer au candidat les états sur lesquels il devait concentrer ses campagnes de communication et ses meetings politiques, car étant les plus indécis et donc susceptibles de basculer en sa faveur. Les élections américaines se jouant état par état au scrutin indirect (le candidat obtenant le plus de voix des citoyens dans un état remportant la totalité des voix des grands électeurs de l’état), convaincre ces “ Swing States ” (États-charnières) est sans doute ce qui a permis au candidat Trump de remporter la victoire.
1/4
Comment sont exploitées nos données personnelles sur les réseaux sociaux ?
Dans une interview donnée au Monde en Mars 2018, le lanceur d’alerte Christopher Wylie affirmait qu'aujourd'hui, “ les données sont un outil * ”. L’utilisation qu’en faisait Cambridge Analytica, et qu’en font toujours les grandes entreprises du numérique, révèle l’importance cruciale d’être capable à la fois de récolter et d'interpréter ces données, en témoigne l’essor récent du métier de “ data scientist ”, ingénieur spécialisé dans l’analyse et le traitement de données numériques. Dans le cas de la campagne de Donald Trump, Christopher Wylie expliquait lors d’une convocation devant le parlement anglais que “ les données Facebook et leur récupération, c’est ce qui compose la base de données qui permet de fonder l’entreprise Cambridge Analytica et de construire l’algorithme ”. Interviewé par la BBC, Alexander Nix expliquait d’ailleurs “ qu’aucune donnée n’est très informative en elle-même, mais que comme pour faire un gâteau, c’est la somme des ingrédients qui compte * ” : les données sont donc une source de pouvoir, par la connaissance qu’elles permettent d’avoir des individus concernés une fois qu’on en possède un suffisamment grand nombre.

Dans le cas du scandale Cambridge Analytica, ce n’est pas tant l’utilisation faite des données personnelle qui a choqué, la pratique étant répandue depuis plusieurs années sous le terme de “ big data ”, mais bien la façon dont ces données ont été récupérées et la visée de cette utilisation dans un but de manipulation de l'opinion de chaque utilisateur ciblé. L’équipe de Christopher Wylie était confronté à un double problème : être capable de récupérer suffisamment de données personnelles contextuelles et pouvoir le faire sans avoir à rémunérer et demander leur accord à des millions de répondants. Pour contourner ce problème, l’équipe a donc décidé de passer par un chercheur affilié aux recherches psychométriques de l’université de Cambridge, le docteur Kogan, que Cambridge Analytica a financé pour concevoir le test, le diffuser sur Facebook, et lui fournir les données des répondants et de leurs amis Facebook, tout en autorisant le chercheur à en garder une copie pour ses propres recherches. Ainsi, le docteur Kogan a pu à l’époque affirmer à Facebook et aux répondants que les données étaient collectées dans un but de recherche universitaire. Ce flou sur l’origine et l’utilisation faite de ces données est au coeur du débat, la frontière étant assez ténue entre pratiques autorisées (mais pouvant être considérées comme amorales) et pratiques illégales...
Email listant les données récupérables et extrapolables chez les répondants au questionnaire et leurs amis Facebook, docteur Kogan (pour Christopher Wylie), 2014
L’affaire Cambridge Analytica a eu le mérite de révéler, comme le disait Christopher Wylie au journal Le Monde, “ l’échec de notre société à poser les limites de [l’utilisation des données] et de comment les utiliser de façon sûres ”. L’affaire a mis en évidence le fait que ce manque de clarté était entretenu par les médias sociaux eux-mêmes : Facebook n’avait en réalité pas intérêt à être plus transparent sur l’exploitation qu’il fait des données personnelles de ses utilisateurs à des fins commerciales, et aurait sans doute préféré continuer à obtenir la cession de nos données par consentement passif. La vague de désinscription de Facebook aux Etats-Unis suite à l’affaire témoigne de la prise de conscience, du moins à court terme, d’une partie de la population : le journaliste Harold Grand estime dans un article pour Le Figaro que “ après Cambridge Analytica, un américain sur quatre a supprimé l'application Facebook ”. Facebook s’est en quelque sorte fait prendre à son propre jeu, n’étant du fait de ce manque de transparence pas capable de vérifier précisément l’utilisation faites des données récupérées par ses annonceurs et donc de protéger ses utilisateurs. C’est donc à ce titre que l’entreprise a été condamnée en Juillet 2019.

Pourtant il serait injuste d’attribuer toute la responsabilité de l’affaire à Facebook, car l’affaire a aussi mis une nouvelle fois en évidence la difficulté pour les Etats à légiférer pertinemment et efficacement sur les enjeux technologiques contemporains. Dominique Boullier, sociologue spécialisé dans les évolutions technologiques, évoque sur sa chaîne Youtube ces enjeux de régulation, expliquant que “ nous sommes habitués au fait que les décisions techniques sont toujours prises par les ingénieurs et les firmes et pas par les gouvernements ni les citoyens ”, faute de compétences techniques de ces derniers. Nous nous sommes donc aussi habitués à ce que les médias sociaux définissent eux-mêmes leurs règles de fonctionnement, dans une sorte de flou juridique dans lequel “ les questions de sécurité sont sous-estimées ” pour ne pas “ entraver l’innovation et la fluidité du commerce ”. Face à cette “ étonnante débandade du politique face à la toute puissance des ingénieurs et des firmes, que nous risquons de payer très cher ”, le sociologue rappelle donc l’importance de fonder des “ politiques des systèmes numériques ”.

Cette légifération est donc d’autant plus dure à mener que les Etats ont des politiques encore très différentes en terme d’exploitation des données personnelles, ce qui rend plus difficile pour les médias sociaux de s’adapter en conséquence au cas par cas. En Europe, le récent Règlement Général sur la Protection des Données (RGPD), voté le 25 mai 2018, force les fournisseurs de services et de contenu en ligne à garantir à leurs utilisateurs européens la non divulgation de leurs données personnelles ou leur suppression sur demande. Les utilisateurs ont donc un droit de regard sur l’exploitation faite de leurs données, et les grandes entreprises du numériques sont dans une certaine mesure contrôlées à ce sujet, et peuvent être sanctionnées en cas de non conformité avec la loi. Dans d’autres pays cependant, l’exploitation des données est encore beaucoup plus libérale, comme c’est notamment le cas aux Etats-Unis. Le pays applique notamment une loi sur “ la liberté de l'information ”, permettant l’utilisation de données “ de seconde main ”, des données personnelles rachetées pour être utilisées dans un autre contexte que celui pour lequel l’utilisateur les a initialement fourni. C’est cette loi qui a permis à Cambridge Analytica de passer par l'intermédiaire d’un chercheur universitaire pour récupérer des données pour ses intérêts privés, ou encore de racheter des données à des banques et des assurances, une pratique aujourd’hui illégale en Europe mais pas aux Etats-Unis.
Dilbert, Scott Adams, 2010
2/4
Facebook est il encore un média “ social ” ?
Si l’affaire Cambridge Analytica a permis une prise de conscience générale de l’impact des médias sociaux sur l’opinion publique et en particulier sur les débats politiques, cette transformation du rôle de ces systèmes avait déjà commencé plusieurs années auparavant. Le 3 février 2019, Zoé Varier recevait dans son émission “ Une Journée Particulière ” (France Inter) Fabrice Epelboin, enseignant et ancien activiste spécialisé dans l’impact politique des technologies, et en particulier des médias sociaux. Ce dernier a été le lanceur d’alerte de l’un des premiers cas recensé de manipulation de Facebook à des fins politiques et idéologiques, mené en Mai 2010 par l’ex président-dictateur tunisien Ben Ali. Il explique dans l’interview que “ Facebook a été pour les tunisiens un vecteur énorme de liberté d’expression, auparavant extrêmement réduite, grâce à l’anonymat des pseudonymes ”, un espace de discussion, d’échanges culturels et de libération sexuelle. En Mai 2010 cependant, un groupe Facebook islamiste se mit à lister sur des pages Facebook des profils jugés “ impropres à l’Islam ”, qu’il s’agisse de militants politiques ou de musulmans jugés trop modérés, et dénonca ces profils à Facebook comme étant des faux. Suite à ces dénonciations, l’algorithme de Facebook demandait alors aux utilisateurs en question de justifier de leur identité, ce qu’ils ne pouvaient pas faire sans sortir de leur anonymat, craignant des représailles du gouvernement ou de la police, et voyant donc leurs profils définitivement supprimés. Cependant, en traçant l’adresse IP de l’administrateur du groupe islamiste incriminé, grâce à un commentaire laissé par celui-ci en réaction à un article du blog de Fabrice Epelboin dénoncant ces pratiques, il découvrit avec surprise qu’elle provenait de Oakland, aux Etats-Unis. En remontant la piste, il pu déterminer que l’internaute “ islamiste ” était en réalité le gérant d’une entreprise de référencement et de community management américaine, qui avait été commandité par le ministère de l’intérieur tunisien pour mener cette opération de lutte contre les pensées divergentes, en utilisant le contrôle de l’Islam comme prétexte.

Sans doute parce qu’elle n’a pas touché un pays occidental, cette affaire est passée relativement inaperçue à l’époque des faits. Depuis, de nombreuses autres affaires de même nature ont pourtant eu lieu à travers le monde, comme la révélation par la journaliste finlandaise Jessikka Aro des “ usines à trolls russes ” propageant des fausses nouvelles pour influencer l’opinion publique d’autres pays, ou encore la diffusion de fausses nouvelles et d’appels à la haine islamophobes par des représentants bouddhistes birmans, utilisant Facebook pour cibler certaines communautés musulmanes du pays. L’ensemble de ces techniques de manipulation de l’opinion à des fins publicitaires, politiques ou idéologiques, a été théorisé sous le nom “ d’Astroturfing ”. Celui-ci fait référence à la marque de pelouse synthétique AstroTurf, le terme “ grassroot ”, ou “ racines de la pelouse ”, désignant l’ensemble des utilisateurs particuliers d’un média. Ces techniques ont donc pour but de créer artificiellement une opinion ou un comportement sur Internet, pour que ceux-ci paraissent véritables et spontanés, notamment en dissimulant ou en falsifiant des informations.
Déploiement d'une pelouse synthétique Astroturf, Astroturf, 2018
Cette pratique pose un grave problème en terme de débat démocratique : du fait de l’ampleur systémique prise par les médias sociaux, il devient aujourd’hui très simple d’y créer et d’y propager de fausses informations, souvent sans possibilité de tracer leur origine. Les annonceurs, se mettent donc à tirer partie de Facebook non plus comme un simple média social, mais comme un outil de marketing politique, voire de propagande, comme l’a notamment fait Cambridge Analytica pour diffuser ses messages ciblés. L’entreprise a notamment utilisé une option du réseau appelée “ dark post ”, permettant de rendre un message uniquement visible par les utilisateurs répondant à certains critères définis par le diffuseur de l’annonce, puis faisant disparaître le message une fois qu’il a été vu, le rendant beaucoup plus impactant mais aussi plus dur à détecter par des opposants politiques ou des journalistes. L’entreprise est allé jusqu’à cibler le texte précis de ces messages et l’heure de leurs publications en fonction des informations qu’elle avait sur le rythme de vie de l’utilisateur ciblé. Christopher Wylie a aussi affirmé que de tels messages étaient utilisés pour tenter de convaincre des votants démocrates de s’abstenir de voter, en cherchant à discréditer leur candidat. Le journaliste McKenzie Funk dénonçait dès 2016 le danger de ce type de pratique dans son article pour le New York Times “ Cambridge Analytica and the Secret Agenda of a Facebook Quiz ”, dans lequel il s’en prenait directement au fondateur du média : “ Si M. Zuckerberg prend au sérieux ses engagements vis-à-vis de la diversité et de l'ouverture, il doit s'attaquer honnêtement au fait que Facebook n'est plus qu'un simple réseau social. C’est un support publicitaire qui est maintenant dangereusement facile à manipuler et utiliser comme une arme. * ”.
Capture de l'un des “ dark posts ” diffusés sur Facebook pendant la campagne présidentielle, Cambridge Analytica, 2016
Durant son audition devant le Sénat américain, Mark Zuckerberg s’est défendu en affirmant que “ Facebook n’avait pas une vision assez large de ses responsabilités, ce qui était une grosse erreur * ”. Si cette affirmation peut sembler faussement naïve, le média ne peut clairement plus depuis l’affaire nier son impact potentiel sur l’opinion publique, et se voit contraint de plus fermement contrôler et modérer les annonces publiées sur sa plateforme. Facebook a notamment dû mettre en place un département chargé de contrer les piratages informatiques et les opérations de propagande, dirigé par l’ancien procureur américain Nathaniel Gleicher. Interviewé en avril 2019 par Martin Untersinger, journaliste au Monde, il expliquait à juste titre que la lutte contre les tentatives de manipulation ou de corruption du débat public est un exercice extrêmement subtil : “ À chaque événement majeur, comme une élection, il y a des questions autour de la désinformation, de savoir si une information est fausse ou non, s’il s’agit de discours haineux… Mais la majorité des campagnes de propagande que nous déjouons ne contient pas de discours haineux, ne contrevient pas à nos règles en la matière, et n’est même pas mensongère ! Ce que nous cherchons à déjouer, ce sont des réseaux, des pages et des comptes qui cherchent à duper les gens ”. Il explique pour ce faire s’appuyer d’une part sur “ des systèmes automatiques qui fonctionnent à très grande échelle ”, chargés de supprimer les faux compte de propagande, et d’autre part, pour des manipulations plus complexes, sur “ des équipes d’enquêteurs, plus restreintes, composés d’anciens des services de renseignement, de l’industrie de la cybersécurité, de la recherche, du journalisme d’investigation ”, chargées d’enquêter au cas par cas sur les agissements suspects sur le média. Comme le souligne le journaliste, l’idée qu’une entreprise privée américaine soit chargée de sécuriser les débats politiques autour d’une élection a quelque chose d’assez effrayant... Et témoigne du pouvoir énorme reposant entre les mains des administrateurs du système.
Dilbert, Scott Adams, 2018
3/4
Quelle est l’idéologie politique de Facebook ?
La question peut paraître surprenante, dans la mesure où Facebook n’est qu’un vecteur de diffusion : le média n’affiche pas de ligne éditoriale ou idéologique propre, ne publiant à ce jour rien en son nom mais ne faisant que véhiculer les contenus de ses utilisateurs et annonceurs. C’est en tout cas ce que Facebook aimait penser avant le scandale Cambridge Analytica, cette position confortable de “ média neutre ” permettant à l’entreprise d’accepter les demandes des annonceurs les plus offrants, sans qu’elle n’ait à juger de leur portée idéologique et donc de leur impact sur la société. Ce positionnement se retrouve chez la plupart des grandes entreprises du numérique, mais est de plus en plus critiqué dans la mesure où l’exposition incontrôlée des utilisateurs à certains contenus plus qu’à d’autres peut bel et bien impacter l’opinion publique à grande échelle. Après la présidentielle américaine de 2016, Guillaume Chaslot, data scientist ayant travaillé chez Google, a en guise d’exemple fait l’exercice de recenser les 1000 vidéos les plus recommandées par Youtube dans sa barre de suggestion. Il a à l’époque publié les résultats sur son site Algotransparency, qui liste depuis en temps réel ces vidéos les plus suggérées par YouTube, et a ainsi pu estimer à l'époque que 6 fois plus de ces vidéos avantageaient les idées de Donald Trump (discours, meetings ou interviews du candidat ou de personne affiliées, divers contenus de communication...), que celles d'Hillary Clinton. Pourtant, il est très peu probable que ce constat témoigne d’un choix idéologique de Google, sachant que la région de San Francisco où est implanté le siège de l’entreprise et la majorité de ses activités de recherche est très majoritairement démocrate, Hillary Clinton y ayant récolté 84.5% des voix en 2016… Interviewée à ce sujet, la journaliste et webdesigner Soline Ledesert, cofondatrice d’Algotransparency, invoquait plutôt en guise d’explication le pur pragmatisme économique de Google, dû au fait que les vidéos de Trump intriguent davantage par leur aspect outrancier, et donc gardent en moyenne statistiquement les internautes plus longtemps sur la plateforme, indépendamment du fait qu’ils adhérents ou non aux propos du candidat. En promouvant ces vidéos, le site augmentait donc les contenus publicitaires regardés par ses utilisateurs, et donc au final ses bénéfices... Soline Ledesert se demandait à juste titre “ à quoi pensent les gens chez Youtube qui créent ces algorithmes le soir quand ils vont se coucher ? Est ce qu’ils se disent “ C’est génial, on a augmenté nos revenus publicitaires de tant ! ”, ou est ce qu’à un moment ils se disent “ Il y a des élections, il y a une montée du populisme, est ce qu’on participe à ça ? ” “ . En ne reconnaissant pas de telles implications de leur modèle économique, ces grandes entreprises du numérique sous-estime en effet je crois les répercussions sociétales que leurs choix technologiques peuvent avoir. Si celles-ci ne remettent pas en question leur modèle économique basé sur l’exploitation des données personnelles, elles vont surement devoir à l’avenir mener un arbitrage très délicat entre leurs intérêts financiers et l’impact sur l’opinion des contenus publiés et mis en avant sur leurs plateformes.

L’évolution du rôle des médias sociaux doit être d'autant plus reconnue qu’elle s’inscrit dans un mouvement plus large de transformation de la communication politique. Dans son interview sur la chaîne Youtube Thinkerview, Francis Dupuis-Déri, écrivain et professeur en Sciences Politiques à l’université du Québec, évoquait la transformation récente du champ politique. Selon lui aujourd’hui, “ les partis politiques sont des machines à confectionner du rêve et du mensonge ”. Il évoque en particulier les équipes de marketing fréquemment embauchées par ces derniers, qui bien que discrètes jouent un rôle très important dans les campagnes, en important en politique leurs stratégies commerciales de vente et de communication, cherchant à promouvoir les candidats comme des produits en allant “ jusqu’à regarder la couleur de la cravate, la coiffure, les éléments de langage, le logo de la campagne, les photos des candidats… ”. La politique devenant un marché comme un autre, il est donc devenu logique pour ces équipes d’utiliser les médias sociaux de la même façon que pour toute autre activité de vente, ces plateformes de diffusion jouant aujourd’hui un rôle majeur dans la communication et le succès d’un produit. Pourtant, le succès d’un candidat n’a clairement pas les mêmes répercussions que celui d’un produit, et le positionnement idéologique de ces équipes de fournisseurs de service et créateur de contenu pose donc autant question que celui des médias sociaux en eux-mêmes. Cambridge Analytica avait au moins le mérite de faire preuve de cohérence à ce sujet, l’entreprise ne travaillant que pour des campagnes de partis conservateurs et s’étant notamment fait financer aux États-Unis par Robert Mercer, un riche homme d’affaires républicain notamment mécène de la campagne de Donald Trump, qui orientait donc les activités de l’entreprise aussi bien économiquement que idéologiquement.
Conférence au sujet du travail de Cambridge Analytica pour la campagne de Ted Cruz aux primaires républicaines de 2015, Alexander Nix (fondateur de Cambridge Analytica), 2016
Alors que ces événements récents nous ont montré que Facebook pouvait se faire abuser par les créateurs de contenus qui diffusent sur sa plateforme, comment imaginer en avoir une perception claire en tant que simples utilisateurs ?… Le fait que nous soyons exposés à de plus en plus de contenus idéologiques militants sur les médias sociaux n’est pas nécessairement une mauvaise chose, mais il est impératif que ces systèmes ne prétendent pas être simplement “ sociaux ” et donc neutres ou objectifs. La subjectivité des contenus et des opinions relayés par ces derniers contribuent à l’expérience que nous en faisons : nous aimons nous y regrouper en communautés de pensée et nous nous créons naturellement des bulles d’influences par le biais de nos centres d'intérêts, qui nous expose à une vision biaisée de la réalité, correspondant à ce que nous aimons en voir. Mais si on ne peut pas demander à Facebook de faire preuve d’objectivité dans ses annonces, nous sommes en revanche en droit d'exiger plus de transparence concernant ses propres intérêts et l’origine des contenus que le système véhicule, en échange de l’accès à nos données personnelles. Nous devons nous rappeler qu’en arrivant à de tels niveaux d'intérêts économiques, l’idéologie n’existe plus réellement, les grands patrons visant souvent avant tout la croissance de leur entreprise, de manière plus ou moins consciente. Ce n’est qu’en intégrant ce fait que nous pouvons appréhender la complexité structurelle, économique et stratégique qui se cache derrière l’apparente simplicité de notre utilisation de ces médias. Mais alors, comment définir ce contrat moral tacite que nous passons avec ces grandes entreprises en choisissant d’utiliser leurs services ? Et quel rôle avons nous à jouer dans l’évolution des logiques de fonctionnement de ces systèmes, amorcés par ces nombreuses affaires récentes ?
Dilbert, Scott Adams, 2016
4/4
Pouvons nous en tant qu’utilisateurs établir un contrat de confiance avec ces médias ?
Si nous souhaitons garantir la responsabilité des médias sociaux en terme d’utilisation de nos données personnelles et de diffusion de contenus idéologiques, nous devons définir clairement les termes du “ contrat moral ” que nous passons avec ces derniers, pour cesser d’entretenir le flou économico-idéologique ayant mené à l’affaire Cambridge Analytica. Comme je l’ai évoqué dans la première partie de cet article, le rôle de l’État dans cette régulation est fondamental, mais loin d’être suffisant. L’État français a cependant récemment pris conscience de l’importance de ces sujets et commencé à légiférer dans ce sens, en votant le 22 décembre 2018 la “ loi relative à la lutte contre la manipulation de l'information ”. Celle-ci s’applique aux “ opérateurs de plateforme en ligne [...] dont l'activité dépasse un seuil déterminé de nombre de connexions ” et leur impose un certains nombres d’impératifs et de règles dans les trois mois précédant une élection “ au regard de l'intérêt général attaché à l'information éclairée des citoyens en période électorale et à la sincérité du scrutin ”. Facebook et les autres médias sociaux sont donc notamment tenus de “ fournir à l'utilisateur une information loyale, claire et transparente ” sur l'identité des annonceurs qui “ versent à la plateforme des rémunérations en contrepartie de la promotion de contenus d'information se rattachant à un débat d'intérêt général ”, mais aussi de “ rendre public le montant des rémunérations reçues en contrepartie de la promotion de tels contenus d'information lorsque leur montant est supérieur à un seuil déterminé ” sous la forme d’un registre électronique ouvert mis à la disposition des utilisateurs. La loi se veut aussi plus répressive, permettant au juge des référés (juge administratif permettant d'obtenir en urgence des mesures provisoires et rapides) de prendre “ toutes mesures proportionnées et nécessaires ” pour faire cesser la diffusion sur les médias de toutes “ allégations ou imputations inexactes ou trompeuses d'un fait de nature à altérer la sincérité du scrutin à venir [...] diffusées de manière délibérée, artificielle ou automatisée et massive ”. Enfin, la loi stipule que les plateformes s’engagent à lutter contre la diffusion de telles informations, en mettant en place “ un dispositif facilement accessible et visible permettant à leurs utilisateurs de signaler de telles informations ”, mais aussi des mesures complémentaires concernant “ la transparence de leurs algorithmes ” ou “ la lutte contre les comptes propageant massivement de fausses informations ”, bien que le texte reste assez peu précis concernant ces derniers points.

De nombreux députés ont critiqué cette loi, approuvée à seulement 347 voix contre 204, la jugeant inutile, inefficace et menaçante pour la liberté d'expression. Cette posture peut sembler naïve au regard du besoin urgent de transparence quant aux actions de ces plateformes, et le manque de spécificité du texte témoigne de la difficulté pour nos représentants politiques de s’emparer d’enjeux technologiques dont ils peinent souvent à comprendre les fondamentaux. S’il me semble pertinent de contraindre Facebook de manière préventive avant que ne se produise une affaire similaire à Cambridge Analytica en France, les modalités d’application de cette loi paraissent encore très incertaine, une question aussi soulevée à plusieurs reprises dans les débats politiques. Interrogée à ce sujet pour RT France, Nathalie Mallet-Poujol, chercheur au CNRS en sociologie et sciences du droit et ancien avocat au barreau de Paris, se disait “ sceptique sur la faisabilité de cette mesure de référé spécifique ”. Face à l'urgence de la procédure prévue par la loi, elle s’interrogeait sur la possibilité de “ juger sous 48 heures de la véracité d'une information ” dans la mesure où “ il faut être certain de la fausseté de l'information ”. Elle rappelait en effet que “ le concept de manipulation de l'information est plus difficile à saisir que celui de la fausseté : c'est à la fois juridique et politique ”, rejoignant ce qu'expliquait Nathaniel Gleicher (dans l’article du Monde évoqué plus haut) au sujet de la complexité de la lutte contre les tentatives de manipulation ou de corruption chez Facebook dans le cadre des élections européennes. Le flou qui demeure dans le texte et dans son application reflète donc bien la difficulté de poser des régulations précises aux pratiques d’Astroturfing : celles-ci reposent sur la dissimulation de l’origine réelle des messages diffusés, facilitée par la structuration en réseaux de plus en plus tentaculaire des médias sociaux, et rendent donc de plus en plus complexe de surveiller l’ensemble du système et de remonter rapidement à la source des informations. L’avenir nous dira quels moyens les États seront prêt à mettre en place pour mener ce travail, et quel pouvoir de restriction ils pourront et voudront exercer réellement sur ces médias...

Je crois que nous ne pouvons cependant pas nous reposer seulement sur la loi pour définir notre rapport aux médias sociaux que nous utilisons. Comme l’expliquait Fabrice Epelboin avec l’exemple de Facebook en Tunisie, “ les médias sociaux nourrissent une grande possibilité de libération pour les populations ”, en leur permettant de faire communauté, de débattre, et de se fédérer pour porter des messages avec une ampleur qui serait difficile à atteindre autrement. Pour que cette utilisation reste contrôlée, il me semble donc primordial que nous prenions l’habitude de questionner les médias sociaux que nous utilisons et de modérer l'usage que nous en faisons. Ce "contrat social" que nous établissons tacitement avec ces systèmes doit répondre à divers enjeux, les principaux étant l’utilisation faite de nos données et la transparence du système quant à l’origine et la visée des annonces et des contenus auxquels il nous expose. Pour cela, nous devons apprendre à démêler la complexité des acteurs “ en amont ” de ces systèmes, fournisseurs de technologies et de contenus qui ne sont plus clairement identifiables ni responsables, mais aussi celle de l'aval, groupes multiples d’usagers interdépendants qui s’influencent mutuellement entre eux en interagissant. S’il peut être compréhensible que nous concédions à ces systèmes une partie de notre vie privée sous formes de données personnelles en échange d’usages utiles et confortables, c’est cette relation entre amont et aval qui doit être définie et mise en débat.
Dilbert, Scott Adams, 2019
Dans la mesure où nous consentons à fournir nos données personnelles à des fins commerciales aux grands médias sociaux, nous sommes légitimement en droit d’exiger en retour de savoir ce qu’ils en font, et de faire pression sur eux collectivement via l’utilisation que nous faisons de leurs services, sachant que c’est de cette utilisation que dépend leurs profits. Après l’affaire Cambridge Analytica, Facebook a bien compris la crise de la confiance qu’il a fait subir à ses utilisateurs, alors qu’une étude du Pew Research Center, centre de recherche statistique américain, a évalué que 26% des Américains ont décidé de supprimer l'application du réseau social de leur mobile quelques mois après le scandale, proportion atteignant même 44% chez les jeunes utilisateurs. Cette pression sociale, s’ajoutant aux comptes que le média a dû rendre à la justice américaine, a eu des conséquences : l’entreprise a par exemple annoncé travailler au chiffrement des conversations de ses utilisateurs, ce qui empêcherait Facebook de pouvoir lire ce que nous y écrivons, même si le système pourrait encore récupérer nos données contextuelles. Face aux scandales de manipulation de l’opinion dans certains pays, Mark Zuckerberg a aussi annoncé que Facebook n’implanterait plus de serveurs dans des pays dotés de “ mauvais bilans en matière de vie privée et de liberté d’expression ”, quitte à renoncer à certains marchés, comme la Chine. Joël de Rosnay, actuel président de la cité des sciences et du palais de la découverte, prédisait déjà en 2007 l’importance de ce “ feedback citoyen ” dans son livre “ 2020 : Les Scénarios du futur ”. Il y abordait notamment le développement des médias de masse, analysant que leur essor “ nous laisse entrevoir une opportunité d’équilibrer la société plus efficacement, en trouvant un compromis entre la régulation par le haut et la corégulation par le bas ”. Cette vision qu’il appliquait alors au champ politique, pour lequel la structuration des citoyens constitue un “ contre-pouvoir fondé sur l’intelligence connective et les médias des masses ”, s’applique donc aujourd’hui aux médias de masse en eux-même, qui dépendent économiquement de leurs utilisateurs et peuvent donc être impactés par l’utilisation que ces derniers font de leur système.

Afin de rendre impactante cette pression que nous pouvons mettre en tant qu’utilisateurs sur ces grands médias, nous devons donc nous éduquer à décortiquer et analyser leurs logiques de fonctionnement, pour discerner leurs intérêts comparativement aux nôtres. L’éducation populaire à ces sujets pourrait je crois constituer un sujet sociétal de grande importance dans les années à venir, auquel notre système éducatif devra en particulier s’atteler. De la même façon que certaines écoles et universités proposent déjà des cours d’éducation aux médias, il devient urgent de proposer aussi une éducation aux médias sociaux, afin d’accompagner les utilisateurs inexpérimentés dans l’usage qu’ils en font. Un lieu commun voudrait que la jeune génération ayant grandi avec ces systèmes en maîtrise parfaitement les codes, ce qui est je crois totalement faux. Ayant eu l’occasion de discuter de ce sujet avec plusieurs professeurs de lycée, ils m’ont expliqué que si leurs élèves maîtrisent en effet les usages de ces plateformes, ils sont loin d’en comprendre les principes de fonctionnement, les modèles derrières les interfaces simplifiées. Pourtant une étude de la CNIL datant de 2017 montre que les enfants se mettent aujourd'hui à naviguer sur ces réseaux de plus en plus jeunes, sachant que 57% des élèves du collège sont connectés à Facebook, 18% des moins de 13 ans y ayant même leur propre compte, enfreignant l’âge minimal d’utilisation autorisé par le média. Dans le même temps, l’étude montrait que ces jeunes utilisateurs sont loin d’être éduqués aux pratiques de ces réseaux, seuls 55% de ces jeunes utilisateurs discutant avec leurs parents de l’utilisation qu’ils en font et 50% d’entre eux s’y connectant seuls depuis leur ordinateur personnel. Alors que l’éducation que les plus jeunes utilisateurs reçoivent ne va pas de pair avec l’âge auquel ils sont exposés à ces systèmes, il est primordial de changer d'approche et de développer très tôt ce recul critique chez ces jeunes générations. Comme l’évoquait dans une conférence Joël de Rosnay au sujet des nouvelles technologies et des informations qu’elles véhiculent, il est primordial pour la jeune génération de les “ re-contextualiser [...] dans un contexte social, économique, politique, technologique ”. Il prônait pour cela une co-éducation trans-générationnelles : les plus âgés qui ont vu naître ces technologies aidant les plus jeunes à comprendre leurs origines (à condition d’y avoir été éduqué donc)… et se faisant en retour aider par les plus jeunes dans la maîtrise des nouveaux usages de ces systèmes ! Cette recontextualisation me semble en effet essentielle à la définition du contrat moral passé entre fournisseurs et usagers de ces technologies, permettant de rééquilibrer ce que l’utilisateur sait du fonctionnement du système relativement à ce que ce dernier sait de ses utilisateurs.

Les commentaires autour de l’affaire Cambridge Analytica et de ses équivalents internationaux ont énormément parlé de manipulation de l’opinion, comme j’ai parfois pu le faire dans cet article, véhiculant l’idée que les utilisateurs en ayant été victimes n’ont rien pu faire. S’il est vrai que de telles manipulations ont lieu à nos dépens, je crois que nous ne pouvons cependant pas rester inactifs face à elles. Au delà d'exiger d’éventuelles actions de régulation de ces plateformes par les États, nous devons reconnaître notre responsabilité individuelle face à ces nouveaux usages des médias sociaux : celle de développer notre compréhension et notre esprit critique, afin de faire preuve de discernement lorsque nous naviguons sur ces plateformes. Car si la manipulation a une limite fondamentale, c’est celle de notre refus à nous faire manipuler. La connaissance des logiques de fonctionnement des médias sociaux est donc une première étape pour être conscient de cette potentielle manipulation et nous en méfier. Nous pouvons ensuite approfondir ce travail par la restriction des données personnelles que nous livrons à ces systèmes. Enfin, le “ fact checking ”, vérification systématique des contenus auquel nous sommes exposés et que nous diffusons sur ces médias constitue un autre niveau d’implication primordial. Le contrat fournisseur/utilisateur ne peut pas être unilatéral, il doit aussi nécessiter un engagement fort des usagers : face à l’ampleur que prennent aujourd’hui les médias sociaux et leur rôle dans nos sociétés, nous devons devenir moins passifs et faire preuve de plus de recul critique dans l’utilisation que nous en faisons.
Fake News affirmant que le pape François soutient Donald Trump pour l'élection présidentielle de 2016, anonyme, 2016
Conclusion
L’affaire Cambridge Analytica et ses équivalents internationaux ont permis de mettre en évidence le rôle aujourd'hui très fort joué par les médias sociaux dans les débats sociétaux, et l’impact de ces derniers sur l’opinion publique. Les techniques commerciales de profilage et de communication s’exportent depuis quelques années en politique, transformant peu à peu ce domaine en marché comme un autre. L’utilisation de Facebook à des fins idéologiques est donc la suite logique de cette évolution des pratiques politiques. Cependant, nos usages et notre perception de ces plateformes n’ont pas encore évolué en conséquence, du fait de la structuration en réseau tentaculaire de ces systèmes et de leur manque de transparence quant à l’origine et la visée des contenus qu’ils diffusent. Nous sommes aujourd’hui confronté en tant qu’utilisateurs à de nombreux acteurs “ en amont ” de ces systèmes, fournisseurs de technologies et de contenus qui ne sont pas toujours clairement identifiables ni tenus responsables de ce qu’ils publient. L’affaire Cambridge Analytica a eu le mérite de réveiller l’opinion publique et le champ politique, tout en provoquant une crise de la confiance envers Facebook, forçant le média a aller vers plus de transparence et de contrôle concernant l’origine des contenus qu’il diffuse et le traitement des données personnelles de ses utilisateurs. Les premières tentatives de régulation des médias sociaux par l’État français sont cependant imparfaites, et surtout complexes à appliquer dans les faits. Nous ne devons donc pas nous contenter de cela en tant qu’usagers de ces plateformes : il est essentiel que nous prenions part activement à la définition du contrat moral tacite que nous passons avec elles. Nous devons, pour cela “ négocier ” les données que nous acceptons de leur céder en fonction de l’utilisation qui en est faite et proportionnellement au bénéfice d'usage que nous en retirons. L’intrusion de pratiques commerciales de plus en plus agressives dans nos usages numériques nous force à développer notre connaissance de ces techniques de manipulation et notre esprit critique, afin de pouvoir vérifier et remettre en question les informations auxquelles nous soumettent ces médias. Ce n’est qu’à ce prix que nous pourrons équitablement tirer partie de leur potentiel en tant qu’outils pour faire communauté et se fédérer entre utilisateurs pour débattre et porter des revendications.
* Propos traduits par l'auteur

Pour toute question, commentaire ou proposition de collaboration :
martinmoreau95@gmail.com