Les algorithmes au crible des 6 thématiques de l’éducation aux médias

De nombreux acteurs de l’éducation [1], de l’information et de la défense des libertés individuelles ont dénoncé la malice avec laquelle les algorithmes collectent nos données numériques et permettent à leurs programmateurs de les exploiter. La réponse éducative à apporter à cet enjeu à la fois technique, social et politique reste pourtant balbutiante. Confronter les algorithmes de recommandation au modèle des « 6 thématiques de l’éducation aux médias [2] » permet d’élargir l’horizon pédagogique.

Le terme « algorithme » désigne « un ensemble d’opérations ordonné et fini devant être suivi dans l’ordre pour résoudre un problème [3] ». Considéré dans sa forme la plus simple, l’algorithme est ainsi une sorte de formule, de recette : certaines actions entrainent certaines conséquences automatiques. Appliquée au numérique, cette « programmation » est omniprésente. Une grande majorité des algorithmes auxquels nous sommes confronté·es se borne pourtant à réaliser les tâches élémentaires qui permettent de « faire fonctionner » nos applications ou logiciels. Ils répondent docilement aux mouvements de pouce, aux clics de l’internaute.

D’autres algorithmes dépassent cette mission élémentaire : ils collectent nos données d’utilisation et les transmettent à l’éditeur du site ou de l’application, mais aussi à des sociétés tierces. C’est notamment leur pouvoir de « suggestion » qui impose un questionnement de société. Pourvoyeurs de contenus informationnels, ils peuvent être envisagés comme « médias ». Ces données collectées sont, d’après Dominique Cardon, à classer dans quatre catégories différentes de calcul, qui opèrent « à côté, au-dessus, dans ou en dessous des données numériques [4]. »

Les catégories d’algorithmes : peut-on localiser leur action ?

À côté de nos données se joue la question classique de l’audience : les algorithmes qui y évoluent dénombrent « platement » les chiffres de fréquentation d’un site, d’une page. Ils définissent leur « ranking » en regard des autres : celui qui a le plus de visites est le plus populaire, et sera valorisé par le moteur de recherche.

D’autres astucieux algorithmes, imaginés par le moteur de recherche Google notamment, dépassent cette simple comptabilisation des adresses IP connectées à un site, et agissent au-dessus des données : « plutôt que de demander à l’algorithme de comprendre ce que dit la page, ils vont proposer de mesurer la force sociale de la page dans la structure du web [5]. » Les interactions « entre sites » sont ici en jeu. Si les liens vers une page se multiplient dans d’autres sites, cela nourrira également sa mise en valeur en regard des pages concurrentes. Ces deux « profils » d’algorithmes mettent en évidence une caractéristique souvent reprochée au territoire Internet : il s’agirait d’une méritocratie absolue. Google s’en défend pourtant, valorisant la clairvoyance d’algorithmes complémentaires, évaluant la « qualité » des contenus d’une page Internet selon une variété de critères [6].

Nous participons, nous aussi, en tant qu’utilisateurs et utilisatrices, à nourrir les algorithmes situés à l’intérieur de nos applis. « Le symbole de ces nouveaux calculs est le like de Facebook, pointe avancée d’un ensemble beaucoup plus large et disparate d’indicateurs mesurant la taille des réseaux personnels par le nombre d’amis, la réputation acquise en fonction du nombre d’informations publiées que d’autres internautes ont ensuite commentées et partagées, le nombre de fois où le nom de l’internaute a été prononcé dans la conversation des autres, etc. [7] » Nous avons tous et toutes déjà constaté les conséquences du travail algorithmique basé sur les opportunités d’interactions sur les réseaux sociaux : un « ami » Facebook qui n’est jamais liké, ou dont les posts ne font pas débat, se transforme en homme invisible. La réflexion sur l’algorithme ou la mise en pédagogie de ses méfaits est quelque peu déplacée : nos usages anodins sont aussi à ausculter pour déduire l’instrumentalisation qui en est faite. Mais toutes les contributions jouent-elles un rôle identique dans la valorisation d’un post  ?

En octobre 2021, le Washington post dénonçait un déséquilibre préoccupant : les emojis (like, cœur ou visage exprimant une émotion) exploités par les utilisateur·rices valent des points. Mais si un like vaut pour un point, un visage en colère vaut, lui, pour 5 points. Les contenus qui clivent sont ainsi (largement) favorisés par l’algorithme de la plateforme, et apparaissent plus volontiers dans les fils d’actu. Pourtant, « les data scientists de la société (Facebook) avaient confirmé en 2019 que les publications qui provoquent une réaction de colère étaient susceptibles de manière disproportionnée d’inclure de la désinformation, des contenus toxiques et des nouvelles de mauvaise qualité [8]. » Nos usages spontanés permettent ainsi à Facebook de mettre certains contenus à l’agenda de nos débats. Qu’importe leur vertu, tant qu’ils génèrent des interactions.

Dans le même ordre d’idée et pour terminer ce tour d’horizon proposé par Dominque Cardon, il s’agit d’évoquer d’autres algorithmes qui prêtent le flanc à la critique : ceux qui se situent en-dessous de nos usages. Ils se nourrissent en effet de nos habitudes, de nos clics afin de prédire ceux à venir, nous en suggérer la « meilleure » sélection. « Le futur de l’internaute est prédit par le passé de ceux qui lui ressemblent [9]. »

Approcher les algorithmes en tentant de les « catégoriser » offre une première opportunité pour la réflexion critique : situer où, quand, et éventuellement comment ils entrent en action.

Les producteurs d’algorithmes : À qui profitent les clics ?

À la sentence « c’est gratuit sur internet » a répondu une autre : « si c’est gratuit c’est que vous êtes le produit ». Rien ne sert de repérer la présence des algorithmes si ce n’est pour comprendre la fonction qu’ils remplissent pour ceux qui les ont programmés. S’appliquent sur le territoire en ligne les mêmes préceptes économiques que dans la vraie vie : des multinationales y déploient leurs tentacules, des commerçants de tous poils y vendent des objets hi-tech ou des programmes de remise en forme, des agences de communication y sont mandatées pour diffuser l’argumentaire politique d’un candidat ou d’une cause. La mise en lumière des flux financiers et des jeux de pouvoirs qui animent l’espace numérique permet, pour l’utilisateur ou l’utilisatrice, de faire des choix conscients : à qui, précisément, profitent les algorithmes ?

Puisqu’Internet n’est pas si gratuit que ça, où et comment sont redistribués nos frais d’abonnement ? Pourquoi nos données de navigation valent-elles de l’argent ? On le pressent, l’entreprise éducative, dans cette perspective, n’est pas aisée. C’est dans l’infrastructure d’internet qu’il faut se plonger pour observer le truchement des fils qui se tissent entre entreprises, lobbies, fournisseurs et « clients ». Les flux de données et d’informations sont régis par des règles initialement implicites, parfois formalisées par le législateur, mais souvent imposées de facto par l’Entreprise, et peu connues du public. Ce sont les serrures installées par des stratèges du business et des avocats qu’il s’agit de forcer. Par où commencer et comment situer l’internaute dans cet environnement hostile ?

Le terme de "rabbit hole" (le terrier du lapin) exprime ce sentiment de fuite en avant face aux vidéos qui défilent sur la plateforme.

Une pédagogie pourrait par exemple s’appuyer sur les enjeux qui entourent l’omniprésence des publicités sur la plateforme YouTube. On constate que « les recommandations sont à l’origine de 70 % des consultations de vidéos sur YouTube, soit 250 millions d’heures par jour dans le monde [10] ». D’autre part, le chiffre d’affaire issu de la vente de publicités sur YouTube s’élevait en 2020 à 19,77 milliards de dollars. Comment mettre en lien ces deux éléments ? Peut-on en déduire les raisons de la survalorisation de certains contenus plutôt que d’autres [11] ? L’investigation sur ces questions pousse invariablement au même constat : les grandes plateformes agissent au fond comme de gigantesques agences de pub, instrumentalisant les vidéos diffusées pour mettre marques et clients en connexion directe [12].

Le langage : écrire des algorithmes pour apprendre à les repérer ?

L’apprentissage et la maîtrise des langages médiatiques occupe une place importante dans l’éducation aux médias, notamment depuis la démocratisation des outils : apprendre le langage du cinéma permet, par exemple, d’argumenter son interprétation d’un film, mais aussi d’en réaliser un soi-même. En comprenant « comment c’est écrit », l’idée est ici de comprendre « comment le lire », et « comment le faire ».

L’Organisation de Jeunesse Action Médias Jeunes propose, avec Dans la peau d’un algorithme, de plonger les participant·es dans une démarche ludique : « Cette activité déconnectée propose aux participants de créer leurs propres algorithmes de recommandation sur base de données concernant des vidéos en ligne et de leurs audiences. Il confronte les participants à leurs représentations à propos des algorithmes, tout en les amenant à comprendre certains principes de base du fonctionnement des systèmes algorithmiques [13]. » L’Edu-Lab, basé à Charleroi, défend, lui, une démarche d’appropriation des « machines » dans une perspective pédagogique. Il « a été aménagé à l’image de la classe flexible tout en proposant (…) du matériel innovant (robots, drones, imprimantes 3D, casques de réalité virtuelle, écran interactif etc.) (permettant) de découvrir un panel d’outils numériques variés mais aussi des pistes, des méthodes, des réflexions pour les intégrer au mieux dans les apprentissages [14] ». C’est aussi la philosophie défendue par les cocottes minutes créatives que sont les « fablabs », à l’image du Fablabke, basé à Molenbeek, qui se définit comme un « un atelier de fabrication numérique à vocation pédagogique [15] ».

L’opportunité est présente : en maîtrisant le langage de la machine, on peut l’exploiter, et passer d’un usage passif à une exploitation créative. Mais sont ici occultées d’autres dimensions réflexives, complémentaires.

Les technologies : des algorithmes dans tous les recoins de la maison ?

L’omniprésence dans nos vies des écrans connectés fait aujourd’hui figure d’évidence. L’enquête #Génération2020 [16] a par exemple confirmé que 94% des jeunes entre 12 et 18 ans utilisent régulièrement un smartphone. La maniabilité de cet outil et la spontanéité avec laquelle nous en faisons usage ne facilite pas l’identification des mécanismes qui le régissent, en l’occurrence les algorithmes. Le banal écran de télévision accueille aussi de plus en plus d’usages connectés : YouTube ou Netflix, plateformes plébiscitées pour la découverte de contenu audiovisuel, y remplacent volontiers les chaînes de télévision historiques. Les enfants, quant à eux et elles, privilégient la tablette pour leurs jeux et leurs séances de visionnage. L’ordinateur, bien qu’il ait perdu du terrain face aux potentialités d’autres supports, a vu sa cote réévaluée par la nécessité du « home working » ou de « l’e-classe », pendant les périodes de confinement successifs de 2020 et 2021.

Astro, le robot ménager imaginé par Amazon.

Mais au-delà de ces supports « évidents », d’autres innovations imposent de nouveaux questionnements, notamment autour de la collecte de données personnelles : nos maisons peuvent être « connectées » et « intelligentes » grâce aux Google Home, Alexa et autre Triby. Amazon a même lancé en septembre 2021 son « robot patrouilleur », nommé Astro. Il a des yeux et des oreilles, et peut se déplacer dans la maison, mais son utilité semble nébuleuse… même pour ses créateurs. « Amazon lui-même ne semble pas certain de l’usage qui pourra être fait de la machine. Dans un entretien avec le magazine spécialisé Wired, Dave Limp, le responsable “hardware” chez Amazon, a assuré que rendre accessible le robot permettrait de lui trouver de nouveaux usages [17] ». Facebook a également lancé ses « lunettes intelligentes » dont l’absolue nécessité dans la vie de tous les jours ne saute pas non plus aux yeux.

Les outils numériques ont l’art de se rendre indispensables, grâce aux algorithmes qui « apprennent » nos modes de vie pour mieux nous servir. Mais le dosage de leur exploitation, ou la remise en question de leur nécessité, a toute sa place au sein d’une réflexion éducative, afin de faire le tri entre les gadgets et les outils permettant de réelles avancées sociétales.

Le public : nos interactions sociales au rythme des algorithmes ?

En 2021, une étude réalisée aux États-Unis montrait que « 60% des représentants de la génération Z (les personnes nées dans les années 1990 – 2000) et 62% des millenials (nés dans les années 1980 – 1990) affirment que la manière dont ils se présentent en ligne est plus importante que la manière dont ils apparaissent en personne [18] ». C’est un état de fait : la vie sociale, dans les sociétés occidentales, se déploie pour une (bonne) partie en ligne, à travers une variété de profils et d’avatars. Nous exploitons nos réseaux sociaux pour manifester notre approbation (ou pas) face au message posté par un de nos « amis » ou par une personnalité publique. Comment ces contributions sont-elles exploitées par les algorithmes de nos applis et comment influent-elles sur nos expériences sociales ?

Notre vie en ligne est rythmée par les contenus proposés par des « leaders », particulièrement séduisants ou subtils dans leurs formulations. Les algorithmes popularisent certains ou certaines, parce qu’ils ou elles font du « clic » et génèrent du trafic, et invisibilisent d’autres, considérés plus « encombrants ». Nos applis, fréquemment, nous suggèrent d’entrer en contact avec tel profil, supputant notre intérêt pour cette personne. Les algorithmes classent et ordonnent les groupes sociaux auxquels nous « appartenons ». Et, comme nous l’avons découvert précédemment, les relayeurs de contenus qui provoquent l’indignation ont toujours plus de chance de faire le buzz.

Pour approcher cette question dans une perspective éducative, le jeu de rôles peut se révéler porteur. Il n’est probablement pas aisé de se glisser artificiellement dans les chaussures de quelqu’un d’autre pour imaginer de manière abstraite les contenus qu’il ou elle voit, les interactions sociales qui sont favorisées sur ses canaux, ou les contenus auxquels il ou elle est exposée, les profils « valorisés ». Alors pourquoi pas « jouer un personnage », rédiger sa fiche d’identité (ses tendances politiques, ses goûts…) avant de lui donner vie, en ligne ? Quels seront les contenus suggérés à cet alter-égo ? Qu’est-ce qui se dit dans les groupes auxquels il adhère ? Mais aussi et finalement, quelle représentation du monde ces interactions offrent-elles ?

Les représentations : des algorithmes qui reproduisent les inégalités ?

Judith Duportail, autrice de L’amour sous algorithme, a découvert lors de son enquête sur Tinder que « l’on nous évaluait selon un niveau de "désirabilité", notre niveau d’études et notre niveau de revenus, pour que notre profil soit ensuite montré à certaines personnes et pas à d’autres. (…) Le système de jumelage de Tinder, sous brevet, était un système de classement où l’application fait en sorte de créer des paires dans lesquelles l’homme est supérieur à la femme. Il présentait aux femmes des profils d’hommes soit plus âgés, soit ayant fait plus d’études, soit ayant davantage d’argent [19]. » Corolaire de la publication de cet ouvrage ou pas, l’application de rencontre affirmait en 2020 avoir changé son fusil d’épaule en privilégiant dorénavant la proximité géographique pour proposer des « match » aux utilisateurs et utilisatrices.

Il existe bel et bien des « biais algorithmiques ». Les algorithmes de reconnaissance faciale, par exemple, peinaient initialement à opérer sur des visages à la peau noire [20]. « Entraînés » à l’identification de personnes blanches, ils reproduisaient la vision du monde des informaticiens qui les ont programmés. Pour Aurélie Jean, autrice et informaticienne, « l’algorithme n’est pas coupable. il n’est pas sexiste, il n’est pas raciste (…) ce sont nous, les humains, qui devons prendre responsabilité par rapport à ces algorithmes, parce que derrière chaque algorithme, il y a au moins une personne, plusieurs personnes, qui vont réfléchir, penser, concevoir, tester, vendre et utiliser ces algorithmes ».

Notre réflexion a (forcément) été rythmée par les considérations techniques complexes qui émergent quand on confronte les algorithmes. Mais ces deux dernières approches imposent une réflexion essentielle : nous pouvons, en tant que citoyen et citoyenne, occuper une place active pour désamorcer les problèmes qu’ils posent.

Éduquer les internautes, ou éduquer les plateformes ?

Approcher les algorithmes par le prisme des « catégories » ou des « technologies » permet d’identifier « où et quand » ils sont en action. En identifiant les « producteurs », on peut tenter de répondre au « pourquoi » de leur présence. L’apprentissage de leur « langage » nous confronte à une autre question : « comment » fonctionnent-ils ? Et finalement, en situant les « représentations » qu’ils forgent auprès des « publics », se pose l’enjeu central : « quels sont leurs effets ? ».
Citoyennes et citoyens n’ont pas attendu ce tour d’horizon pour que la résistance s’organise. Martin Biéri, Régis Chatellier et Antoine Courmont rappellent la « diversité des pratiques quotidiennes de résistance à la collecte de données mises en avant par les enquêtes empiriques sur les usages numériques. Les individus négocient, au cas par cas, leur vie privée : ils développent des stratégies pour contrôler les informations qu’ils souhaitent diffuser et à qui. Du morceau de scotch sur la webcam à la fourniture de fausses informations dans les formulaires en passant par l’installation d’un bloqueur de publicité ou l’utilisation de plusieurs adresses email, les individus mettent en œuvre des tactiques et développent des compétences profanes en matière de protection de leurs données personnelles [21]. » Si nous nous accommodons autant que faire se peu de leur présence, différentes démarches éducatives, entrevues ci-dessus, peuvent pourtant enrichir l’armada de trucs et astuces visant à déjouer le diktat algorithmique, ou même le retourner à son avantage. « Dès que nous pensons à la présence de calculateurs dans nos sociétés, nous maudissons la froide rationalité des machines et redoutons qu’elles prennent le pouvoir sur nous. Nous aimons leur opposer “notre” subtile sagacité [22]. » Sous influence algorithmique ou pas, les outils numériques ne répondent finalement qu’à nos actions. Utilisatrices et utilisateurs sont au centre de l’échiquier. De cette « sagacité » à la mobilisation concrète, des voies peuvent s’ouvrir afin que les algorithmes s’accordent à nos besoins et nos valeurs, et pas l’inverse.

Brieuc Guffens

Télécharger et imprimer cette analyse

Média Animation est partenaire du projet algopinion.brussels : « un projet de recherche qui étudie les effets des algorithmes et des réseaux sociaux sur les opinions des jeunes ». Le rapport de cette recherche, mettant en question les bulles de filtres et le rôle qu’elles jouent, est disponible ici. Il préfigure la diffusion d’outils pédagogiques sur cette thématique.

[1Jean-Claude Domenjoz, Des algorithmes qui façonnent notre vision du monde, educationauxmedias.ch, 07/08/2017. https://educationauxmedias.ch/des-algorithmes-qui-faconnent-notre-vision-du-monde/

[2La grille de lecture des 6 thématiques s’inspire d’un ouvrage de Len Masterman (Teaching the Media, Routledge, 1986) et a été formalisée par le Groupe de Recherche en Médiation des Savoirs (GREMS – UCLouvain) en 1995 (https://sites.uclouvain.be/grems/cem/p142.html).
Un autre exemple de son exploitation est à découvrir dans cette analyse dédiée aux jeux vidéo :
Daniel Bonvoisin, Les six thématiques de l’éducation aux médias et le jeu vidéo, Bruxelles, 2014. https://media-animation.be/Les-six-thematiques-de-l-education.html

[3Lebigdata.fr, Algorithme : mais en fait, qu’est-ce que c’est et à quoi ça sert ?, 14 juin 2021. https://www.lebigdata.fr/algorithme-definition-tout-savoir

[4Dominique Cardon, À quoi rêvent les algorithmes ? Nos vies à l’heure des big data, Seuil, La république des idées, 2015, p 17.

[5Dominique Cardon, idem, p 25.

[7Dominique Cardon, idem, p 29.

[8Jeremy B. Merrill et Will Oremus, Five points for anger, one for a “like” : How Facebook’s formula fostered rage and misinformation, The Washington Post, 26/10/21. https://www.washingtonpost.com/technology/2021/10/26/facebook-angry-emoji-algorithm/

[9Dominique Cardon, idem, p 34.

[10Le Monde, L’algorithme de recommandation de YouTube critiqué pour sa mise en avant de contenus extrêmes, Le Monde, Paris, 16/10/2019. https://www.lemonde.fr/pixels/article/2019/10/16/l-algorithme-de-recommandation-de-youtube-critique-pour-sa-mise-en-avant-de-contenus-extremes_6015784_4408996.html

[11Le film 100 millions de vues, réalisé par Itamar Rose, offre une tentative de réponse à ces questions. https://www.youtube.com/watch?v=OQSNhk5ICTI&t=1s

[12Le youtubeur Nota Bene, pour sa part, a produit plusieurs supports pour mettre en question ce qui se trame derrière la monétisation des contenus qu’il diffuse, et des questions éthiques que cela pose. https://www.facebook.com/watch/?v=691230021550668

[16Média Animation, #Génération2020 – Les jeunes et les pratiques numériques, 2020, p18.

[17Thomas Casavecchia, Astro, le robot inutile mais mignon qui veut tout savoir de vous, Bruxelles, Le Soir, 03/10/2021. https://www.lesoir.be/398351/article/2021-10-03/astro-le-robot-inutile-mais-mignon-qui-veut-tout-savoir-de-vous

[18Blaise Mao, La vie par procuration, Paris, Usbek & Rica #33 (éditorial), automne 2021.

[19AFP, Les dessous des algorithmes des applications de rencontre, 13/02/2020. https://ici.radio-canada.ca/nouvelle/1520697/application-rencontre-algorithme-tinder-amour-relation-partenaire

[21Martin Biéri, Régis Chatellier et Antoine Courmont, Quand les données personnelles font problème, AOC, 04/06/21. https://aoc.media/opinion/2021/06/03/quand-les-donnees-personnelles-font-probleme/

[22Dominique Cardon, idem, p7.

Ceci peut aussi vous intéresser...