Les bulles de filtre et autres dérives algorithmiques : comment réagir ?

Les algorithmes conditionnent notre accès à l’information à travers des procédures de plus en plus opaques, aux résultats de moins en moins maîtrisés. Ils trient et filtrent notre environnement informationnel et cela engendre d’importantes dérives.

Malgré leur efficacité, ils sont à l’origine d’un ensemble de dégâts collatéraux, parmi lesquels les bulles de filtre, les biais discriminatoires et la censure, l’incitation à la violence, la viralité des contenus complotistes et des fake news. Dans cet article, nous voulons brosser le tableau de ces effets indésirables et lancer quelques pistes de réflexion pour s’en prémunir.

© Erika Elrt

Les algorithmes nous enferment dans une bulle de filtre

A force de choisir pour nous les résultats les plus susceptibles de nous intéresser, les réseaux sociaux finissent par nous enfermer dans ce qu’on appelle « une bulle de filtre » ou « une chambre d’écho », c’est-à-dire un environnement qui ne renvoie que des opinions semblables à la nôtre. Concrètement, si vous likez ou partagez régulièrement des photos de motos, le réseau en déduira qu’il s’agit d’un centre d’intérêt et favorisera sur votre fil d’actualités tout ce qui concerne les motos. Après un certain temps, vous risquez de nourrir une vision erronée de la réalité en pensant que tout le monde roule à moto.

Si on applique ce principe à nos opinions politiques ou idéologiques, cela peut rapidement devenir problématique. Et lorsqu’on sait que, d’après le Digital News Report 2021 du Reuters Institute, 41% de la population belge choisit de s’informer via les réseaux sociaux[1], on comprend intuitivement que cette conception biaisée de l’information joue un rôle capital dans notre lecture du monde.



Ils favorisent la haine et la désinformation

Les accusations récentes de Frances Haugen à l’encontre de Facebook ont mis en évidence l’effet nocif des algorithmes qui privilégient les contenus les plus clivants et les plus violents afin d’augmenter le bénéfice économique que peut tirer la plateforme des placements publicitaires, forcément proportionnels aux interactions et au temps passé sur le réseau. En automatisant la visibilité des actualités les plus controversées et les plus populaires, les algorithmes ont tendance à inciter à la viralité et, en effet collatéral, à privilégier la désinformation et les messages haineux. Ils auraient également des effets néfastes sur un public fragilisé, ce que semble confirmer une étude interne de la société elle-même.

Ceci représente un véritable problème éthique pour ces plateformes de diffusion pour lesquelles la viralité des fake news et autres fausses nouvelles génère un marché extrêmement lucratif.



Ils reproduisent les biais humains

Ce serait une idée fausse de penser que, parce que les algorithmes sont automatiques, ils sont nécessairement neutres et impartiaux. Créés au départ par des humains, ils ont en effet tendance à en reproduire les biais. L’actualité contient de nombreux exemples de pratiques discriminatoires liées aux algorithmes. Celles-ci sont le plus souvent provoquées par une erreur ou une mauvaise qualité des données de départ, comme cet exemple datant de 2019 qui a eu pour conséquence de désactiver injustement le compte Instagram de nombreux utilisateurs noirs américains. La langue vernaculaire afro-américaine avait par erreur été pondérée comme du contenu haineux, ce qui a provoqué la colère des afro-américains dénonçant un biais raciste. Plus récemment, la technologie de reconnaissance faciale a montré ses limites dans l’identification des minorités en causant l’arrestation abusive d’un citoyen noir américain, Robert Williams, par la police de Détroit.

L’origine de ces discriminations est bien connue : les différentes ethnies ne sont pas équitablement représentées dans les bases de données, de même que la parité homme-femme est rarement respectée. Ainsi, on ne compte plus les algorithmes accusés de sexisme, de racisme, de discriminations en tous genres. Ces erreurs sont rarement volontaires, mais peuvent avoir de lourdes conséquences. La CNIL a d’ailleurs proposé, en 2020, de former et de sensibiliser les acteurs concernés afin d’éviter les discriminations algorithmiques.



Ils exercent une censure automatique parfois abusive

La modération est un réel problème pour les réseaux sociaux. Bannir purement et simplement les termes à forte connotation pornographique ou haineuse conduit régulièrement à des censures ou des fermetures de compte abusives. Sur Instagram, il existerait une technique de modération appelée Shadowban qui masque certains comptes sans le notifier. Les causes de ces bannissements ne sont pas claires, mais il semblerait que l’usage de certains hashtags prohibés puisse suffire[2].

Entre Instagram qui masque le hashtag #lesbians, Facebook qui refuse au mouvement « SEO Lesbiennes » d’ouvrir un compte et Google qui, jusqu’il y a peu, ne proposait pour ce terme aucun site à caractère non pornographique, on peut comprendre les difficultés des membres LGBT à s’exprimer. Et, plus généralement, les revendications de tous les groupes minoritaires. On se rappelle également le casse-tête pour les algorithmes de Facebook de parvenir à censurer les images X sans supprimer le compte de personnes diffusant des peintures célèbres de nus.



Un besoin démesuré de données personnelles, avec risques de fuites

Afin d’augmenter la pertinence des algorithmes (et, en passant, de l’impact des publicités ciblées), les géants du Web ont besoin de récolter un maximum de données personnelles, de précisions sur les goûts et les habitudes des internautes, ce qui mène à un autre problème récurrent : celui des fuites de données.

Dans cette catégorie, on retiendra le scandale Facebook-Cambridge Analytica en 2016, où la fuite des données de plusieurs millions de personnes a permis de diffuser des informations ciblées et d’ainsi influencer le vote des élections américaines.



Manipulation des algorithmes, et donc des résultats

C’est avec cette dernière faille du système que nous refermerons le chapitre des dérives algorithmiques : s’ils se basent majoritairement sur une grande masse d’informations pour fonctionner, cela implique qu’une modification intentionnelle de celle-ci peut influencer les résultats.

Citons comme exemple les nombreux Google bombing dont Google a été la victime. Il s’agit d’une action massive qui force le moteur de recherche à associer un mot-clé à un site en pointant un très grand nombre de fois ce site grâce à un lien hypertexte sur ce mot-clé en particulier. Pensons à l’expression « miserable failure » qui, en 2003, amenait directement sur le site de la Maison Blanche, ou le terme « idiot » qui renvoyait l’internaute vers les photos de Donald Trump.

De là à influencer les résultats dans le contexte d’une présidentielle, il n’y a qu’un pas. C’est en tout cas ce qui a permis de découvrir la ferme à trolls russe Internet Research Agency basée à Saint-Pétersbourg, lors de la campagne américaine de 2016.



Comment réagir ?

Une réaction structurelle devrait de toute évidence être réfléchie, avec un projet d’encadrement éthique de l’intelligence artificielle et des algorithmes. C’est dans ce sens qu’a été déposé un projet de loi par l’Union européenne en avril 2021. Certaines recommandations ont également été émises, notamment par la CNIL et l’OCDE. Une des pistes consiste à offrir une meilleure qualité et représentabilité aux données introduites. La sensibilisation des acteurs reste également un point essentiel.

En ce qui concerne l’enfermement dans des bulles de filtre, nous pouvons déjà, à notre niveau, mettre en place quelques bonnes habitudes :

  • Se déconnecter de son compte avant de surfer, ou surfer en fenêtre de navigation privée
  • Utiliser plusieurs moteurs de recherche
  • Effacer régulièrement les cookies et l’historique de recherche
  • Réfléchir aux mots-clés utilisés, les varier autant que possible
  • Maîtriser les paramètres des plateformes collaboratives, notamment ceux qui influencent le fil d’actu
  • Limiter ses interactions sur les réseaux (like, partage, cacher une publication, etc.)
  • Garder des contacts avec des profils variés
  • Choisir plusieurs sources d’information
  • Rester critique face aux informations diffusées sur les réseaux sociaux
  • Ne jamais partager un post sans en avoir vérifié la fiabilité
  • Ne pas cliquer systématiquement sur les suggestions proposées (notamment par YouTube)

Rester sensible à la thématique et ne pas hésiter à en parler



Article précédent : L’omniprésence des algorithmes : quel impact pour l’internaute ?

 

Michèle ORBAN

Consultante et formatrice en veille informationnelle

Sources :

https://www.unige.ch/comprendre-le-numerique/archives/cas-pratiques/algorithmes-discriminatoires/

https://www.unite.ai/eu-to-launch-first-ai-regulations/

 

[1] https://reutersinstitute.politics.ox.ac.uk/sites/default/files/2020-06/DNR_2020_FINAL.pdf

[2] https://www.blogdumoderateur.com/shadowban-instagram-comment-sortir/

®SECUNEWS

Étiquettes