L’omniprésence des algorithmes : quel impact pour l’internaute ?

Les bulles de filtre, l’incitation à la violence, la viralité des contenus complotistes et des fake news, la censure et les biais discriminatoires sont autant d’effets collatéraux des algorithmes qui trient et filtrent les informations que nous recevons du Web.



Nous n’en avons pas toujours conscience, mais cette manipulation de l’information est omniprésente et influence directement les internautes. Les réseaux sociaux, par exemple, s’adaptent à chaque utilisateur pour lui renvoyer un environnement personnalisé, composé dans le but de susciter le plus de satisfaction possible… Une solution efficace, mais à quel prix ? Ce premier article s’attache à décrire le fonctionnement et l’usage de ces algorithmes. Un second en exposera les différents effets collatéraux.

© Erika Elrt

Qu’est-ce qu’un algorithme et à quoi sert-il ?

Un algorithme désigne une suite logique d’instructions qui permettent de résoudre un problème. Traduit sous forme de langage de programmation, il va se baser sur un jeu de données en entrée et suivre une série d’étapes pour aboutir à un résultat.

Les algorithmes permettent l’automatisation des tâches, ce qui motive leur exploitation dans de nombreux domaines. Ils sont notamment utilisés pour reconnaître les spams, pour améliorer la recherche d’image ou l’impact de la publicité. Ce sont eux également qui trient les candidatures lors d’un recrutement, qui guident les institutions financières dans leurs placements, ou qui extraient du sens depuis une grande masse de données en y détectant des corrélations, des clusters, des anomalies.



L’usage des algorithmes dans les moteurs de recherche et les réseaux sociaux

Notre usage du Web repose également sur l’omniprésence des algorithmes. Les moteurs de recherche les utilisent entre autres pour ordonner les résultats par pertinence. Ils sont aussi à l’origine de la composition des fils d’actualité sur les réseaux sociaux. Dans ce domaine, le premier algorithme célèbre fut proposé par Google lorsqu’en 1998, Larry Page et Sergey Brin décidèrent de classer les résultats de leur moteur de recherche par ordre de citation. Sur le modèle des publications scientifiques, chaque site Web gagnait en visibilité lorsqu’il était cité par un autre site à l’aide d’un lien hypertexte. Depuis lors, l’algorithme du leader mondial s’est amélioré en y intégrant toute une série de critères de pertinence, de fluidité et d’autorité des sites, des critères de géolocalisation et de profil des utilisateurs, ainsi que des critères de données linguistiques permettant une meilleure compréhension du langage naturel et de l’intention de l’utilisateur.

Si cet emboîtage de plus en plus complexe d’algorithmes aboutit à une meilleure pertinence des résultats, il a aussi complexifié le processus au point que plus personne ne connaît plus vraiment les critères qui entrent en ligne de compte pour le classement. Comme la mythique recette du Coca-Cola conservée secrètement dans un coffre-fort d’Atlanta, il est devenu le Saint Graal des référenceurs et de nombreux acteurs du Web regrettent ce manque de transparence.

Ce qui est vrai pour les moteurs de recherche l’est également pour les réseaux sociaux. La timeline de Facebook est régie par des algorithmes tenant compte du profil des « amis », des interactions, des centres d’intérêt. Twitter suit le même principe en priorisant entre autres les similitudes entre mots-clés. LinkedIn, Instagram et tous les autres réseaux sociaux suivent leurs propres algorithmes afin de hiérarchiser de manière personnalisée les fils d’actualité, en privilégiant les contenus les plus susceptibles de plaire à celui qui les consulte. C’est également sur ce principe que fonctionnent les recommandations de YouTube, de Netflix, et de toutes les grandes plateformes de vente en ligne.



Une procédure de classement, mais également de filtrage

Si les algorithmes proposent une méthode de classement, ils jouent également un rôle important dans le filtrage de l’information. Au fil des années, Google a effectivement travaillé à bannir de sa liste de résultats les sites de faible qualité, de faible performance, les sites pillant le contenu d’autres sites (les fermes de contenu), des sites offrant des services suspects, comme l’achat de liens par exemple.

Les réseaux sociaux utilisent également les algorithmes, avec plus ou moins de succès, pour nettoyer leur plateforme de contenus indésirables. Un des procédés de base est par exemple d’éliminer les contributions contenant des mots-clés liés à l’incitation à la haine ou à la pornographie. Cette modération automatique est le plus souvent doublée d’une modération humaine mais, comme pour la recette algorithmique de Google, plus personne ne sait clairement comment cela fonctionne.



Des algorithmes de plus en plus performants grâce à l’intelligence artificielle

Avec l’intelligence artificielle, les algorithmes peuvent aujourd’hui améliorer leur performance sur base de leur propre expérience. Dans la majorité des cas, on introduit une base de données manuellement qui servira d’exemple pour démarrer. On constituera par exemple une liste de mots-clés pondérés plus ou moins « pornographiques » sur une échelle de 1 à 5 et on laissera l’algorithme modifier la pondération sur base des associations rencontrées au fil du temps.

Cela signifie deux choses importantes : la qualité du jeu de données en entrée conditionne la pertinence des résultats et, une fois l’algorithme lancé, on peut difficilement prévoir comment va évoluer l’output.

En soi, les algorithmes ne sont donc pas nécessairement nuisibles puisqu’ils permettent l’automatisation et la recherche pertinente. Mais s’ils ne sont pas correctement cadrés, ils peuvent engendrer des effets indésirables, lourds de conséquences. Nous en brosserons le tableau dans un prochain article, et ajouterons quelques pistes d’action afin de s’en prémunir.



Michèle ORBAN

Consultante et formatrice en veille informationnelle

Sources :

https://www.unige.ch/comprendre-le-numerique/archives/cas-pratiques/algorithmes-discriminatoires/

https://www.unite.ai/eu-to-launch-first-ai-regulations/

® SECUNEWS

Étiquettes