Bulle de filtres

Un article de Wikipédia, l'encyclopédie libre.
Aller à : navigation, rechercher
image illustrant Internet
Cet article est une ébauche concernant Internet.

Vous pouvez partager vos connaissances en l’améliorant (comment ?) selon les recommandations des projets correspondants.

Eli Pariser

La bulle de filtres (anglais : filter bubble), ou bulle de filtrage, est un concept développé par le militant d'Internet Eli Pariser. Il désigne l'état dans lequel se trouve un internaute lorsque les informations auxquelles il accède sur Internet sont le résultat d'une personnalisation mise en place à son insu. À partir des différentes données collectées sur l'internaute, des algorithmes vont silencieusement sélectionner les contenus qui seront visibles ou non par lui. Le terme de « bulle de filtres » renvoie à l'isolement produit par ce mécanisme : chaque internaute accède à une version différente du web, il reste dans une « bulle » unique et optimisée pour lui.

Ce phénomène se rencontre notamment sur les réseaux sociaux et les moteurs de recherche. Des sites tels que Google, Facebook ou Yahoo! n'affichent pas toutes les informations, mais seulement celles sélectionnées pour l'utilisateur. À partir de différentes données (historique, clics, interactions sociales) ces sites prédisent ce qui sera le plus pertinent pour un internaute donné. Ils lui fournissent ensuite l'information la plus pertinente, en omettant celle qui l'est moins selon eux. Si les algorithmes considèrent qu'une information n'est pas pertinente pour un internaute, elle ne lui sera pas présentée.

Effets psycho-sociaux[modifier | modifier le code]

Selon Pariser, ce phénomène tend à reproduire les opinions, croyances et perspectives de l'utilisateur en formant un cercle vicieux. Un internaute d'une orientation politique donnée verra plus de contenus favorables à cette orientation. Il sera moins soumis à des points de vue contradictoires[1] car les algorithmes sélectionneront pour lui les contenus les plus pertinents, ceux qui lui plaisent le plus. Un internaute est identifié comme « de gauche » par le site, qui lui propose alors moins de contenus « de droite ».

Des requêtes similaires peuvent alors donner des résultats très différents. Supposons par exemple que deux personnes, une plutôt à droite politiquement et l'autre plutôt à gauche, recherchent le terme « BP ». Les utilisateurs « de droite » trouveront des informations sur les investissements dans la British Petroleum. Les utilisateurs « de gauche » obtiendront des informations sur la marée noire dans le golfe du Mexique[2].

La bulle de filtres peut influencer les relations sociales. Sur certains réseaux sociaux, la personnalisation algorithmique masque les messages les moins pertinents, ceux qui seront les moins cliqués par l'utilisateur. Moins on interagit avec un « ami » Facebook, moins les messages qu'il publie nous seront visibles, moins l'on sera susceptibles d'interagir avec lui. Pariser met en avant la « disparition » des messages de ses amis conservateurs de son flux d'activité Facebook. Alors qu'il avait ajouté des « amis » conservateurs pour lire leur opinion, la personnalisation ne lui suggérait plus les publications venant de ces personnes. Selon l'algorithme, cela n'était pas pertinent pour Pariser : il n'allait pas cliquer ou lire ces opinions.

Dans un long article, longuement commenté depuis, Katharine Viner, rédactrice en chef du journal The Guardian, estime que le numérique a considérablement ébranlé notre rapport aux faits et que les réseaux sociaux, en particulier, sont grandement responsables de la victoire des partisans (populistes) du référendum sur l'appartenance du Royaume-Uni à l'Union européenne, bien qu'ils aient eux-mêmes reconnu que leurs arguments étaient mensongers. Viner affirme que si les réseaux sociaux colportent volontiers des rumeurs et des "mensonges avérés", cela tient aux bulles de filtres qui, en fonction des pages consultées, renvoient les utilisateurs à ce qu'ils ont l'habitude de consulter et qui, par conséquent tendent à les conforter dans leurs opinions au lieu de stimuler leur esprit critique[3]

Bibliographie[modifier | modifier le code]

Liens internes[modifier | modifier le code]

Liens externes[modifier | modifier le code]

Notes et références[modifier | modifier le code]

  1. (en) USA Today, 29 avril 2011, The Filter Bubble by Eli Pariser. « Pariser explique que nous fournir uniquement ce qui nous est familier et confortable nous ferme aux nouvelles idées, aux nouveaux sujets et à des informations importantes. » — Consulté le 31 janvier 2012.
  2. (en) Interview d'Eli Pariser par Lynn Parramore, The Atlantic, 10 octobre 2010 « Depuis le 4 décembre 2009, Google a été personnalisé pour chacun. Quand ce printemps deux de mes amis ont tapé « BP » sur Google, l'un a obtenu un ensemble de liens portant sur les possibilités d'investissement dans BP. L'autre a obtenu des informations sur la marée noire. » – Consulté le 31 janvier 2012.
  3. How technology disrupted the truth, Katharine Viner, The Guardian, 12 juillet 2016
    Traduction en français : Comment le numérique a ébranlé notre rapport à la vérité, Le Courrier international, 9 septembre 2016