Bulle de filtres

Un article de Wikipédia, l'encyclopédie libre.
Aller à : navigation, rechercher
Eli Pariser

La bulle de filtres (anglais : filter bubble), ou bulle de filtrage, est un concept développé par le militant d'Internet Eli Pariser. Si on en croit Eli Pariser, la bulle de filtres désigne l'état dans lequel se trouve un internaute lorsque les informations auxquelles il accède sur Internet sont le résultat d'une personnalisation mise en place à son insu. La théorie très médiatisée affirme qu'à partir des différentes données collectées sur l'internaute, des algorithmes vont silencieusement sélectionner les contenus qui seront visibles ou non par lui. Le terme de « bulle de filtres » renvoierait à l'isolement produit par ce mécanisme : chaque internaute accèderait à une version différente du web, il resterait dans une « bulle » unique et optimisée pour lui.

Toujours selon Eli Pariser, ce phénomène se rencontre notamment sur les réseaux sociaux et les moteurs de recherche. Des sites tels que Google, Facebook ou Yahoo! n'affichent pas toutes les informations, mais seulement celles sélectionnées pour l'utilisateur. À partir de différentes données (historique, clics, interactions sociales) ces sites prédisent ce qui sera le plus pertinent pour un internaute donné. Ils lui fournissent ensuite l'information la plus pertinente, en omettant celle qui l'est moins selon eux. Si les algorithmes considèrent qu'une information n'est pas pertinente pour un internaute, elle ne lui sera pas présentée.

Effets psycho-sociaux supposés[modifier | modifier le code]

Selon Pariser, ce phénomène tendrait à reproduire les opinions, croyances et perspectives de l'utilisateur en formant un cercle vicieux. Un internaute d'une orientation politique donnée verrait plus de contenus favorables à cette orientation. Il serait moins soumis à des points de vue contradictoires[1] car les algorithmes sélectionneraient pour lui les contenus les plus pertinents, ceux qui lui plaisent le plus. Par exemple, un internaute qui serait identifié comme « de gauche » par le site, se verrait alors proposé moins de contenus « de droite ».

Des requêtes similaires peuvent alors donner des résultats très différents. Supposons par exemple que deux personnes, une plutôt à droite politiquement et l'autre plutôt à gauche, recherchent le terme « BP ». Les utilisateurs « de droite » trouveront des informations sur les investissements dans la British Petroleum. Les utilisateurs « de gauche » obtiendront des informations sur la marée noire dans le golfe du Mexique[2].

La bulle de filtres pourrait influencer les relations sociales. Sur certains réseaux sociaux, la personnalisation algorithmique masquerait les messages les moins pertinents, ceux qui seraient les moins cliqués par l'utilisateur. Moins on interagit avec un « ami » Facebook, moins les messages qu'il publie nous seront visibles, moins l'on sera susceptibles d'interagir avec lui. Pariser met en avant la « disparition » des messages de ses amis conservateurs de son flux d'activité Facebook. Alors qu'il avait ajouté des « amis » conservateurs pour lire leur opinion, la personnalisation ne lui suggérait plus les publications venant de ces personnes. Selon l'algorithme, cela n'était pas pertinent pour Pariser : il n'allait pas cliquer ou lire ces opinions.

Dans un long article, longuement commenté depuis, Katharine Viner, rédactrice en chef du journal The Guardian, estime que le numérique a considérablement ébranlé notre rapport aux faits et que les réseaux sociaux, en particulier, sont grandement responsables de la victoire des partisans (populistes) du référendum sur l'appartenance du Royaume-Uni à l'Union européenne, bien qu'ils aient eux-mêmes reconnu que leurs arguments étaient mensongers. Viner affirme que si les réseaux sociaux colportent volontiers des rumeurs et des "mensonges avérés", cela tient aux bulles de filtres qui, en fonction des pages consultées, renvoient les utilisateurs à ce qu'ils ont l'habitude de consulter et qui, par conséquent tendent à les conforter dans leurs opinions au lieu de stimuler leur esprit critique[3]

Au-delà du concept, une lecture plus critique[modifier | modifier le code]

Malgré la très forte médiatisation de la théorie de la bulle de filtres d'Eli Pariser, qui se veut participer de l'esprit critique, d'autres lectures sont possibles. C'est notamment la thèse d'André Gunthert dans Et si on arrêtait avec les bulles de filtre? (André Gunthert est maître de conférence à l’École des hautes études en sciences sociales (EHESS), où il occupe la chaire d'histoire visuelle). D'après lui, "le système de sélection de Facebook ne modifie que de 1% l’exposition aux contenus politiques de camps opposés". Et donne la parole au spécialiste Dominique Cardon, qui résume: « La bulle, c’est nous qui la créons. Par un mécanisme typique de reproduction sociale. Le vrai filtre, c’est le choix de nos amis, plus que l’algorithme de Facebook »".

Bibliographie soutenant la théorie d'Eli Pariser[modifier | modifier le code]

Bibliographie critique[modifier | modifier le code]

Liens internes[modifier | modifier le code]

Liens externes[modifier | modifier le code]

Notes et références[modifier | modifier le code]

  1. (en) USA Today, 29 avril 2011, The Filter Bubble by Eli Pariser. « Pariser explique que nous fournir uniquement ce qui nous est familier et confortable nous ferme aux nouvelles idées, aux nouveaux sujets et à des informations importantes. » — Consulté le 31 janvier 2012.
  2. (en) Interview d'Eli Pariser par Lynn Parramore, The Atlantic, 10 octobre 2010 « Depuis le 4 décembre 2009, Google a été personnalisé pour chacun. Quand ce printemps deux de mes amis ont tapé « BP » sur Google, l'un a obtenu un ensemble de liens portant sur les possibilités d'investissement dans BP. L'autre a obtenu des informations sur la marée noire. » – Consulté le 31 janvier 2012.
  3. How technology disrupted the truth, Katharine Viner, The Guardian, 12 juillet 2016
    Traduction en français : Comment le numérique a ébranlé notre rapport à la vérité, Le Courrier international, 9 septembre 2016