Aller au contenu

Discussion:Filter bubble/Traduction

Le contenu de la page n’est pas pris en charge dans d’autres langues.
Une page de Wikipédia, l'encyclopédie libre.
Autres discussions [liste]
  • Admissibilité
  • Neutralité
  • Droit d'auteur
  • Article de qualité
  • Bon article
  • Lumière sur
  • À faire
  • Archives
  • Commons

La bulle de filtres (filter bubble), concept développé par Eli Pariser, militant de l'Internet, décrit un phénomène se produisant lors de recherches sur Internet. Des sites tels que Google, Facebook ou Yahoo prédisent les informations qu'un utilisateur recherche en examinant son historique de recherches. Ces recherches, à leur tour, tendent à reproduire les opinions, croyances et perspectives de l'utilisateur, et ainsi de suite. Dans The Filter Bubble Pariser soutient que ce phénomène restreint l'exposition des utilisateurs aux points de vue contradictoires.[1] Par exemple, supposons que deux personnes, une plutôt à droite politiquement et l'autre plutôt à gauche, recherchent le terme "BP". Les utilisateurs « de droite » trouveront des informations sur les investissements dans la British Petroleum. Les utilisateurs « de gauche » obtiendront des informations sur le déversement d'hydrocarbures dans le golfe du Mexique.[2]

Notes et références[modifier le code]

  1. (en) USA Today, The Filter Bubble by Eli Pariser, Pariser explique que nous nourrissent uniquement ce qui est familier et confortable pour nous qui nous enferme off à de nouvelles idées, des sujets et des informations importantes, Consulté 29 avril, 2011,
  2. (en) The Atlantic, Depuis le 4 décembre 2009, Google a été personnalisé pour chacun. Alors, quand j'ai eu deux amis ce printemps Google "BP", l'un d'eux a obtenu un ensemble de liens qui était sur les possibilités d'investissement dans BP. L'autre a obtenu des informations sur le déversement de pétrole, Consulté 10 octobre 2010

Catégorie:Dilemme Catégorie:Standard Internet


Current English version which I wrote a few months back:

A filter bubble is a concept developed by Internet activist Eli Pariser to describe a phenomenon in which search queries on sites such as Google or Facebook or Yahoo selectively guess what information a user would like to see based on the user's past search history and, as a result, searches tend to play back information which agrees with the user's past viewpoint. Accordingly, users get less exposure to conflicting viewpoints. And according to Pariser, the filter bubble is "that personal ecosystem of information that's been catered by these algorithms" which, based on past choices, reflect a person's existing viewpoint.[1] Pariser warns in his book The Filter Bubble that a potential downside to this is that it "closes us off to new ideas, subjects, and important information." The book deals with a similar concept to the Relevance paradox.[2] Pariser criticizes Google and Facebook for offering users "too much candy, and not enough carrots,"[3] Pariser warned that "invisible algorithmic editing of the web" may "limit our exposure to new information and narrow our outlook." In an example, a user with a past history of conservative searching may search for the term "BP" and get investment news; a liberal searching may get news about the past oil spill in the Gulf of Mexico.[1] The book The IRG Solution predicted and analysed this problem and suggested a generalised solution.

References[modifier le code]

  1. a et b (en) Lynn Parramore (interviewer) Eli Pariser (subject), « The Filter Bubble », The Atlantic,‎ (lire en ligne) :

    « Since Dec. 4, 2009, Google has been personalized for everyone. So when I had two friends this spring Google "BP," one of them got a set of links that was about investment opportunities in BP. The other one got information about the oil spill.... »

  2. (en) « First Monday: What's on tap this month on TV and in movies and books: The Filter Bubble by Eli Pariser », USA Today,‎ (lire en ligne) :

    « Pariser explains that feeding us only what is familiar and comfortable to us closes us off to new ideas, subjects and important information. »

  3. (en) Bianca Bosker, « Facebook, Google Giving Us Information Junk Food, Eli Pariser Warns », Huffpost Tech,‎ (lire en ligne) :

    « When it comes to content, Google and Facebook are offering us too much candy, and not enough carrots. »

Modèle:Internet-stub

Category:Internet memes