Utilisateur:FlorenceS/Brouillon

Une page de Wikipédia, l'encyclopédie libre.

Le texte numérique[modifier | modifier le code]

Objets qui relèvent du texte numérique et de l’édition électronique : revues scientifiques, presse en ligne, e-books et livres numérisés, blogs, Wikipedia

7 caractéristiques du texte numérique[modifier | modifier le code]

  1. Le texte numérique est quasiment immatériel. L’empreinte écologique du livre électronique est absolument énorme. Si c’était complètement immatériel, on n’aurait pas besoin d’un support (fibre optique). Les Data centers sont des grands bâtiments dans lesquels on entrepose des centaines de milliers de serveurs qui sont très demandeurs en énergie et très coûteux. La consommation mondiale d’électricité ne serait pas la même sans les Data centers. Les environnements sont de moins en moins bidouillable, c’est-à-dire que l’on a de moins en moins de prise dessus. En revanche, on s’émancipe du poids du bois et du papier.
  2. Il circule avec une très grande fluidité.
  3. Puisqu'il est quasiment immatériel, il est reproductible sans quasiment de coût spécifique. Mais il a un coût environnemental (exemple : impact écologique des emails). Logs du serveur : fichier qui sauvegarde toutes les interactions entre le serveur et le monde.
  4. Il est doté de couches successives. Les métadonnées sont données sur des données (ISBN, Titre, couverture), en dessous plus ou moins d’annotations individuelles (surlignage, commentaires). Crowdsourcing : alimentation en donnée par la foule, en agissant sur internet. Toutes les actions d’un internaute sont gardées dans les serveurs et l’information est conservée et partagée. Les systèmes et les formats d’annotation sont très importants. Le cookie est un fichier qui stock des informations sur l'utilisateur que le serveur du site web place sur notre ordinateur. Il permet de voir si c’est la même personne que l’adresse IP change ou pas. Régie publicitaire.
  5. Le texte numérique est hypertextuel. Conceptualisé dans les années 50 par un philosophe et mis en œuvre par Tim Berners-Lee, inventeur du web. Le web est un petit bout d’internet. Dans les années 70, les physiciens et les chercheurs avaient besoin d’échanger des informations, ils ont donc décidé d’interconnecter leurs ordinateurs. Ils ont créé Arpanet. Dans les années 80, d'autres décident de relier les réseaux entre eux, ils l’ont appelé internet. Il y avait déjà des échanges de données par les réseaux avec TCP/IP. Le principe est simple : on va faire une transmission de paquets de données. Pour que les fichiers puissent être plus facile à envoyer, on découpe le fichier en petits paquets qui vont se balader sur le réseau jusqu’à atteindre leur destination, dans n’importe quelle direction, ils ne vont pas forcément prendre la même route. Les routeurs mènent les données d’un point à l’autre. Après le TCP/IP, on a inventé une deuxième couche le DNS (domain name system). Quand le nombre d’utilisateurs et de serveurs a augmenté, on a dû créer une couche de plus qui fait la conversion entre les noms des adresses d’une part et les IP d’autres parts. Il n’est plus nécessaire de mémoriser l’adresse IP. On a une latence DNS de 24 à 48 heures entre les différents serveurs. Dans la couche DNS, il y a les URL qui sont construites toujours de la même façon et se lisent de droite à gauche puis de gauche à droite.
  6. Le texte numérique est indexable la plupart du temps. L’indexabilité fait essentiellement penser à Google. Mais il y a d’autres outils : le moteur de recherche sur un ordinateur par exemple. Si on a un fichier au format epub sur notre disque dur, le moteur de recherche va permettre de retrouver une occurrence dans le fichier. Le robots.txt indique ce que les moteurs de recherches ont le droit de faire ou pas, certains peuvent être interdits d’indexation. Les Bots sont des robots qui parcourent le web et aspirent les contenus pour créer des moteurs de recherches.

En plus du pagerank, il y a tout un tas d’algorithmes qui gère l’indexation de Google dont le plus connu est Panda.

Dans le mot ebook il y a deux choses :

  • Les livres applications qui sont fait pour les tablettes. Ils dépendent d’un environnement particulier : il y a une version pour tablette, pour smartphone, pour Apple, pour Windows... Il n’est pas indexable car c’est un logiciel. On mélange des éléments de forme et de contenus. Ce n’est pas pérenne, ni universel. Il faut constamment le faire évoluer. L’espérance de vie technique est très faible. Ce type de livres pose deux problématiques : c'est une technologie très dépendante de l’environnement et c'est une boite noire dans laquelle on ne peut pas faire d’indexation, ni de la fouille de texte.
  • Le fichier epub
  1. Le type d’économie à laquelle appartient le texte électronique ou l’édition numérique. On est entré avec le numérique dans un monde qui s’oppose au monde analogique, physique. Il y a des choses qui changent. La chose principale est que le bien du monde analogique est un bien qui appartient à l’économie du bien rival. Le texte électronique est un bien d’économie de biens non rivaux. La connaissance a toujours été non-rivale. Le livre transporte quelque chose de non-rival dans un support rival, il a construit toute son économie autour. La connaissance reste non-rival et le texte électronique l'est également désormais. Les deux éléments ont les mêmes propriétés. L'inconvénient est que toute l’architecture de l’économie du livre se dérobe. Il n’y a plus d’intérêt à créer un modèle économique similaire. Il faut recréer de la rivalité et de la rareté.

Pour cela plusieurs solutions:

  • Projet du DRM : digital right management (mesure technique de protection). Une de ses modalités est de limiter le temps de la consultation du livre. Pour faire en sorte qu’au bout d’une semaine il ne soit plus lisible par exemple, il faut qu’il y ait un intermédiaire qui décide de donner l'accès. Pour que le verrou ne puisse être détourné, le contenu doit être crypté. On le rend illisible et il faut un logiciel, le DRM, qui déverrouillera le livre une fois qu’il a vérifié que l’on a les droits. Cette solution pose cependant un soucis important. Les éditeurs construisaient les échanges avec le lecteur sur une relation qui vient de la qualité du contenu du livre et de la lisibilité. Problème de confiance où l’éditeur soupçonne le lecteur, il casse la relation en brisant la lisibilité.
  • Le Watermarking : quand on achète un livre, il est légèrement modifié; sur la page de garde il y aura écrit le nom de l’acheteur et la date. Le livre est par contre entièrement lisible et non-protégé. Cette traçabilité du livre est destinée à décourager le piratage.

Les bien rivaux constituent une économie de la rareté. Les lecteurs se déploient entre eux, sont en concurrence pour trouver l’exemplaire d’un livre. Avec le numérique on inverse complètement les rôles, on est dans une économie de l’attention, où il y a cent milles milliards de page sur le web, des textes qui cherchent l’attention du lecteur qui devient d’autant plus rare qu’il y a une hyper sollicitation : sport, vidéo, réseaux sociaux … La production a beaucoup augmenté, la rareté n’est plus au même endroit. Il faut tout repenser, et notamment le modèle économique de la presse qui s’appuyait historiquement sur la vente papier et la publicité.

Aujourd’hui sur le net, on a une profusion de contenu qui cherche à attirer l’attention du lectorat qui lui est sollicité par tout un tas d’autres types de presse. Le péage n’est pas une garantie de gagner plus de lectorat payant mais on fait chuter le lectorat gratuit, donc on perd des revenus sur la publicité. Deux solutions proposées par la presse :

  • Les putes à clics : forme de presse qui va attirer le clic s’éloignant le plus de l’information mais qui va produire de la publicité. Augmenter la publicité sur une production de plus en plus racoleuse.
  • La stratégie de Mediapart : enquêtes inédites et qui font du bruit partout. Tout est payant mais il n’y a pas de publicité. Faire payer de la qualité.
  • La solution du New-York Times : le freemium. Cette idée date de 2011, elle commence à arriver en France. L'érosion de la vente papier et l'absence de compensation suffisante par la consultation en ligne et la publicité posent problème. En France, certains journaux ont choisi de mettre plus ou moins arbitrairement, selon des critères difficiles à comprendre, certains articles payants et d'autres gratuits. La presse scientifique avait essayé la solution du moving wall : articles payants un certain temps puis ensuite libres.

Le Freemium est une idée différente : contraction de Free et de premium. L'idée est de proposer un service de qualité gratuit à un maximum d’utilisateurs pour essayer de convertir un faible pourcentage de ces utilisateurs en premium qui vont avoir un service optimal et plus conséquent. Dans l’édition cela est difficile. Le New-York Times a trouvé une solution astucieuse. Il met tout son contenu en accès libre car plus ils ont d’utilisateurs plus il gagne de l’argent en publicité, mais limite la consultation à dix articles par mois en mettant un cookie sur l’ordinateur et compte les pages. Si on lit plus de 10 pages par mois c’est que l’on considère que ce journal a une plus-value par rapport aux autres. Ce n’est pas violent et ça maintient une relation de fidélité avec l’utilisateur.