Discussion:Claude Shannon/À faire
Il me semble que la définition du bit est fausse.
la notion d'information[modifier le code]
La définition du bit n'est pas fausse, mais peu lisible. Le bit a été défini à partir de la situation la plus simple : une alternative avec deux événements équiprobables, soit le lancer d'une pièce de monnaie "juste". Shannon a pris en compte les situations où les évènements ne sont pas équiprobables, ce que Hartley refusait. Mais il a appelé "H" la mesure de l'information en hommage à Hartley. Mais surtout on ne montre pas ce que cette notion a de révolutionnaire. Il suffit de lire les textes sur la cybernétique qui précèdent la théorie de Shannon pour s'en rendre compte. Shannon a proposé une notion et la mesure d'une notion qui ont permis de penser le monde informatisé où nous vivons. C'est pas rien ! On ne souligne pas non plus que l'information au sens de Shannon ne concerne en aucune manière la signification, comme il a fallu le rappeler dans la réédition de la "Théorie mathématique de la communication". Certains, et non des moindres, en ont conclu que l'information n'avait rien à voir avec le langage et la communication humaine, ce qui est évidemment faux car le langage ne peut qu'utiliser l'information, même s'il ne peut s'y réduire. À noter que l'information mesurant l'incertitude du récepteur, pour la mesurer, il faut être omniscient ou Dieu. Ce qui ne semble gêner personne.
Votre aide est la bienvenue pour corriger les liens, présents dans l'article, vers les pages d'homonymie Lempel-Ziv , Schéma ⇒ Quelques explications pour effectuer ces corrections. -- 12 juin 2023 à 03:14 (CEST)