Discussion:Principe d'entropie maximale

Le contenu de la page n’est pas pris en charge dans d’autres langues.
Une page de Wikipédia, l'encyclopédie libre.
Autres discussions [liste]
  • Admissibilité
  • Neutralité
  • Droit d'auteur
  • Article de qualité
  • Bon article
  • Lumière sur
  • À faire
  • Archives
  • Commons

Bonjour,

excusez-moi pour la forme, je débute en modification d'articles, mais la phrase suivante m'interpelle :

"Ce choix n'a rien d'arbitraire : de toutes ces distributions, c'est - par définition de l'entropie - celle d'entropie maximale qui contient le moins d'information"

Il me semble que la solution d'entropie maximale est - justement d'après la définition de l'entropie - celle qui contient le PLUS d'information, non ?

Bonjour Shtrukunut,
J'ai aussi eu un peu de mal en lisant cette phrase… car le mot "information" nous trompe. Dans cette utilisation, il signifie "tous les cas particuliers qui divergent de ce qui est le plus probable". Si on sait qu'un événement arrivera avec certitude, alors aucune information n'est apportée lorsque l'événement arrive.
Teuxe (d) 27 juin 2012 à 13:30 (CEST)[répondre]

Bonjour,

Je relance le débat car j'ai remarqué une incohérence entre cet article et celui concernant les inférences bayésiennes. Dans le premier exemple de cet article il est écrit : Présumer qu'un dé est non pipé, c'est attribuer, avant toute expérience, la probabilité 1/6 à chacune de ses faces. De toutes les distributions possibles - une infinité - répondant aux contraintes du problème (à savoir ici que la somme des six probabilités soit 1), c'est celle d'entropie maximale qui sera choisie, car c'est celle qui contient le moins d'information, et donc la moins prévenue.. N'étant pas du tout expert en la matière je ne suis pas capable de savoir quel article est correct mais ma logique me dit que la distribution d'entropie maximale est celle qui contient le moins d'information car c'est la plus aléatoire.

Merci de vos lumières,

--EliosFr (discuter) 16 octobre 2017 à 21:08 (CEST)[répondre]

J'ai remis le "plus" en attendant qu'une explication convaincante soit donnée dans l'article. Quand on écrit par définition de l'entropie - celle d'entropie maximale qui contient le X d'information, alors la définition -justement- de l'entropie de Shannon devrait faire que dans la phrase X est plus, et pas moins. L'explication ci-dessous ne me semble pas très convaincante, et sur une question où le sens de la phrase est à ce point contre-intuitif, il faudrait détailler ça dans l'article. kiwipidae (discuter) 21 mars 2018 à 23:27 (CET)[répondre]