Aller au contenu

Entropie

Un article de Wikipédia, l'encyclopédie libre.
(Redirigé depuis Entropique)

Entropy

Sur les autres projets Wikimedia :

Le terme entropie a été introduit en 1865 par Rudolf Clausius à partir d'un mot grec signifiant « transformation ». Il caractérise le niveau de désorganisation, ou d'imprédictibilité du contenu en information d'un système.

Ce mot français et son équivalent anglais (entropy) ont été par la suite utilisés par des œuvres culturelles et des entreprises.

Sciences et techniques

[modifier | modifier le code]
  • En physique, l'entropie est une grandeur thermodynamique associée à un système de particules ;
  • En théorie de l'information, l'entropie quantifie l'information :
  • En mathématiques, l'entropie recouvre deux notions différentes :
  • En informatique :
    • l'entropie (en), une mesure de la quantité d'aléatoire dont dispose un système ou une application, qui peut être générée de multiples manières et qui est utilisée notamment en cryptographie ou pour l'effacement sécurisé de données ;
    • Entropy est un gestionnaire de paquets de Sabayon Linux, distribution GNU/Linux basée sur Gentoo.

Arts et culture

[modifier | modifier le code]

Entreprises

[modifier | modifier le code]
  • Entropie est le nom ou une composante du nom de nombreux bureaux d'étude d'ingénierie
  • Entropie Veolia Water est la société de dessalement de l'eau de mer de Veolia Eau

Notes et références

[modifier | modifier le code]
  1. (en) Leana Hafer, « The Entropy Centre Review », sur IGN, (consulté le )