Granularité

Un article de Wikipédia, l'encyclopédie libre.

La notion de granularité définit la taille du plus petit élément, de la plus grande finesse d'un système. Quand on arrive au niveau de granularité d'un système, on ne peut plus découper l'information.

Par exemple dans une population, la granularité est l'individu.

En informatique, la granularité est le plus petit niveau de détail géré.

En physique la granularité a longtemps été l'atome, c'est désormais le quark.

La granularité en photographie[modifier | modifier le code]

Elle ne doit pas être confondue avec la granulation. La granularité est une notion objective résultant d'une analyse statistique tandis que la granulation est une notion subjective, une impression.

Le grain argentique du film mesure quelques micromètres.

Voir aussi[modifier | modifier le code]

Dans le système de classification Info-Muse[modifier | modifier le code]

La Granularité dans le système de classification Info-Muse fait référence au niveau de détails des données et des métadonnées ainsi que leurs valeurs.

La granularité en programmation[modifier | modifier le code]

En programmation procédurale, c'est de rajouter des sous-routines. En programmation orientée objet, c'est de rajouter des méthodes pour gagner en flexibilité au détriment souvent des performances.