Famille exponentielle

Un article de Wikipédia, l'encyclopédie libre.

Une famille exponentielle est un objet mathématique qui est, en probabilité et en statistique, une classe de lois de probabilité dont la forme générale est donnée par :

est la variable aléatoire, est un paramètre et est son paramètre naturel.

Propriétés algébriques[modifier | modifier le code]

Les familles exponentielles présentent certaines propriétés algébriques et inférentielles remarquables.

La caractérisation d'une loi en famille exponentielle permet de reformuler la loi à l'aide de ce qu'on appelle des paramètres naturels.

En statistique fréquentiste, ces familles permettent d'obtenir facilement des statistiques d'échantillonnage, à savoir les statistiques suffisantes naturelles de la famille, qui résument un échantillon de données à l'aide d'un nombre réduit de valeurs, constituant les variables de décision en statistique inférentielle.

En statistique bayésienne, elles possèdent des prieures conjuguées qui facilitent la mise à jour des lois dites « subjectives ».

De plus, la loi prédictive a posteriori d'une variable aléatoire de famille exponentielle (à prieure conjuguée) peut toujours s'écrire en forme close (pour autant que le facteur de normalisation de la famille exponentielle puisse lui-même s'écrire en forme close). Souvent, ces distributions ne sont pas elles-mêmes de famille exponentielle[pas clair]. Exemples courants : la loi t de Student, la loi bêta-binomiale ou la loi de Dirichlet multinomiale.

Les familles exponentielles apparaissent de façon naturelle dans la recherche de lois lors d'applications statistiques, en particulier dans les méthodes bayesiennes.

La famille exponentielle comprend une grande quantité de lois parmi les plus courantes : normale, exponentielle, gamma, χ2, bêta, Dirichlet, Bernoulli, Bernoulli multinomiale, Poisson, Wishart, Wishart inverse, etc. D'autres lois courantes ne forment une famille exponentielle que si certains paramètres sont fixes et de valeur connue, telles les lois binomiale et multinomiale (pour un nombre de tirages fixe dans les deux cas), et binomiale négative (pour un nombre d'échecs fixe). Parmi les lois d'usage courant qui ne sont pas de famille exponentielle, on peut citer la loi t de Student, la plupart des mixtures, ainsi que la famille des lois uniformes de bornes non fixées.

Origine et terminologie[modifier | modifier le code]

La notion de famille exponentielle a été développée aux alentours des années 1935 et 1936 par G. Darmois[1], E. J. G. Pitman[2] et B. Koopman [3].
Le terme classe exponentielle est parfois utilisé dans le même sens[4],[5].

Une loi est définie par les valeurs spécifiques des constantes utilisées dans sa formulation : par exemple, la loi normale donne une loi normale avec une moyenne et un écart-type . Une « famille » de lois est définie par un ou plusieurs paramètres variables : par exemple les familles de Poisson . Cette famille est dite comme exponentielle lorsque la fonction de densité de probabilité prend une forme algébrique particulière entre la variable aléatoire et les paramètres : la séparation des facteurs.

Dans la pratique, les termes la famille exponentielle ou la loi sont souvent utilisés. Elles cachent qu'en réalité, il existe des familles exponentielles et des lois. L'abus de langage est par exemple souvent fait pour la loi normale , là où il faudrait parler des lois normales à moyennes et variances inconnues .

  • La loi binomiale est une famille de lois caractérisées par un paramètre n (nombre de tirages) et un paramètre p (probabilité de succès).
  1. Si n et p ont tous deux reçu une valeur particulière, par exemple , alors est une loi binomiale unique.
  2. Si n a reçu une valeur particulière, par exemple mais que p peut varier, il s'agit d'une famille de lois binomiales, caractérisée par le paramètre p, où n est une constante et non un paramètre.
  3. Si n et p sont tous deux libres de varier, il s'agira d'une famille plus large de lois binomiales, de paramètres n et p.

Les trois situations sont habituellement dénommées « la loi binomiale », mais seule la seconde constitue une famille exponentielle.

  • Le cas de la loi uniforme est à remarquer.
    • Parfois, l'expression « nombre aléatoire tiré d'une loi uniforme » fait référence à la loi uniforme continue entre 0 et 1. Cette loi se note , et elle est décrite comme un cas particulier de la loi Bêta. Bien que la loi Bêta soit de famille exponentielle, on ne peut pas dire que la loi uniforme est une famille exponentielle : ce n'est qu'une seule loi.
    • Quant à la famille de lois uniformes, elle est caractérisée par la nature paramétrique d'une ou des deux bornes. Aucune de ces familles n'est une famille exponentielle.

Définition[modifier | modifier le code]

Une famille exponentielle est un ensemble de lois dont la loi de probabilité (discrète ou continue) peut s'écrire sous la forme de facteurs séparables :

, , et sont précisées.

Souvent, la densité s'écrira sous la forme alternative

ou même

La valeur est le paramètre de la famille.

La variable aléatoire peut représenter un vecteur de plusieurs mesures. Dans ce cas, est une fonction de plusieurs variables. Que soit scalaire ou vectoriel, et même s'il y a un paramètre unique, les fonctions et peuvent prendre la forme de vecteurs.

Forme canonique[modifier | modifier le code]

La famille exponentielle est dite en forme canonique (ou naturelle) lorsque . Il est toujours possible de convertir une famille exponentielle en forme canonique, par la définition d'un paramètre transformé  :

La valeur η est un paramètre naturel de la famille.

La forme canonique n'est pas unique, puisque peut être multiplié par une constante non nulle, pourvu que soit multiplié par la constante inverse.

La fonction (alternativement ) est définie automatiquement par le choix des autres fonctions : elle assure que la loi est normalisée (la somme ou l'intégrale sur toutes les valeurs doit donner une probabilité égale à 1). On notera que ces deux fonctions sont toujours des fonctions de . Ceci veut dire que si n'est pas bijective, c'est-à-dire si plusieurs valeurs de donnent la même valeur de , alors toutes les valeurs ayant la même image auront également la même valeur pour ou [pas clair].

Famille exponentielle vectorielle[modifier | modifier le code]

La définition ci-dessus, bien qu'à première vue exprimée en termes d'un paramètre scalaire, reste valable pour un paramètre vecteur de réels . La loi est dite de famille exponentielle vectorielle si la fonction de densité (ou de probabilité, pour les discrètes) s'écrit :

ou, en forme compacte :

La somme est écrite comme le produit scalaire des fonctions-vecteurs et .

On peut également rencontrer une forme alternative du type :

Comme précédemment, la famille exponentielle est sous forme canonique si , pour tout .

Famille exponentielle vectorielle courbe[modifier | modifier le code]

Une famille exponentielle vectorielle est dite courbe si la dimension du vecteur paramètre est inférieure à la dimension du vecteur , le nombre de fonctions du vecteur paramètre dans la représentation factorisée.

Il est à noter que la plupart des lois courantes de famille exponentielle ne sont pas courbes, de sorte que nombre d'algorithmes conçus pour la famille exponentielle supposent implicitement ou explicitement que la loi n'est pas courbe.

La fonction de normalisation ou peut toujours s'écrire en fonction de , quelles que soient les transformations de en . La famille exponentielle suivante est en « forme naturelle » (paramétrée par son paramètre naturel) :

ou :

Variable vectorielle[modifier | modifier le code]

De même qu'un paramètre scalaire est généralisable à un paramètre vectoriel, une variable aléatoire simple (scalaire) peut se généraliser à une loi conjointe sur un vecteur de variables aléatoires : chaque notation scalaire est alors remplacée par un vecteur . Il est à noter que la dimension du vecteur aléatoire ne correspond pas nécessairement à la dimension du vecteur paramètre, ni (pour une fonction exponentielle courbe) à la dimension du paramètre naturel et de la statistique suffisante .

La loi s'écrit alors :

ou :

Propriétés[modifier | modifier le code]

Les fonctions , et qui apparaissent dans les définitions ne sont pas totalement arbitraires. Elles jouent un rôle important pour l'analyse statistique.

  • T(x) est une statistique suffisante (ou exhaustive) de la loi. Une statistique suffisante est une fonction qui résume parfaitement les données mesurées x dans le cadre d'un échantillon tiré de cette loi : même si un autre jeu de données y diffère complètement de x, mais que T(x) = T(y), alors la densité estimée à partir des observations sera la même, c.à.d. elle aura le même paramètre.

La dimension de T(x) égale le nombre de paramètres de η.

La statistique suffisante d'une collection de données indépendantes et identiquement distribuées (i.i.d.) est la somme des statistiques suffisantes individuelles. En estimation bayésienne, elle contient toute l'information nécessaire au calcul de la loi a posteriori des paramètres, conditionnellement aux observations. En estimation classique, elle suffit pour construire un estimateur des paramètres.

  • η est le paramètre naturel de la loi. L'ensemble des valeurs de η pour lesquelles la fonction fX(x|θ) est finie est appelé l' espace paramétrique naturel. On peut montrer que cet espace paramétrique naturel est toujours convexe.
  • A(η) est parfois appelée la fonction de log-partition parce qu'elle est le logarithme du facteur de normalisation a(η) (la « fonction de partition » des statisticiens)  :
ou
L'utilité de la fonction A apparaît quand il faut calculer la moyenne, la variance et les autres moments de la statistique suffisante T(x) : il suffit de dériver A(η).
Par exemple, on veut calculer l'espérance du logarithme d'une variable aléatoire Gamma. Comme ln(x) est une composante de la statistique suffisante de la loi Gamma, l'espérance se calcule aisément en dérivant .
  • b(x) est la mesure de base. Elle sert au calcul d'une prieure non informative (= entropie maximale).

Factorisation[modifier | modifier le code]

Un moyen de caractériser une famille exponentielle est sa factorisation en un produit de termes contenant chacun un seul type de variable, paramètres ou variables aléatoires. Ces facteurs sont présents soit directement, soit dans l'exponentiation (base ou exposant). De façon générale, les facteurs multipliés entre eux devront donc avoir une des formes suivantes :

f(x) et h(x) sont des fonctions quelconques de x, g(θ) et j(θ) sont des fonctions quelconques de θ ; et c est une expression quelconque « constante » (c.à.d. ne comportant ni x ni θ).

La forme est acceptable parce que qui se factorise dans l'exposant. De même pour .

Ces facteurs sont toutefois limités en nombre. Par exemple, l'expression est identique à , un produit de deux facteurs « autorisés ». Pourtant, sa forme factorisée

n'a pas la forme requise. (Par contre, ce genre d'expression constitue une famille exponentielle courbe, qui permet plusieurs termes factorisés dans l'exposant.)

Une somme incluant les deux types de variables, comme par exemple le facteur [1+f(x)g(θ)], ne se prête pas toujours à la factorisation. C'est la raison pour laquelle la loi de Cauchy et la t de Student, par exemple, ne sont pas de famille exponentielle.

Exemples de factorisation[modifier | modifier le code]

La distinction entre paramètres et constantes est fondamentale pour déterminer si une « loi » est ou non de famille exponentielle.

Paramètre scalaire[modifier | modifier le code]

La variable aléatoire normale de moyenne inconnue μ mais de variance σ2 constante a pour fonction de densité

En posant

on voit que c'est une famille exponentielle, à paramètre simple μ.

Si σ = 1, elle est en forme canonique, car alors η(μ) = μ.

Paramètre vectoriel[modifier | modifier le code]

Dans le cas de la normale de moyenne inconnue μ et de variance inconnue σ2, la fonction de densité

est une famille exponentielle à paramètre vectoriel (μ , σ) qui s'écrit sous forme canonique en posant

loi discrète[modifier | modifier le code]

La loi binomiale à nombre de tirages n constant constitue un exemple de famille exponentielle discrète. Sa densité de probabilité

se factorise en

.

Son paramètre naturel vaut

qu'on appelle la fonction logit.

Tableau de familles exponentielles[modifier | modifier le code]

Ce tableau reprend une sélection de lois courantes et leur réécriture en famille exponentielle à paramètres naturels, de forme générale

On a privilégié la forme fonctionnelle avec une fonction de log-partition A(η), parce que les moments de la statistique suffisante se calculent facilement en dérivant cette dernière fonction. On a donné également la fonction A(θ).

En règle générale, le domaine de définition, ou support, reste constant parmi toutes les lois d'une famille exponentielle. Ceci explique pourquoi la variation des paramètres fixés ci-dessus (comme la binomiale à nombre de tirages variable) rend la famille non exponentielle — le paramètre en question affecte le support (en l'occurrence, il modifie la valeur minimum ou maximum possible). C'est pour la même raison que la famille des Uniformes n'est pas non plus exponentielle.

La loi de Weibull à paramètre de forme k fixé est une famille exponentielle. Pourtant, le paramètre de forme ne modifie pas le support. Dans ce cas, c'est la forme particulière de sa fonction de densité (k apparaît dans l'exposant d'un exposant) qui empêche la factorisation de la Weibull si k varie.


loi paramètre θ paramètre naturel η fonction réciproque θ(η) mesure de base
b(x)
statistique suffisante T(x) log-partition A(η) A(θ)
Bernoulli p

(fonction logit)

(fonction logistique)

1 x
binomiale
(n constant)
p x
Poisson λ x λ
Binomiale négative
(r constant)
p ln(p) x r ln(1–p)
Exponentielle λ –λ 1 x
Pareto
(minimum xm constant)
α 1 ln(x)
   

   
Weibull
(k constant)
λ –λk xk
Laplace
(μ constant)
b 1 ln(2b)
Khi-carré ν ln(x)

  

   
Normale
(variance constante)
μ σ η
Normale μ , σ2
Log-normale μ , σ2
Normale inverse μ, λ
Gamma-Normale α, β, μ, λ
  

  


      

Gamma r,λ 1

  
k,θ
Gamma inverse r, λ 1

  
Khi-carré inverse ν, σ2 1

  

      

Bêta α, β

  


  
Dirichlet α1,...,αk 1
  

      

Normale multivariée μ, Σ

      


      

Wishart V, n 1

      


      


  

  • A(η) est donnée sous trois formes, afin de faciliter le calcul des moments.
  • NOTE: Se rappeler que Tr(A'B) = vec(A) • vec(B) ; autrement dit, la trace d'un produit matriciel est semblable à un produit scalaire. Les paramètres matriciels sont considérés comme des vecteurs dans la forme exponentielle. Par ailleurs, V et X sont symétriques.
Wishart inverse Ψ, m 1

   


 


  

multinomiale
(n constant)
(= Multi-Bernoulli
si n=1)
version 1
p1,...,pk

avec


0 0
Multinomiale
(n constant) version 2
p1,...,pk–1

avec

La variante de la multinomiale résulte du fait que les paramètres pi sont contraints par . Il n'y a donc que k-1 paramètres indépendants.

  • Dans la version 1, on voit k paramètres naturels et une relation simple entre les paramètres standard et naturel. Cependant, k-1 seulement des paramètres naturels sont indépendants, et du coup l'ensemble des k paramètres naturels est non identifiable. La contrainte sur les paramètres normaux se transpose à l'identique sur les paramètres naturels.

Notez que la version 1 n'est pas une famille exponentielle standard. C'est une famille exponentielle courbe, puisque k-1 paramètres indépendants sont incorporés dans un espace k-dimensionnel. Les propriétés de base des familles exponentielles ne s'appliquent pas aux familles exponentielles courbes. Par exemple on voit que la fonction de log-partition A(x) a la valeur 0.

  • La version 2 montre une manière simple de rendre les paramètres identifiables en fixant pk. Cela force le dernier paramètre naturel à la valeur constante 0. Les autres formules sont écrites de façon à ne pas utiliser pk, de sorte que le modèle n'a bien que k-1 paramètres, tant sous forme normale que sous forme canonique.

Applications[modifier | modifier le code]

Inférence statistique[modifier | modifier le code]

Estimation classique : exhaustivité[modifier | modifier le code]

Le théorème de Pitman–Koopman–Darmois montre que parmi les familles de lois dont le domaine ne dépend pas du paramètre à estimer, seules les familles exponentielles offrent une statistique suffisante dont la dimension reste bornée quand la taille d'échantillon croît.

Concrètement, soient Xk, (où k = 1, 2, 3, ... n) des variables aléatoires indépendantes, identiquement distribuées. Il faut que leur loi soit de famille exponentielle pour qu'existe une statistique suffisante T(X1, ..., Xn) dont le nombre de composantes scalaires n'augmente pas avec la taille d'échantillon n : sa dimension ne changera pas quand on collecte plus de données.

Estimation bayesienne : lois conjuguées[modifier | modifier le code]

En inférence bayésienne, une loi a priori d'un paramètre à estimer est multipliée par une fonction de vraisemblance (puis normalisée) pour aboutir à une loi a posteriori.

Une prieure conjuguée est une loi a priori qui, après combinaison à la fonction de vraisemblance, donne une loi a posteriori de même type, ce qui rend particulièrement facile le calcul de la postérieure. Par exemple, pour estimer la probabilité de succès p d'une loi binomiale, si on prend une loi bêta comme prieure, la postérieure sera une autre loi bêta. De même, l'estimation du paramètre d'une Poisson par une prieure Gamma donne une postérieure Gamma. Les prieures conjuguées sont souvent très pratiques, de par leur flexibilité.

Lorsque la fonction de vraisemblance est de famille exponentielle, il existe une prieure conjuguée, qui sera en général elle aussi de famille exponentielle. En règle générale, une fonction de vraisemblance ne sera pas de famille exponentielle, et donc il n'existera pas de prieure conjuguée. La postérieure devra être calculée par des méthodes numériques.

La prieure conjuguée π (pour « prior ») sur le paramètre η d'une famille exponentielle est donnée par

  • ν > 0 représente le nombre virtuel d'observations fournies par la prieure.
  • (s étant la dimension de η) représente la contribution de ces pseudo-observations dans la statistique suffisante constituée de toutes les observations et pseudo-observations.

χ et ν sont des hyperparamètres (paramètres contrôlant des paramètres).

  • f(χ,ν) est la constante de normalisation, déterminée automatiquement par les autres fonctions, qui sert à assurer que π(η| χ,ν) est une fonction de densité.
  • A(η) (resp. a(η)) sont les mêmes fonctions que dans la loi p(x| χ) pour laquelle π est prieure conjuguée.


Pour voir que cette loi a priori est une prieure conjuguée, calculons-en la postérieure.

Soit la fonction de densité (ou de probabilité) d'une observation, de famille exponentielle, écrite en paramètre naturel :

La vraisemblance des données X = (x1, ...,xn) est donnée par :

Par conséquent, en appliquant la loi a priori susdite :

on dérive la postérieure :

Ainsi, la postérieure a effectivement la même forme que la prieure :

Notons que les observations X n'entrent dans la formule que à travers , autrement dit la statistique suffisante des observations. Ceci confirme que la valeur de la statistique suffisante détermine complètement la loi a posteriori. Les valeurs individuelles des observations ne sont pas nécessaires ; tout ensemble de données avec la même valeur pour la statistique suffisante produira la même loi. Or, rappelons que la dimension de la statistique suffisante ne croît pas avec la taille d'échantillon : elle a au plus le nombre de composantes de η (à savoir, le nombre de paramètres de la loi d'une seule donnée).

Les nouveaux hyperparamètres sont


La mise à jour bayesienne ne nécessite que de savoir le nombre d'observations et la valeur de la statistique suffisante des données.

Tests d'hypothèses : tests uniformément plus puissants[modifier | modifier le code]

Pour une famille exponentielle à paramètre simple θ, si η(θ) est non-décroissant, le ratio de vraisemblance est une fonction monotone non-décroissante de la statistique suffisante T(x). En conséquence, il existe un test d'hypothèse « uniformément plus puissant » pour tester H0 : θθ0 contre H1 : θ < θ0.

Modèle linéaire généralisé[modifier | modifier le code]

La famille exponentielle est à la base des fonctions de loi utilisées dans le modèle linéaire généralisé, qui comprend la plupart des modèles de régression en statistique et en économétrie.

Moments et cumulants de la statistique suffisante[modifier | modifier le code]

Calcul des cumulants de T par différenciation[modifier | modifier le code]

La fonction génératrice des moments de T(x) est définie comme

Par conséquent, K(u|η) = A(η+u) – A(η) est la fonction génératrice des cumulants de T.

N.B. : Dans la sous-famille exponentielle naturelle (où T(x) = x), c'est la fonction génératrice des moments de x.

Par définition de la fonction génératrice des cumulants,

Les moments et cumulants d'ordre supérieur sont fournis par les dérivées supérieures. Cette technique est particulièrement utile lorsque T est une fonction compliquée, dont les moments sont difficiles à calculer par intégration.

Ce résultat est démontrable sans recourir à la théorie des cumulants.

Exemple : soit

.

Par contrainte de normalisation,

.

On dérive les deux côtés par rapport à η :

Par conséquent,

Exemples[modifier | modifier le code]

Loi Gamma

La loi Gamma est définie par la fonction de densité

Le tableau ci-dessus donne pour paramètre naturel

dont les réciproques sont

Les statistiques suffisantes sont (ln x, x), et la fonction de log-partition vaut

On cherche la moyenne de la statistique suffisante. Pour η1 :

ψ(x) est la fonction digamma (dérivée du log gamma).

De même, pour η2 :

Pour trouver la variance de x, il faut différencier à nouveau :

Tous ces calculs peuvent se faire par intégration, en partant de la fonction gamma, mais cela demande plus d'effort.

Loi logistique asymétrique

Soit une variable aléatoire réelle X de loi logistique asymétrique.

θ > 0 est un paramètre de forme. Cette densité se factorise comme suit :

C'est donc une famille exponentielle de paramètre naturel η = –θ, donc une statistique suffisante est T = log(1 + ex), et la fonction de log-partition vaut A(η) = –log(θ) = –log(–η).

Ainsi, par la première équation,

et par la seconde,

Dans cet exemple, l'usage de la méthode simplifie les calculs, une approche directe alourdissant grandement les égalités.

Loi de Wishart

La loi de Wishart est définie sur des matrices aléatoires. Ce dernier exemple aborde un cas où l'intégration serait particulièrement ardue. N.B. : la dérivation elle-même est difficile, car elle exige du calcul matriciel, mais l'intégration est pire.

Le tableau donne le paramètre naturel

dont la transformation réciproque est

.

Les statistiques suffisantes sont (X, ln|X|).

La fonction de log-partition est donnée sous différentes formes, afin de faciliter la différentiation et les transformations. On utilisera les formes suivantes :

Espérance de X (associé à η1)

La dérivée par rapport à η1 repose sur l'égalité calcul matriciel :

Dès lors :

car V est symétrique.

Espérance de ln|X| (associé à η2)

D'abord, on développe la partie de la log-partition qui contient la fonction gamma multivariée :

On introduit la fonction digamma .

Dès lors :

Ces deux espérances sont nécessaires pour dériver les équations d'adaptation variationnelle d'un réseau bayésien qui comporte une loi de Wishart (laquelle est la prieure conjuguée de la normale multivariée).

Entropie maximale[modifier | modifier le code]

Maximum entropy probability distribution (en)

On cherche la loi dont l'entropie est maximale, conditionnellement à une série de contraintes sur les espérances. La réponse est une famille exponentielle.

L'entropie informationnelle d'une loi de probabilité dF(x) se calcule par rapport à une autre loi de probabilité (ou, de façon plus générale, une mesure positive), telle que les deux mesures soient mutuellement absolument continues. Soit une mesure de base dH(x) de même support que dF(x).

L'entropie de dF(x) relativement à dH(x) est définie comme

dF/dH et dH/dF sont les dérivées de Radon–Nikodym.

On note que la définition habituelle de l'entropie d'une loi discrète sur un ensemble Y, à savoir , suppose implicitement que la mesure dH choisie est la mesure de comptage de Y.
De même, pour une loi continue, H(x)=x donne


Soit un échantillon de quantités observables (variables aléatoires) Tj.
La loi dF d'entropie maximale par rapport à dH, conditionnellement à ce que l'espérance de Tj soit égale à tj, sera un membre de la famille exponentielle ayant dH pour mesure de base et (T1, ..., Tn) pour statistique(s) suffisante(s).

Ce résultat se déduit par le calcul des variations à l'aide de multiplicateurs de Lagrange. La normalisation est garantie en imposant la contrainte T0 = 1. Les paramètres naturels de la loi sont les multiplicateurs de Lagrange associés aux tj et le facteur de normalisation est le multiplicateur de Lagrange associé à T0.

Notes et références[modifier | modifier le code]

  1. G. Darmois, « Sur les lois de probabilités à estimation exhaustive », C.R. Acad. Sci. Paris, vol. 200,‎ , p. 1265–1266.
  2. (en) E. Pitman et J. Wishart, « Sufficient statistics and intrinsic accuracy », Mathematical Proceedings of the Cambridge Philosophical Society, vol. 32, no 4,‎ , p. 567–579 (DOI 10.1017/S0305004100019307).
  3. (en) B Koopman, « On distribution admitting a sufficient statistic », Transactions of the American Mathematical Society, vol. 39, no 3,‎ , p. 399–409 (DOI 10.2307/1989758, JSTOR 1989758, Math Reviews 1501854).
  4. Kupperman, M. (1958) "Probabilities of Hypotheses et Information-Statistics in Sampling from Exponential-Class Populations", Annals of Mathematical Statistics, 9 (2), 571–575 JSTOR:2237349.
  5. (en) Erling etersen, « Sufficiency et Exponential Families for Discrete Sample Spaces », Journal of the American statistique Association, vol. 65, no 331,‎ , p. 1248–1255 (DOI 10.2307/2284291, JSTOR 2284291, Math Reviews 268992).

Voir aussi[modifier | modifier le code]

Bibliographie[modifier | modifier le code]

  • (en) E. L. Lehmann, Casella, G., Theory of Point Estimation, , 2nd ed., sec. 1.5
  • (en) Robert W. Keener, Statistical Theory: Notes for a Course in Theoretical Statistics, Springer, , 27–28, 32–33
  • (en) Ludwig Fahrmeier, Tutz, G., Multivariate statistical modelling based on generalized linear models, Springer, , 18–22, 345–349

Liens externes[modifier | modifier le code]