Loi enveloppée

Un article de Wikipédia, l'encyclopédie libre.

En théorie des probabilités et dans les statistiques directionnelles, une loi de probabilité enveloppée est une loi de probabilité continue qui décrit les points de données qui se trouvent sur une n -sphère unitaire. En une dimension, une distribution enveloppée est constituée de points sur le cercle unité. Si est une variable aléatoire sur la droite réelle avec pour fonction de densité de probabilité , alors est une variable circulaire suivant la loi enveloppée et est une variable angulaire dans l'intervalle suivant la loi enveloppée .

Toute fonction de densité de probabilité sur la droite peut être "enveloppée" autour de la circonférence d'un cercle de rayon unité[1]. Ainsi, la densité de la variable enveloppée

sur un intervalle de longueur

est

qui est une somme périodique (en) de période . On préfère généralement l'intervalle sur lequel on a .

Théorie[modifier | modifier le code]

Dans la plupart des situations, un processus impliquant des statistiques circulaires produit des angles () qui se situent dans l'intervalle , et sont décrits par une fonction de densité de probabilité « non enveloppée » . Cependant, une mesure donnera un angle qui se situe dans un intervalle de longueur (par exemple, ). En d’autres termes, une mesure ne peut pas dire si l’angle réel ou un angle enveloppé , où est un entier inconnu, a été mesuré.

Si on souhaite calculer l'espérance d’une fonction de l’angle mesuré, ce sera :

.

On peut exprimer l'intégrale comme une somme d'intégrales sur des périodes de  :

.

En changeant la variable d'intégration en et en échangeant l'ordre d'intégration et de sommation, on a :

est la fonction de densité de la loi enveloppée et est un autre entier inconnu . L'entier inconnu introduit une ambiguïté dans l'espérance de , similaire au problème du calcul de la moyenne angulaire (en). Ceci peut être résolu en introduisant le paramètre , dans la mesure où a une relation sans ambiguïté avec le véritable angle  :

Calculer l'espérance d'une fonction de donne des réponses sans ambiguïté :

Pour cette raison, le paramètre est préféré aux angles mesurés dans l’analyse statistique circulaire. Cela suggère que la fonction de distribution enveloppée peut elle-même être exprimée en fonction de par :

est défini de telle sorte que . Ce concept peut être étendu au contexte multivarié par une extension de la somme simple à un certain nombre de sommes qui couvrent toutes les dimensions de l'espace des fonctionnalités :

est le e vecteur de base euclidienne.

Expression en termes de fonctions caractéristiques[modifier | modifier le code]

Une distribution enveloppée fondamentale est le peigne de Dirac, qui est une fonction delta de Dirac enveloppée :

En utilisant la fonction delta, une distribution générale enveloppée peut être écrite

En échangeant l'ordre de sommation et d'intégration, toute distribution enveloppée peut être écrite comme la convolution de la distribution non enveloppée et d'un peigne de Dirac :

Le peigne de Dirac peut également être exprimé comme une somme d’exponentielles, on peut donc écrire :

En échangeant à nouveau l'ordre de sommation et d'intégration :

En utilisant la définition de , la fonction caractéristique de , on obtient une série de Laurent autour de zéro pour la distribution enveloppée en termes de fonction caractéristique de la distribution non enveloppée :

ou

De manière analogue aux distributions linéaires, est appelée la fonction caractéristique de la distribution enveloppée (ou plus précisément, la suite caractéristique)[2]. Il s'agit d'un exemple de la formule de sommation de Poisson, et on peut voir que les coefficients de la série de Fourier pour la distribution enveloppée sont simplement les coefficients de la transformée de Fourier de la distribution non enveloppée à des valeurs entières.

Moments[modifier | modifier le code]

Les moments de la distribution enveloppée sont définis comme :

.

En exprimant en termes de fonction caractéristique et en échangeant l'ordre d'intégration et de sommation, on obtient :

.

Par le théorème des résidus on en déduit

est la fonction delta de Kronecker. Il s'ensuit que les moments sont simplement égaux à la fonction caractéristique de la distribution non enveloppée pour les arguments entiers :

.

Génération de variables aléatoires[modifier | modifier le code]

Si est une variable aléatoire tirée d'une loi de probabilité linéaire , alors est une variable circulaire distribuée selon la loi enveloppé , et est la variable angulaire distribuée selon la loi enveloppée , avec .

Entropie[modifier | modifier le code]

L'entropie informationnelle d'une distribution circulaire avec densité de probabilité est définie comme:

est un intervalle de longueur [1]. Si la densité de probabilité et son logarithme peuvent être exprimés sous forme de série de Fourier (ou plus généralement, par n'importe quelle transformée intégrale sur le cercle), la base orthogonale (en) de la série peut être utilisée pour obtenir une expression sous forme fermée de l'entropie.

Les moments de la loi sont les coefficients de Fourier du développement en série de Fourier de la densité de probabilité :

Si le logarithme de la densité de probabilité peut également être exprimé sous forme de série de Fourier :

Ensuite, en échangeant l’ordre d’intégration et de sommation, l’entropie peut s’écrire :

En utilisant l'orthogonalité de la base de Fourier, l'intégrale peut être réduite à :

Pour le cas particulier où la densité de probabilité est symétrique par rapport à la moyenne, et le logarithme peut s'écrire :

et

et, puisque la normalisation exige que , l'entropie peut s'écrire :

Voir également[modifier | modifier le code]

Références[modifier | modifier le code]

  1. a et b Kantilal Mardia et Jupp, Peter E., Directional Statistics, Wiley, (ISBN 978-0-471-95333-3, lire en ligne)
  2. K. Mardia, Statistics of Directional Data, New York, Academic press, (lire en ligne)