• Nenhum resultado encontrado

Distances issues du monde de la théorie de l’information

No documento Nicolas Trouvé (páginas 117-122)

1.4 Application aux tests statistiques en polarimétrie

1.4.3 Distances issues du monde de la théorie de l’information

1.4. Application aux tests statistiques en polarimétrie

Cas Gaussien

Avant de commencer nous rappelons des propriétés sur les densités de probabilité qui nous serviront par la suite. PA(k), correspond à une distribution gaussienne de matrice de covariance A. On a donc, par définition d’une densité de probabilité :

Z

PA(k)dk= 1. (1.50)

Par définition de la matrice de covariance/cohérence :

Z kk PA(k)dk=EA(kk) = A. (1.51) Dans l’ensemble des calculs suivants nous chercherons à faire apparaître ces expressions afin d’effectuer des simplifications à partir des expressions sous forme d’intégrales.

1. la mesure de Kullback Leibler, nous remplaçons pour commencer uniquement les densités de probabilité dans le logarithme,

I(A,B) = Z PA(k).log PA(k) PB(k)

!

dk

=

Z

PA(k).log

1

πm|A|expkA1k

1

πm|B|exp (−kB1k)

dk

=

Z

PA(k).log |B|

|A|

!

+kB1kkA1kdk

= log |B|

|A|

!Z

PA(k)dk+

Z

T rB1kkA1kkPA(k)dk

= log |B|

|A|

!

+tr(B1A1)

Z kkPA(k)dk

= log |B|

|A|

!

+trB1AI.

(1.52) L’expression obtenue est exactement similaire à celle que nous avions trouvée pour le rapport de vraisemblance dans lequel nous avions introduit un seul paramètre ΣB. Dans le cas gaussien, la mesure de Kullback Leibler est donc équivalente à la distance de Wishart. Nous noterons qu’ici, nous avons par contre une expression qui ne dépend pas d’estimateurs de matrices mais que ceux-ci seront de toute façon nécessaires, exactement comme dans le cas du rapport de vraisemblance. Par contre, nous constatons aussi que le nombre d’échantillons dans les populations n’a pas d’impact ici. Pour obtenir exactement les mêmes expressions que dans les rapports de vraisemblance, nous devrions étudier la mesure de Kullback Leibler entre deux distributions de Wishart et utiliser la densité de probabilité de la loi de la matrice et non du vecteur. La démonstration est par contre beaucoup moins simple et aboutit, à l’exception de l’impact du nombre d’échantillons, à la même expression.

2. La divergence de Kullback Leibler : elle s’exprime de la manière suivante :

J(A,B) = I(A,B) +I(B,A) =trB1A+A1B−2I. (1.53) De la même manière on retrouve une expression qui est similaire à un test issu du rapport de vraisemblance dans lequel nous avions introduit deux paramètres A et B.

Cette divergence est identique à la distance de Wishart révisée. On retrouverait aussi la même expression, bien que plus difficilement, à partir des densités matricielles.

Celles-ci dépendraient aussi, comme pour le rapport de vraisemblance, du nombre d’observations.

3. La distance de Bhattacharyya : le calcul est légèrement plus complexe que pour les deux autres. Nous commençons par écrire :

B(A,B) = −logh

Z

PA(k)1/2PB(k)1/2dki,

= −logh

Z 1

πm2|A|12 exp −kA1k 2

! 1

πm2|B|12 exp −kB1k 2

!

dki,

= −logh 1

|A|12|B|12

Z 1

πm exp −k(B1+A1)

2 k

!

dki,

(1.54) Il convient alors de poser un troisième paramètre intermédiaire, défini comme C=

(B1

+A1) 2

1

,

B(A,B) = −logh 1

|A|12|B|12

Z |C|

πm|C|expkC1kdki,

= −logh |C|

|A|12|B|12

Z

PC(k)dki,

= −logh |A|12|B|21

|(A−1+B2 −1)||A||B|

i,

= −logh|A|12|B|12

|(A+B)2 |

i.

(1.55) La distance de Bhattacharyya correspond, elle, au rapport de vraisemblance utilisant un paramètreΣCdans le cas gaussien. Ce n’est pas surprenant puisque ce paramètre est justement introduit pendant son calcul.

4. La distance de Chernoff : nous pouvons, par un calcul similaire trouver : C(A,B) = max

0<t<1−logh |A|1t|B|t

|(tA+ (1−t)B)|

i. (1.56)

1.4. Application aux tests statistiques en polarimétrie

Dans le cas SIRV

Dans le cas SIRV nous rappelons que nous décomposons le vecteur k sous la forme ˆk=√

τˆz, donc par définition de la matrice de covariance/cohérence nous pourrons utiliser la propriété suivante :

Z kk

τ PA(k)dk=EA(ˆzˆz) = A. (1.57) Nous allons refaire rapidement les démonstrations dans le cas d’un vecteur suivant une loi SIRV "déterministe", c’est à dire où la texture τ est supposée déterministe. Nous allons voir que nous retrouvons ici les mêmes expressions pour les tests que dans le cas gaussien.

1. la mesure de Kullback Leibler : de la même manière que dans le cas gaussien, on écrit,

I(A,B) = Z PA(k).log PA(k) PB(k)

!

dk,

=

Z

PA(k).log

1

πmτm|A|expkAτ−1k

1

πmτm|B|expkBτ−1k

dk

=

Z

PA(k).log(|B|

|A|) + kB1kkA1k τ

dk

= log(|B|

|A|) +tr(B1A1)

Z kk

τ PA(k)dk

= log(|B|

|A|) +trB1AI.

(1.58) 2. La divergence de Kullback Leibler : de même qu’en gaussien, on a

J(A,B) =I(A,B) +I(B,A) =trB1A+A1B−2I. (1.59) 3. La distance de Bhattacharyya : comme pour le cas gaussien, on fait apparaître un

paramètre intermédiaireC.

B(A,B) = −logh

Z

PA(k)1/2PB(k)1/2dki,

= −logh 1

|A|12|B|12

Z 1

πmτm exp −k(B1+A1)

2τ k

!

dki,

= −logh|A|12|B|12

|(A+B)2 |

i.

(1.60) 4. La distance de Chernoff : de la même manière, il est possible de montrer que l’ex- pression de la distance de Chernoff est la même que dans le cas de distributions gaussiennes.

Nom référence Acronyme Expression Kullback Leibler Mesure KLM log(||ΣΣB|

A|) +tr(ΣB1ΣA)−m Kullback Leibler Divergence KLD tr(ΣB1ΣA+ ΣA1ΣB)−2m

Chernoff Distance Che max

0<t<1−loghA|1tB|t

|(tΣA+ (1−tB)|

i

Bhattacharyya Distance Bha −logh|ΣA|1/2|ΣB|1/2

|NΣAN+P+PΣB|

i

Table 1.2 – Expressions des tests ou distances dans le cadre d’une modélisation gaus- sienne du fouillis.

Les quatres distances sur lesquelles nous nous sommes concentrés sont, à l’exception de la distance de Chernoff, équivalentes à des tests statistiques issus de rapports de vraisem- blance. Ce résultat est assez confortant et laisse présager, a priori, de bonnes performances pour ces tests. Il convient cependant de faire les remarques suivantes :

– Contrairement aux distances issues de rapport de vraisemblance, les distances issues de la théorie de l’information sont naturellement indépendantes du nombre d’obser- vations. Nous venions de voir en quoi le nombre d’observations pouvait influencer négativement les performances dans certains types d’applications. Nous n’aurons pas ce problème ici.

– Dans le cas de distributions SIRV, les distances sont rigoureusement identiques et seuls les estimateurs de matrices utilisés seront différents. On observe donc une di- vergence entre les tests issus du rapport de vraisemblance et ces distances. Pour la distance de Wishart et la distance de Wishart Révisée, qui correspondent respecti- vement à la Mesure de Kullback Leibler et la Divergence de Kullback Leibler, on conserve la même expression dans le cas SIRV. C’est entre la distance de Bartlett et de Bhattacharyya, identiques dans le cas gaussien, qu’on obtient une expression différente.

Compte tenu de la ressemblance très importante des distances issues des deux mondes, nous n’aurons à étudier qu’un nombre restreint de distances. Nous allons récapituler les distances dont nous allons étudier les performances ainsi que les noms auxquels nous ferons référence par la suite.

Bien évidemment nous testons ces distances à la fois dans des fouillis gaussiens (table 1.2) mais aussi des fouillis non gaussiens (table 1.3). Dans le premier casΣA etΣB corres- pondent aux estimées des matrices de covariance ou de cohérence à l’aide de l’estimateur

1.4. Application aux tests statistiques en polarimétrie classique, souvent appelé SCM. Ainsi Σ =

M

X

n=1

knn. Nous ne faisons pas intervenir ΣC

dans la mesure où ce paramètre s’exprime en fonction des deux précédents. Cela ne sera plus valable dans le cas non gaussien. Nous préférons utiliser autant que possible les noms associés aux distances provenant de la théorie de l’information puisque les noms associés aux rapports de vraisemblance seront utilisés dans le cas non gaussien, où les expressions diffèrent.

Dans le tableau 1.3,ΣA etΣB correspondent aux estimées des matrices de covariance ou de cohérence à l’aide de l’estimateur du point fixe. Ainsi Σ = PMn=1 kkΣnk−1ˆnk. Ici ΣC

correspond à l’estimée de la matrice de covariance sur l’ensemble des deux populationsA etB. Par souci de cohérence, les distances quasi identiques aux distances gaussiennes, à l’exception du processus d’estimation, gardent le même nom (avec un + PF).

No documento Nicolas Trouvé (páginas 117-122)