• Nenhum resultado encontrado

Amélioration de la méthode de Pham

La méthode de Pham fournit une bonne base pour l’initialisation du modèle.

Cependant, elle manque de robustesse. En effet, la méthode de Powell a tendance à tomber très tôt dans un minimum local de la fonctionnelle d’énergie, pour ne plus en sortir. Nous proposons donc un certain nombre d’améliorations pour rendre la méthode plus robuste.

3.3.0.3 Fonctionnelle d’énergie

Outre le critère de proximité des contours, Pham propose un critère région pour le recalage modèle-données. Ce terme pose un certain nombre de problèmes : tout d’abord, son calcul nécessite de parcourir toute une partie de l’image, ren- dant son évaluation particulièrement lente. D’autre part, il dépend fortement du type d’image étudié. Ainsi, il faudrait un modèle différent pour chaque type de sé- quence. Le fait d’avoir deux termes sous-entend également de choisir leurs pondé- rations respectives, ce qui n’est pas forcément évident. Finalement, nous n’avons

pas constaté, lors de nos expérimentations, d’amélioration notable liée à l’utili- sation du critère région. Nous proposons donc de nous limiter à l’utilisation du critère de proximité aux contours.

Un des facteurs les plus importants de la difficulté d’un problème de minimi- sation est la dimension de la fonctionnelle étudiée. Pour simplifier le problème et augmenter les chances de trouver la bonne solution en temps utile, nous proposons de restreindre l’espace des transformations à sept paramètres : les translations, les rotations, et un paramètre de mise à l’échelle isotrope. Les autres transformations proposées par Pham augmentent significativement la taille du problème, sans être vraiment nécessaires pour décrire la variation anatomique du cœur d’un patient à l’autre.

Pham remarque que l’ordre des transformations élémentaires a une impor- tance. Il propose d’utiliser l’ordre décrit précédemment, avec les translations en premier (équation 3.3). Comme les translations modifient l’origine de l’espace, elles modifient les sens des autres transformations. Les différents paramètres de la transformation globale ne sont alors plus indépendants. Nous proposons donc d’appliquer les translations en dernier. De cette manière, les paramètres sont in- dépendants et la minimisation plus aisée.

Dans la plupart des séquences IRM ciné modernes (sang blanc), la paroi en- docardique est beaucoup plus visible que la paroi épicardique. Ainsi, les contours de l’épicarde sont mal détectés par les filtres d’extraction de contours classiques.

Nous proposons donc de nous limiter aux contours endocardiques pour l’initiali- sation du modèle.

3.3.0.4 Minimisation

La méthode de Powell et la méthode du simplexe sont en elles-mêmes très sensibles aux minima locaux. Nous proposons deux solutions potentielles pour s’approcher du minimum global.

Nous proposons tout simplement d’effectuer un certain nombre de minimisa- tions par la méthode du simplexe avec des initialisations aléatoires, et de garder la meilleure solution. On peut voir cette solution comme une méthode de Monte- Carlo, à la différence que nous comparons des minima locaux plutôt que de com- parer directement des solutions aléatoires. De cette manière, seul un nombre li- mité d’essais est nécessaire pour trouver une solution convenable. Pour accélérer la méthode, nous ne faisons que des optimisations incomplètes pour chaque initia- lisation aléatoire, c’est à dire que nous arrêtons le processus d’optimisation avant d’avoir atteint une convergence complète. Le meilleur résultat est raffiné à la fin par une méthode de Powell menée jusqu’au bout.

Pour favoriser la diversité dans les solutions étudiées, nous avons également proposé de pénaliser la proximité aux solutions déjà étudiées, en multipliant l’énergie contour par le terme suivant :

Jprox=

Ninit

X

i=1

1

||x−xi||2

oùNinit est le nombre d’initialisations déjà testées, et lesxi sont les minima lo- caux déjà trouvés. Ce terme n’est bien sûr utilisé que pour guider le simplexe et

non pour comparer les minima locaux à la fin de l’algorithme.

3.3.1 Résultats

Pour évaluer l’impact des différentes modifications proposées, nous procédons d’après le protocole suivant : pour un nombre d’initialisations aléatoires donné, on procède au recalage un certain nombre de fois, en comparant à chaque fois les paramètres de la transformation obtenue à ceux de la solution attendue, définie manuellement. Si la solution obtenue est suffisamment proche de la solution opti- male, on considère que le processus de recalage a réussi. On peut alors estimer le taux de réussite, c’est-à-dire le nombre de recalages réussis sur le nombre de re- calages effectués, en fonction de la méthode étudiée et du nombre d’initialisations aléatoires.

Nous évaluons l’impact de l’absence de chaque modification proposée dans la méthode de référence suivante : initialisations aléatoires, minimisations incom- plètes par la méthode du simplexe (tolérance de 0.15 en normeL2sur l’écart entre les points du simplexe), translations en dernier, pas de pénalisation des solutions proches, et critère de contour limité à l’endocarde. Nous avons ainsi évalué chaque modification proposée, pour un nombre d’initialisations aléatoires variant de 10 à 4000, en réalisant 200 recalages à chaque fois. Les résultats sont présentés dans les figures 3.1, 3.2 et 3.3.

Ces résultats montrent que chacune des modifications proposées, à l’exception de la pénalisation, améliore de manière significative les résultats. Nous avons éga- lement testé l’effet de la taille du simplexe initial : s’il est trop petit, les résultats sont de moins bonne qualité. Cependant, les résultats varient suffisamment lente- ment pour que l’on puisse considérer que ce paramètre est relativement facile à fixer.

Nous avons aussi comparé notre méthode à une méthode de Monte-Carlo clas- sique, en supprimant l’étape de minimisation par le simplexe. On calcule alors simplement l’énergie d’un grand nombre de configurations aléatoires, et on raffine la meilleure par la méthode de Powell. Les résultats montrent que le taux d’erreur diminue beaucoup plus vite avec notre méthode qu’avec celle de Monte-Carlo.

Même si l’on prend en compte la différence de temps de calcul, notre méthode s’avère plus performante dans le sens que pour un temps de calcul donné, le taux d’erreur est inférieur.

Finalement, nous avons évalué l’utilisation d’une minimisation simplexe me- née jusqu’au bout (tolérance de 0.05) pour chaque initialisation aléatoire. Le taux d’erreur diminue beaucoup plus rapidement en fonction du nombre d’initialisa- tions ; cependant, l’augmentation du temps de calcul compense essentiellement ce gain. On peut considérer que le fait d’utiliser ou non des minimisations com- plètes n’influe pas outre mesure sur les résultats.

La figure 3.3 présente les temps de calculs obtenus pour les différentes mé- thodes avec 500 initialisations aléatoires. Ce nombre a été retenu car il permet d’obtenir des résultats acceptables avec la méthode de référence. On peut de toutes façons considérer que le temps de calcul croît de manière quasi-linéaire avec le nombre d’initialisations aléatoires. Il faut environ deux minutes pour effectuer le recalage avec la méthode de référence sur un PC ordinaire. Les variations du

10 100 1000 0

10 20 30 40 50 60 70 80 90

Pénalisation Monte-carlo Petit simplexe Translations en premier Méthode de référence Avec prise en compte de l'épicarde

Initialisations aléatoires

Taux d'erreur (%)

FIGURE 3.1 – Taux de réussite obtenu avec différentes méthodes en fonction du nombre d’initialisations aléatoires

temps de calcul entre méthodes sont dues principalement aux différences dans le nombre d’itérations nécessaires à la convergence du simplexe. La méthode de ré- férence offre le meilleur compromis, c’est-à-dire le meilleur taux d’erreur pour un temps de calcul donné.

3.3.2 Conclusions sur l’initialisation automatique

Malgré les améliorations apportées par les initialisations multiples, la méthode présentée donne encore par moment des résultats erronés. Il apparaît que le cri- tère d’énergie en lui-même est parfois mauvais : son minimum ne correspond pas nécessairement à une solution acceptable. En particulier, les muscles papillaires peuvent masquer le vrai contour endocardique sur certaines images.

Pour obtenir des résultats plus robustes, nous avons choisi de développer une méthode semi-automatique, basée sur la sélection de quelques amers anatomiques par le médecin. Cela lui permet en outre de garder le contrôle sur le processus de segmentation.