• Nenhum resultado encontrado

Ecole Doctorale “Sciences et Technologies de l’Information des Télécommunications et des Systèmes”

N/A
N/A
Protected

Academic year: 2023

Share "Ecole Doctorale “Sciences et Technologies de l’Information des Télécommunications et des Systèmes”"

Copied!
290
0
0

Texto

Je tiens également à remercier Frédéric Bataille, LE doctorant qui m'a précédé dans l'équipe et dont j'ai énormément bénéficié de l'expérience, notamment dans le domaine du MAP. Je tenais à remercier les membres de l'équipe de Bertrand Tavitian avec qui j'ai pu communiquer, lors de réunions ou à la cafétéria.

A Introduction

B Contexte médical et enjeux pour la société

Dans cette catégorie, citons notamment la dépression, la schizophrénie et les troubles liés à l'usage de substances addictives, qui affectent le système dopaminergique, sur lesquels nous nous concentrerons dans le chapitre III. L'imagerie cérébrale joue un rôle de premier plan, comme l'illustrent ces deux recommandations du rapport de l'INSERM sur la maladie d'Alzheimer [INSERM, 2007b].

C Imagerie cérébrale

Éléments d’anatomie cérébrale

La position de référence pour l'homme ou position anatomique est la position debout, pieds joints, paumes vers l'avant. Une coupe sagittale du corps humain correspond à un plan vertical permettant de séparer le côté droit du côté gauche en position anatomique, une coupe frontale ou coronale avec un plan vertical permettant de séparer la partie antérieure de la section postérieure, et enfin une section transversale correspond à un plan horizontal.

On parle aussi de plan médian pour parler du plan sagittal situé sur la ligne médiane du corps humain. Les différents plans appliqués au cerveau humain sont représentés en trois dimensions (3D) sur la figure I.1.

La taille de ces structures est petite : typiquement 5 à 10 cm3 pour le thalamus, le putamen et le caudé d'un hémisphère, l'épaisseur du cortex est de l'ordre de quelques millimètres. La petite taille de ces structures et la finesse de leurs interfaces illustrent donc la nécessité de disposer de modalités à haute résolution spatiale.

Notions fonctionnelles

Il fait également partie du système limbique, la partie du cerveau associée aux émotions et également impliquée dans les processus de mémoire. Le cervelet reçoit des informations du cortex et de plusieurs récepteurs sensoriels et permet, par son action, le maintien de l'équilibre, de la posture et l'exécution de mouvements coordonnés.

Tomodensitométrie

L'hypothalamus est le principal centre d'intégration du système nerveux autonome (involontaire) et régule les sécrétions hormonales. L'imagerie morphologique in vivo comprend principalement deux modalités : la tomodensitométrie (§2.1) et l'imagerie par résonance magnétique (§2.2).

Déjà dans les années 1920, une solution pratique partielle à ce problème avait été proposée, inspirée par la photographie. Déplacer le détecteur et la source dans des directions opposées permet à la source de se concentrer sur un plan tandis que les autres plans apparaissent flous (cité dans [Brooks et Di Chiro, 1976]).

Dans les années 1960, Oldendorf a proposé une méthode et développé un prototype pour examiner l'intérieur des objets, en utilisant une source de rayons gamma ou X, le mouvement relatif de l'objet et de la source (rotation rapide autour d'un point lentement translaté) et une faible luminosité. filtrage par passage [Oldendorf, 1961]. Ces techniques d'acquisition et l'amélioration des tubes à rayons X ont également permis une réduction significative de la résolution spatiale, comme l'illustre la figure I.10.

Les temps d'enregistrement pour une section sont représentés ainsi que les différentes géométries (adaptées de [Kalender Katsevich, 2001] pour l'enregistrement conique, notamment avec trajectoire hélicoïdale). L'angiographie tomodensitométrique peut illustrer la progression des saignements dans les hémorragies intracérébrales, comme le montre la Figure I.11.

Imagerie par résonance magnétique

La flèche indique un défaut du système vasculaire, plus visible sur la figure C : projection de l'intensité maximale de l'image angiographique. Lauterbur et Mansfield ont reçu le prix Nobel de médecine en 2003 pour leurs travaux sur l'IRM.

Une transformée de Fourier inverse peut alors être utilisée pour trouver la mesure de l'aimantation (voir §II.1.5). On peut aussi montrer que l'équation (I.6) en présence d'une impulsion radiofréquence du type et d'un gradient selon ~z permet de choisir une section dont l'épaisseur peut être modifiée en changeant la valeur du gradient ou dans l'impulsion fréquence (un gradient est également nécessaire après l'impulsion pour éviter tout déphasage).

T2(x,y)e−iω0te−iγ(Gxx+Gyy+Gzz)∆tdxdydz (I.8) Cela correspond dans le référentiel tournant, avec la décroissance exponentielle dans T12, à la transformée de Fourier 3D de l'aimantation à travers l'impulsion radiofréquence mesurée enkx= 2πγ Gx∆t, ky = 2πγGy∆t, kz = 2πγGz∆t. En général, la norme de l'aimantation transversale ainsi mesurée après chaque impulsion et T Es' écrite.

La figure I.14 est un exemple d'image transversale T1, prise dans un plan proche de la coupe anatomique de la figure I.4. Cette image illustre la bonne résolution spatiale de l'IRM (de l'ordre de la centaine de microns), qui permet de distinguer la matière blanche et la matière grise, et donc les différentes structures cérébrales.

Conclusion sur l’imagerie morphologique cérébrale

Enfin, il existe également une technique d'IRM dont nous n'avons pas parlé : l'IRM de diffusion, qui permet de localiser les faisceaux dans la substance blanche en visualisant leur orientation et leur anisotropie [Basser et al., 1994]. Dans ce chapitre, nous présenterons deux modalités fonctionnelles répandues dans le domaine de la recherche clinique : l'IRM fonctionnelle et la tomographie par émission de positons.

IRM fonctionnelle

Pour les sujets humains sains, c'est l'augmentation du flux sanguin qui domine les autres effets, et le signal BOLD mesuré dans ces séquences sera hyperintense. L’interprétation physiologique de l’augmentation du contraste BOLD reste cependant subtile : il n’y a pas de relation directe entre l’activité électrique du neurone et l’augmentation du rCBF, bien qu’il existe de fortes indications d’une relation entre l’activité synaptique et l’augmentation du rCBF ([Norris , 2006] , [Iannetti et Wise, 2007]).

Tomographie par émission de positrons

Les premières mesures du métabolisme régional du glucose (rCMRglu) utilisant un modèle à 3 compartiments pour le [11C]-D-glucose ont ainsi été réalisées [Raichle et al., 1975]. La [11C]-méthionine a ensuite été utilisée pour marquer les tumeurs cérébrales [Derlon et al., 1989].

De nombreux travaux ont suivi pour appliquer la rétroprojection filtrée aux données TEP recadrées : l'algorithme de reprojection 3D (3DRP, [Kinahan et Rogers, 1989]) ou les algorithmes utilisant le réalignement (l'algorithme de réalignement à tranche unique (SSRB) [Daube - Witherspoon] , 198, 1989, 1989. Algorithme de réarrangement spatial (FORE) [Defrise et al., 1997]). Cependant, la reconstruction 3D ne sera mise en œuvre que progressivement car elle nécessite des corrections robustes des événements de transmission (par exemple [Watson et al., 1996]), leur contribution aux données devenant significative lorsque les septa sont supprimés.

Patlak a donc proposé une analyse graphique pour identifier un modèle de transmission à travers la barrière hémato-encéphalique et estimer ses paramètres physiologiques [Patlak et al., 1983]. Dans le cas des études sur les récepteurs, de nouveaux modèles avec régions de référence ont été développés pour éviter la mesure invasive de la fonction d'entrée artérielle par cathétérisme ([Lammertsma et Hume, 1996], [Delforge et al., 1996], voir §3.2 ci-dessous).

Lors d'un examen, un grand nombre de coïncidences vont se produire (généralement de l'ordre de dizaines de millions), et c'est ce qui va permettre de retrouver la répartition tridimensionnelle de l'activité grâce à l'étape de reconstruction. Après avoir détecté une coïncidence, la position des cristaux où les deux interactions se sont produites est enregistrée, ce qui équivaut à identifier la position du LOR dans le pro-espace.

Les deux photons sont émis à 180°+δθ (lignes pointillées), donc l'annihilation n'est plus superposée au LOR (l'effet est mis en évidence ici). Les deux photons émis lors de l'annihilation doivent traverser le matériau pour être détectés par l'anneau détecteur.

En TEP, la résolution spatiale de l'image varie avec la distance radiale, c'est-à-dire la distance (euclidienne) du centre du scanner. Pour un objet beaucoup plus grand que le LMH, seules les mesures aux limites de l'objet sont erronées et la quantification globale de la région est légèrement biaisée.

Par ailleurs, nous verrons au chapitre II que la reconstruction est un problème mal posé et qu'il est essentiel de limiter le bruit dans les données. Un voxel d'une image TEP mesure la concentration d'activité dans tous les compartiments : libre, spécifiquement lié et non spécifique, mais également dans le compartiment sanguin en tenant compte de la fraction volumique (FV) de sang correspondant au volume relatif contenu dans le voxel. est occupé. au niveau du compartiment sanguin.

La principale application clinique de la TEP est l'oncologie dans l'imagerie du corps entier utilisant le [18F]-FDG. L'imagerie métabolique (mesure de rCMRO2 et rCMRglu) est également utilisée dans l'étude de la dépression [Dunn et al., 2005].

D Résumé du chapitre

Appelons f la fonction de Rn dans R qui permet de décrire les propriétés souhaitées de l'objet, et g la fonction de Rm dans R qui permet de décrire les données. L'étape de reconstruction consiste à estimer quelles propriétés de l'objet imagé peuvent expliquer les données observées, c'est-à-dire à trouver f à partir de vous.

B Méthodes de reconstruction analytiques

Transformée de Radon 2D

Le LOR est identifié par le système de coordonnées (O,xr,yr) et par les variablesφets. La projection de l'ellipse en rouge clair avec une zone d'hyperfixation en rouge foncé est également représentée.

Simple rétroprojection

Nous allons maintenant nous concentrer sur la résolution du problème tomographique inverse 2D, c'est-à-dire trouver l'inversion R2. Enfin, cette approche n'est pas quantitative : l'image d'un point source simple, supposant une géométrie circulaire, aura une symétrie circulaire avec une activité non nulle dans le champ de vision en dehors du point (ce qui donne l'aspect lisse des images de la Fig. II.3).

Transformée inverse de Radon 2D

Cette approche nécessite un grand nombre de projections pour qu'elles couvrent de manière homogène le champ de vision, comme l'illustre la figure II.3. Ces projections doivent être régulièrement échantillonnées selon une géométrie circulaire pour éviter les artefacts géométriques (elle n'est notamment pas directement applicable dans le cas de grands espaces entre têtes ou blocs, ou de géométrie polygonale).

Théorème de la coupe centrale

Nous allons maintenant nous concentrer sur une technique de reconstruction de données d'échantillon basée sur ce théorème.

Reconstruction par transformée inverse de Fourier

Rétroprojection filtrée

En particulier, on reconnaît dans cette équation la transformée de Fourier inverse 1D et la formule de rétroprojection de l'équation (II.6). Les propriétés de la transformée de Fourier font que la multiplication dans le domaine de Fourier correspond à une convolution dans l'espace image.

Discrétisation et apodisation

La transformation inverse de cette fonction circulaire symétrique est donnée dans l'espace image par la transformation de Hankel : |s|1, telle que. Le filtre rampe sera remplacé par un filtre prenant en compte la densité d'échantillonnage comme nous l'avons vu précédemment au §1.5.

Reconstruction 3D en présence de données complètes

Le théorème central de découpage (respectivement b) a été présenté et a permis de considérer les transformations inverses du Radon 2D et des rayons X 3D comme des opérations successives de filtrage des projections et de reprojection c), qui peuvent être interchangeables (sous condition de séparabilité du filtre en 3D ). Notons que la stabilité de la solution ˆfMC (3ème condition de Hadamard) dépendra des propriétés de H (en particulier, plus le rapport entre la valeur propre maximale et minimale de HtH est faible, plus la solution est stable ; on l'appelle alors un bon matrice conditionnée).

Cela signifie également que la reconstruction est possible si pour toute fréquence ν il existe au moins un plan d'acquisition défini par zr tel que zr · ν = 0 ; on parle de conditions d'Orlov [Orlov, 1975]. Pour une géométrie d'acquisition cylindrique, la Figure II.9 montre que pour toute fréquenceν il existe au moins un plan d'acquisition permettant de la retrouver.

Reconstruction 3D et données tronquées

Ces méthodes nécessitent une correction préalable des données (on notera cependant qu'il existe également des méthodes analytiques prenant en compte la diffusion Compton dans le modèle [Nguyen et Truong, 2002]) et modélisent l'acquisition des données par des mesures de projections. La minimisation de la norme L2 entre les données et la projection de l'image reconstruite conduit au filtre de Colsher, dont nous avons vu l'expression pour une géométrie cylindrique.

Matrice système

Le choix de la représentation est également lié au choix de la matrice système, comme on peut le voir avec les pixels naturels. Hat une matrice diagonale prenant en compte l'atténuation des photons le long du LOR (§I.3.2.e), aussi appelée matrice d'atténuation.

Projeteurs

Parmi les techniques « pilotées par rayons », l'un des projecteurs géométriquement les plus simples est le projecteur qui utilise la longueur d'intersection du LORi avec le pixel j pour modéliser la valeur de {Hg´eom}ij. Siddon [Siddon, 1985] a développé un algorithme pour calculer rapidement les valeurs de la colonne Hi à l'aide de ce modèle.

Choix de la fonction de coût

Solution inverse généralisée

Dans le cas où R = p la matrice inverse généralisée est : H+ = (HtH)−1Ht et l'inverse généralisé est la solution ˆfMC. Si on appelle {λ2i}i=1..R les valeurs propres de HtH (positive) et {vi}i=1..R les vecteurs propres de dimension p, ainsi que {ui}i=1..R les vecteurs de dimensions propres q à partir de HHt, donc.

Algorithmique

Dans ce cas, le bruit peut être limité, par exemple en arrêtant l'algorithme avant convergence complète, au détriment d'une solution « basse fréquence ». Cet algorithme fait converger simax|1−γλi|<1avecλvaleurs propres pour la matrice diag(1.HtH1p)HtH[Grangeat,2002].

Régularisation

Conclusion sur les méthodes algébriques

Bien que cette approche ait déjà été appliquée en PET (e.g. [Selivanov et Lecomte, 2000]), les algorithmes itératifs (§3.3) tels que les algorithmes de descente de gradient sont préférés en raison des dimensions de la matrice du système. La régularisation (§3.4), en utilisant des valeurs prioritaires comme la norme euclidienne ou en raccourcissant la décomposition en valeurs singulières, peut permettre de transformer le problème inverse en un problème bien posé, augmentant ainsi la stabilité de la solution. amélioré.

Maximum de vraisemblance

En pratique, la loi a posteriori est traitée de manière plus simple, en évitant la manipulation de la densité de probabilité, en utilisant le mode de la loi a posteriori pour trouver une solution au problème de reconstruction tomographique.

Suite à cette dérivation, il est possible d'obtenir un résultat plus général si l'on suppose que le bruit n'est pas identiquement réparti : à l'aide de l'équation (II.29c), on voit que la somme des carrés sera alors pondérée par l'inverse de la variance . La solution du maximum de vraisemblance correspondra alors à la solution des moindres carrés pondérés (MCP, ou WLS) par l'inverse des écarts w :.

Cette méthode est appelée « Poisson ordinaire » (OP) car elle préserve le caractère poissonien des données en n'utilisant pas de corrections préalables, mais plutôt en intégrant leur contribution moyenne dans le modèle d'acquisition des données. Lorsque seule une pré-correction des événements aléatoires a été effectuée, un modèle appelé « Shifted-Poisson » peut également être appliqué [Yavuz et Fessler, 2000] : ce modèle suppose que la fonction g+ 2¯r suit une distribution de Poisson correspondant à données soustraites des événements estimés (par exemple, événements retardés).

Chaque itération de l'algorithme EM consiste en une étape de projection puis une étape de rétroprojection, et est donc comparable en temps de calcul à une reconstruction de type FBP. Cette convergence de l'algorithme vers une image bruitée entraîne une dégradation importante de la qualité visuelle des images et de la variabilité de la quantification.

Régularisation : maximum a posteriori et sieves

Le choix de l'itération peut se faire à l'aide de critères statistiques (par exemple [Veklerov et Llacer, 1987], [Coakley et Llacer, 1991]), ou en fonction de la tâche recherchée (par exemple expérimentalement en observant la convergence de la valeur dans les régions d’intérêt que nous cherchons à quantifier). A noter qu'habituellement une étape de lissage est ajoutée en fin de reconstruction pour limiter le bruit dans les images, mais au prix d'une dégradation de la résolution.

D Conclusion du chapitre

Le choix de la fréquence de coupure du filtre déterminera le compromis entre bruit et résolution. Pour les méthodes algébriques, le compromis entre bruit et résolution est obtenu en régularisant la solution.

B Reconstruction usuelle sur l’HRRT

  • Résolution spatiale
  • Bruit
  • Dimension et ré-échantillonnage des données
  • Sinogrammes de corrections
  • a Correction d’atténuation
  • b Normalisation
  • c Estimation des événements fortuits
  • d Estimation des événements diffusés
  • e Autres corrections
  • Algorithme et paramètres de reconstruction utilisés en routine

Afin d'obtenir une mesure d'atténuation pour chaque LOR, une image des coefficients d'atténuation est finalement projetée. Les espaces entre les têtes HRRT empêchent l’application directe des techniques de reconstruction analytique.

C Modélisation de la résolution du scanner

  • Modélisation de la résolution dans l’espace des projections et dans l’es-
  • Mesure des paramètres du noyau de convolution
  • Implémentation des méthodes de modélisation de la résolution dans l’al-
  • Liens avec la méthode des sieves
  • a Modélisation dans l’espace des projections et déconvolution régula-
  • b Modélisation dans l’espace image et reconstruction régularisée
  • Modélisation de la résolution et artefacts de Gibbs
  • Reconstruction en mode liste
  • Choix du projeteur Siddon
  • Choix d’une modélisation de la résolution dans l’espace image
  • Implémentation des corrections usuelles
  • Accélération de la reconstruction par utilisation de sous-ensemble tem-
  • Parallélisation du code

Pour modéliser la résolution dans l’espace de projection, une connexion plus directe peut être établie en se référant à la méthode du tamis. De plus, la modélisation de la résolution dans l’espace de conception empêche en pratique toute reconstruction en mode liste.

D Evaluation de l’approche proposée

Simulation Monte-Carlo

À cette époque, le centre informatique disposait de 136 nœuds à quatre processeurs AMD Opteron 1,8 et 2,4 GHz, et chaque nœud disposait de 4 Go de RAM disponibles pour les quatre processeurs. Cependant, l'architecture du centre de calcul permet de charger la matrice C au niveau de chaque nœud.

La modélisation de résolution choisie était similaire au modèle utilisé pour la dégradation de la résolution décrit précédemment. L'aspect qualitatif des reconstructions a été évalué à l'aide de la grille de points sources (capacité de voir les points sources et de les distinguer).

Mesures Physiques

Les données ont été reconstruites en une image avec et sans modélisation dans l'espace image de résolution, en utilisant deux itérations de 32 sous-ensembles de l'algorithme EM. Les données ont été utilisées en mode liste sans rééchantillonnage, ou avec un rééchantillonnage correspondant à la plage 3 et à la plage 9, obtenu en alignant les LOR au centre de leurs bacs correspondants, comme décrit précédemment (§2.4).

L'algorithme RM-OP-OSEM a été utilisé pour la reconstruction, intégrant soit la modélisation de résolution décrite par (III.4a), soit celle décrite par l'équation (III.4b), avec quatre tailles de fenêtres de convolutions différentes : 33 voxels, 53 voxels, 93 voxels et 153 voxels. Idéalement, Q devrait être proche de 0 et un Q élevé indique la propagation de l’activité depuis la position.

Le coefficient de récupération de contraste a été déterminé après segmentation des images de 3 heures reconstruites avec OP-OSEM. CRref est une mesure indépendante (à l'aide d'un compteur gamma) du rapport de contraste entre les sphères chaudes et l'arrière-plan.

Etudes cliniques

Pour chaque sphère, le CRC moyen a été calculé et le niveau de bruit de fond (BF) a été obtenu en considérant le rapport entre l'écart type et la moyenne des mesures dans différentes réalisations pour chaque sphère. Pour évaluer la normalité des échantillons, le test de Kolmogorov-Smirnoff, qui comprenait des corrections de Lilliefors, a été réalisé, suivi d'un test F d'égalité des variances entre échantillons (tous deux rejetés si inférieurs à 5 %), et enfin d'un test unidirectionnel. Une ANOVA à mesures répétées (test t de Student apparié) est effectuée pour obtenir des valeurs p.

De plus, la consommation répétée de substances addictives provoque une adaptation du système dopaminergique (phénomène d’addiction), entraînant une augmentation des apports pour compenser. Pour évaluer cette hypothèse, un analogue de la cocaïne ciblant le transporteur de dopamine (DAT) avec une bonne spécificité a été utilisé : le [11C]-PE2I.

Simulations Monte-Carlo

Les trois reconstructions sont représentées sur chaque ligne, et les reconstructions sans et avec modélisation de résolution sont présentées respectivement dans les deux colonnes.

Mesures physiques

Les points sources situés à trois positions axiales et successivement décentrés de 1, 5 et 10 cm selon y ont été reconstruits avec et sans modélisation de résolution avec respectivement 15 itérations de 16 sous-ensembles et 6 itérations de 16 sous-ensembles. Dans les résultats présentés, sauf indication contraire, le modèle bi-exponentiel de la résolution spatiale avec une fenêtre de convolution de taille 153 voxels a donc été adopté.

Ceci, associé à la parallélisation originale de la convolution, permet de réduire le temps de convolution à moins de 1 s, permettant ainsi un gain de temps d'un facteur compris entre 1,5 et 2 pour les études dynamiques.

L'effet du post-lissage gaussien du LMH 2 mm après reconstruction avec OP-OSEM est également illustré (B, E). L’effet du post-lissage gaussien du LMH 2 mm après reconstruction avec OP-OSEM est également illustré (B).

La figure III.21 montre l'évolution du CRC pour différentes sphères et le niveau de bruit statistique de fond entre les itérations pour les algorithmes OP-OSEM et RM-OP-OSEM. Nous avons répété l'algorithme OP-OSEM 12 fois (16 sous-ensembles) et l'algorithme RM-OP-OSEM 16 fois (16 sous-ensembles) afin que le niveau de bruit statistique soit similaire à celui de la plus petite sphère.

Etudes cliniques

La reconstruction des différents intervalles de temps montre que le niveau de bruit dans les trames apparaît réduit avec RM-OP-OSEM mais reste élevé, comme illustré sur la Figure III.27. Ceux-ci montrent notamment que RM-OP-OSEM conduit à des activités plus importantes dans des régions spécifiques du striatum des cadres.

Les images OP-OSEM ont été acquises avec 6 itérations de 16 sous-ensembles et RM-OP-OSEM avec 9 itérations de 16 sous-ensembles. (Figure III.36) présente les résultats obtenus pour une trame précoce et tardive en convoluant la solution de l'algorithme RM-OP-OSEM pendant plusieurs itérations à travers le modèle FR après reconstruction.

E Discussion

Différentes formes de régularisation ont été envisagées, notamment la convolution de l'image reconstruite avec un modèle FR (méthode du tamis). Nous discuterons ensuite de la manière dont nous avons dérivé les a priori dans les deux approches.

F Résumé du travail

B Précédentes approches visant à réduire le niveau de bruit en TEP

  • Débruitage spatial des images reconstruites
  • a Quelques éléments sur les ondelettes
  • b Débruitage spatial par ondelettes
  • Régularisation spatiale de la reconstruction
  • Reconstructions multirésolution
  • Débruitage des paramètres de l’analyse compartimentale
  • Reconstructions 4D
  • Débruitage temporel de sinogrammes et d’images

Ils sont symétriques, ce qui limite les distorsions de phase et permet ainsi une bonne localisation du signal dans le domaine ondulatoire [Ruttimann et al., 1998]. Millet [Millet et al., 2000] a proposé une approche utilisant des ondelettes pour supprimer temporairement le bruit CAT dans les images reconstruites.

C Présentation de la méthode proposée

Cette approche prometteuse a permis une fois de plus d’obtenir des niveaux de bruit au niveau trame comparables à ceux obtenus dans les reconstructions statiques. Plus de détails sur cette approche sont présentés dans les articles [Chaux et al.,2007] et [Combettes et Pesquet,2007].

D Évaluation de la méthode proposée

  • Description spatiale du fantôme géométrique
  • Description des CAT simulées
  • Géométrie d’acquisition
  • Mise en oeuvre de la simulation
  • Choix de la famille d’ondelettes
  • Méthode de référence
  • a Débruitage des sinogrammes
  • b Débruitage des images bruitées reconstruites
  • Implémentation de la méthode proposée
  • a Débruitage des sinogrammes
  • b Débruitage dans l’espace image
  • Algorithmes de reconstruction
  • Analyse des performances de débruitage
  • a Evaluation du débruitage des sinogrammes
  • b Evaluation du débruitage dans les image reconstruites

L'évolution de la log-vraisemblance au cours des itérations a également été suivie pour cet algorithme. De la même manière, la variance moyenne V¯r (ici exprimée en aléatoire2), pour chaque élément du sinogramme est calculée par.

E Résultats

  • a Détermination de l’a priori
  • b Détermination des paramètres de l’algorithme
  • Evaluation du débruitage des sinogrammes
  • Reconstruction des données
  • Analyse du débruitage des sinogrammes dans les images reconstruites . 187
  • b Biais et variance moyens dans l’image
  • c Résultats au niveau des ROI tumorale et artérielles
  • d Résultats au niveau de pixels des régions tumorales et artérielles
  • Détermination de l’a priori
  • a Détermination des paramètres de l’algorithme
  • Evaluation du débruitage des images

La figure IV.11 illustre que normaliser chacun des TAC par le nombre total de coïncidences dans le bac permet d'obtenir des coefficients d'ondelettes plus faciles à modéliser. Pour les coefficients marginaux, les « queues » de distribution (ici presque constantes, voir figure IV.12) ont empêché de trouver un modèle adéquat, et un potentiel comme fonction indicatrice a donc été retenu.

F Discussion

Méthode "SureShrink"

Méthode proposée

Résultats comparatifs des méthodes de débruitage des sinogrammes au

Résultats comparatifs dans les images reconstruites

G Résumé du travail

Referências

Documentos relacionados

Le jeudi, nous sommes allés faire une marche de trois heures et le soir nous avons fait une boom pour fêter la fin du camp.. Nous avons passé une belle semaine de camp à Saanen que nous