• Nenhum resultado encontrado

Les critères de performance d’ une chaîne de spectrométrie γ sont propres à chaque type de mesure. En effet, compte tenu de la grande diversité des applications possibles, il peut être judicieux de chercher à optimiser la résolution, à augmenter la capacité de traitement ou à réduire la distance source-détecteur afin de diminuer les durées de comptage. Pour chacun de ces cas de figure, il est nécessaire de bien maîtriser les différents paramètres de sensibilité de la mesure.

11 On parle souvent à tort de « déconvolution » de pics, différente de la notion rencontrée en traitement du signal.

5.1 Temps mort électronique

L’ une des principales limitations d’ une chaîne de spectrométrie γ réside dans le phénomène de temps mort électronique [24]. Celui-ci peut être défini, d’ un point de vue macroscopique, comme la proportion d’ impulsions perdue en sortie du dispositif de mesure par rapport au nombre d’ impulsions créées au niveau du détecteur. On parle alors de temps mort13, noté par la suite θ. Il correspond à une limitation technologique liée au temps de traitement des impulsions par les différents étages de la chaîne de mesure. En effet, lorsque le système est confronté à des hauts taux de comptage, la probabilité qu’ un second signal soit généré au niveau du détecteur pendant qu’ un premier signal est en cours de traitement est loin d’ être négligeable. L’ essentiel du temps mort provient de l’ étage d’ amplification qui génère des signaux dont la largeur en temps est telle qu’ ils vont s’ empiler. Le codeur ne sera alors pas en mesure de les discriminer et une partie des évènements sera perdue ou assimilée à des signaux d’ amplitude supérieure (Fig. 9). L’ utilisation d’ un préamplificateur à contre- réaction résistive montre également ses limites lorsqu’ il est confronté à de fortes activités. Le gain peut alors dévier de son fonctionnement linéaire et une saturation en entrée de l’ amplificateur apparaître. Il existe plusieurs moyens de corriger ces limitations que l’ on regroupe en deux catégories : - la correction en temps actif (ou LTC pour Live Time Correction) : il s’ agit de la méthode la plus communément utilisée. Elle consiste à estimer le taux d’ occupation de la chaîne au cours de la mesure. L’ amplificateur doit disposer d’ un circuit de rejet d’ empilements capable d’ identifier l’ arrivée d’ une seconde impulsion pendant le laps de temps où il réalise le traitement d’ une première impulsion. Un signal est alors transmis au codeur afin d’ inactiver son fonctionnement lors de l’ arrivée de l’ empilement (Fig. 10). Une horloge interne comptabilise la durée pendant laquelle le codeur est inactif. Dans le cas où un préamplificateur à contre-réaction pulsée est utilisé, on doit également tenir compte du temps nécessaire à sa décharge. Un signal d’ inhibition est transmis à l’ amplificateur pendant la durée correspondant à sa réinitialisation. Les durées d’ inactivité de la chaîne sont cumulées en temps réel et transmises au logiciel d’ acquisition qui affiche une estimation du taux de temps mort. Si l’ amplificateur ne dispose pas de circuit de rejet d’ empilement, il est également possible d’ utiliser un signal de référence pour évaluer la proportion de pertes, soit au moyen d’ un pulser connecté en entrée de l’ amplificateur, soit grâce à une source étalon dont on a réalisé préalablement la mesure du taux de comptage qu’ elle induit. La correction en temps actif n’ est cependant applicable que dans les cas où l’ activité reste constante à l’ échelle de la mesure.

Fig. 10 : principe du circuit de rejet d’ empilements

13 En toute rigueur, on devrait parler de « taux de temps mort » car θ représente la proportion de temps mort par rapport au temps de mesure.

- la correction en temps réel (ou LFC pour Loss Free Counting) : le principe de cette méthode consiste à estimer instantanément le taux de perte de comptage par temps mort et à déterminer un facteur de pondération entier n à appliquer à chaque adressage d’ impulsion. L’ analyseur multicanal reçoit alors l’ instruction « ajouter n coups » au lieu d’ une incrémentation unitaire.

Différentes méthodes peuvent être employées pour estimer ce taux de perte, soit en monitorant le taux de comptage entrant (méthode de Harms [25]), soit en générant des impulsions virtuelles en entrée de la chaîne et en estimant le taux de perte en sortie (Fig. 11 : méthode de Westphal [26]). Ce type de système, qui en pratique s’ avère assez délicat à régler [27], est employé pour des mesures à très haut taux de comptage (jusqu’ à 8.105 s-1 avec des erreurs inférieures à 2%) et impliquant des variations d’ activité qui rendent la méthode de correction en temps actif inappropriée. A noter cependant que l’ ajout de coups dans chaque canal dévie leur comportement statistique de la loi de Poisson qui caractérise la désintégration radioactive.

Fig. 11 : principe de la correction de Westphal

Dans la mesure du possible, le temps mort doit être minimisé par éloignement de la source du détecteur, par interposition d’ écrans et par diminution de la constante de temps de l’ amplificateur afin de réduire la probabilité d’ empilements de signaux. Cette dernière solution se fait nécessairement au détriment de la résolution.

5.2 Résolution en énergie

L’ optimisation de la résolution d’ une chaîne de mesure peut s’ avérer cruciale pour certaines applications : séparation de pics présentant un domaine de recouvrement, augmentation du rapport pic sur fond Compton pour limiter l’ incertitude sur l’ analyse du spectre par le logiciel. On la caractérise habituellement par la Largeur Totale à Mi-Hauteur des pics (LTMH ou FWHM pour Full Width at Half Maximum) qui dépend de trois composantes [17] :

- les fluctuations statistiques de production de charges : elles proviennent de la répartition aléatoire de l’ énergie entre les différents modes d’ excitation. Leur contribution à la largeur totale à mi-hauteur des pics, notée (LTMH)s, dévie de la statistique de Poisson d’ un facteur F dit « de Fano ». En notant ε l’ énergie nécessaire pour créer une paire électron-trou, on a :

ε FE LTMH)s 2.355

( =

- les défauts de collection de charges : ce phénomène, responsable d’ une traîne exponentielle du pic à basse énergie, est causé par les imperfections du cristal et par la non-uniformité du champ électrique qui peut s’ avérer trop faible pour collecter la totalité des porteurs de charge.

Cet effet est d’ autant plus marqué que le cristal est grand. Sa contribution est notée (LTMH)c. - le bruit électronique : cette composante provient des courants de fuite qui s’ ajoutent au signal

entre les différents étages de la chaîne. L’ utilisation de constantes de mise en forme plus longues sur l’ amplificateur permet de filtrer une partie de ce bruit en réduisant la bande passante, au détriment de la capacité de traitement. L’ utilisation d’ un préamplificateur résistif induit également un bruit supplémentaire en raison de la résistance de contre-réaction, visible aux basses énergies. Cette contribution, liée à la chaîne électronique, est notée (LTMH)e. Les trois composantes caractérisant la résolution s’ additionnent quadratiquement selon la relation suivante :

2 2

2 ( ) ( )

) (

)

(LTMH = LTMH s + LTMH c + LTMH e

La figure suivante illustre les variations de la résolution des pics en fonction de l’ énergie de la raie γ et la proportion relative de chacune des composantes sur les détecteurs au Ge[HP] courants :

Fig. 12 : résolution des pics en fonction de l’ énergie

Il convient donc de trouver un compromis entre la diminution de la capacité de traitement et l’ amélioration de la résolution. Une discussion sera menée dans ce sens au chapitre 1 de la partie II.

Une fois maîtrisées ces différentes limitations technologiques de la chaîne de mesure, il est nécessaire d’ identifier les problèmes liés à l’ analyse des spectres γ et à l’ extraction des surfaces nettes.

5.3 Surfaces nettes des pics

Dans le domaine de la mesure des combustibles irradiés ou de matériaux activés aux neutrons, certains radionucléides peuvent être envisagés comme traceurs de paramètres caractéristiques : taux de combustion, puissance intégrée en fin de cycle, activation des gainages et des matériaux de structure, contamination du caloporteur. Les spectres obtenus sont souvent complexes et comportent parfois plusieurs centaines de pics (Fig. 13). Il est donc fondamental de bien maîtriser le processus d’ analyse qui consiste à extraire les évènements dus au seul radionucléide d’ intérêt.

Fig. 13 : spectre de produits de fission obtenu 2 heures après irradiation d’ un crayon combustible dans le réacteur MINERVE

Cette analyse passe tout d’ abord par une identification de toutes les raies γ susceptibles de perturber le pic étudié. Par exemple, la mesure de l’ activité en césium 137 (raie à 661.7 keV) peut se trouver interférée par la présence d’ américium 241 (raie à 662.4 keV). Etant donné que la résolution est supérieure à l’ écart qui sépare ces deux pics, il est très difficile voire impossible de les discriminer.

Les logiciels d’ analyse disponibles sur le marché (exemples : GENIE 2000, VisuGamma, Interwinner) permettent, dans une certaine mesure, de corriger ce problème en identifiant d’ autres raies γ émises par le radionucléide perturbateur et ainsi réaliser une soustraction analytique. L’ expérience de l’ utilisateur et la connaissance a priori de la composition de l’ échantillon à mesurer doit néanmoins prédominer sur toute automatisation de l’ analyse si la précision de la mesure s’ avère décisive.

La zone d’ étude du pic étant maîtrisée, l’ extraction des surfaces nettes est ensuite réalisée. Il n’ existe aucune méthode générale pour le traitement des spectres γ. Le résultat dépend nécessairement du logiciel utilisé et d’ une part de subjectivité de l’ utilisateur dans l’ appréciation du problème et dans le choix de certains paramètres (largeur de région d’ intérêt, algorithme de calcul, modèle pour la représentation du fond continu). Cette sensibilité qu’ on appelle « effet utilisateur » est d’ autant plus marquée que le pic est obtenu dans des conditions difficiles : superposition à un fond Compton élevé produit par des photons de plus haute énergie, présence de pics perturbateurs voisins, déformation des pics à fort taux de comptage. Parfois, même dans des conditions idéales de mesure, le logiciel peut montrer des difficultés à extraire la surface nette du pic d’ intérêt. C’ est en particulier le cas pour la mesure des raies γ de basse énergie (E < 100 keV) qui présentent une traîne très marquée sur la partie gauche des pics et pour la mesure des raies X qui ont davantage un profil lorentzien que gaussien.

Le meilleur moyen d’ apprécier l’ influence de ces différents paramètres consiste, lorsque cela est possible, à utiliser différentes méthodes d’ analyse et/ou logiciels et à comparer les résultats obtenus. Ce point sera approfondi dans le chapitre 1 de la partie II.

Nombre de coups

Energie (keV)

5.4 Coïncidences vraies

En plus du phénomène de temps mort électronique, les mesures de taux de comptage sont confrontées à une limitation technologique de la chaîne de mesure appelée « phénomène de coïncidences vraies14 ». Celui-ci intervient lorsque deux raies γ émises en cascade sont détectées simultanément15. On obtient alors une impulsion correspondant à la somme des énergies déposées dans le détecteur par les deux raies. Ces impulsions « sommes » se répartissent sur tout le spectre jusqu’ à l’ énergie maximale E1 +E2, obtenue quand les deux photons, respectivement d’ énergie E1 et E2, sont totalement absorbés. Un troisième pic d’ absorption totale apparaît alors sur le spectre et il y a perte de comptage par « effet somme ». Le phénomène de coïncidences vraies provient à la fois de la détection simultanée γ-γ et γ-X. Il dépend essentiellement de deux paramètres :

- le rendement total de détection : il s’ agit de la probabilité d’ interaction avec le détecteur, partielle ou totale, d’ un photon émis par la source. Elle dépend de l’ angle solide de détection et de l’ énergie du photon. Le phénomène de coïncidences y est directement proportionnel.

- le schéma de désintégration : l’ effet est d’ autant plus marqué que la probabilité d’ émission de la raie considérée est faible, relativement aux autres raies.

Dans le domaine de la spectrométrie γ des basses activités, par exemple pour la mesure d’ échantillons de l’ environnement, il peut s’ avérer nécessaire de disposer la source à proximité du détecteur pour éviter des durées de mesure rédhibitoires. Le phénomène de coïncidences vraies peut alors entraîner des pertes de comptage atteignant plusieurs dizaines de pourcents. Des logiciels basés sur des méthodes analytiques (exemple : ETNA [28]) ou probabilistes (exemple : GESPECOR [29]) ont été développés pour permettre d’ estimer des facteurs correctifs. La précision de ces logiciels est directement conditionnée par la qualité de l’ étalonnage en rendement, par la connaissance de la géométrie du détecteur et par la connaissance des schémas de désintégration du radionucléide.

Dans la plupart des domaines où l’ activité de l’ échantillon est suffisante, l’ éloignement de la source à une distance supérieure à 200 mm permet de limiter ces corrections à quelques dixièmes de pourcents. Quelques exemples seront présentés dans le chapitre 2 de la partie II.

5.5 Etalonnage en rendement

Pour tenir compte de la probabilité d’ interaction d’ un photon avec le détecteur, il reste à corriger le résultat brut de mesure du rendement d’ absorption totale qui traduit la relation entre le taux de comptage et l’ activité réelle de la source. Dans la plupart des cas, il n’ est pas possible de disposer d’ étalons ayant la même géométrie que l’ échantillon analysé. Une calibration à partir de sources ponctuelles est alors réalisée puis un facteur correctif, appelé « transfert de rendement » et noté T(E), est calculé. Il permet de tenir compte du changement de géométrie qui peut intervenir entre l’ étalonnage et la mesure d’ intérêt, du phénomène d’ autoabsorption γ à l’ intérieur de l’ échantillon ou de l’ atténuation due à la présence d’ écrans.

14 L’ appellation « coïncidences vraies » est à opposer aux coïncidences « fortuites » qui peuvent intervenir quand deux photons issus de deux schémas de désintégration distincts sont détectés dans un lapse de temps suffisamment faible pour empêcher leur discrimination par le circuit de rejet d’ empilements (c’ est-à-dire pour de forts taux de comptage).

15 Deux raies émises en cascade peuvent être détectées simultanément à condition que la durée de vie du niveau excité intermédiaire soit inférieure au temps de collection des charges dans le détecteur (de 0.1 à 1 µs).

Dans des configurations très absorbantes ou bien nécessitant l’ utilisation de collimations pour réduire le flux photonique reçu par le détecteur, la bonne connaissance de certaines caractéristiques physiques de l’ échantillon (géométrie, densité) et du banc de mesure est nécessaire pour estimer le plus précisément possible ce facteur correctif. C’ est le cas, par exemple, des mesures permettant de caractériser des colis de déchets où la détection de certains radionucléides, comme l’ américium 241 (raie à 59.5 keV), est rendue très délicate compte tenu de l’ autoabsorption γ. Les logiciels de traitement des spectres γ ne disposant pas, en standard, de fonctionnalités permettant d’ estimer ces transferts de rendement, des logiciels spécifiques ont été développés basés sur des méthodes analytiques (exemple : ETNA [28]) pour des géométries simples (source ponctuelle, cylindrique ou discoïdale), ou de type Monte-Carlo pour des problèmes plus complexes (exemples : GESPECOR [29], MCNP [30], GEANT [31]). Si les conditions le permettent, ces corrections sont utilisées pour corriger les rendements obtenus à partir d’ étalons ponctuels et intégrées dans la courbe de rendement.

Dans le cas contraire, elles sont calculées au cas par cas, pour toutes les énergies étudiées.

Ce dernier point fera l’ objet d’ une étude détaillée dans le chapitre 2 de la partie II, où les schémas de calcul de transfert de rendement conçus à partir du code MCNP seront explicités.

6 CONCLUSION

Au travers des différentes applications évoquées au cours de ce chapitre, la spectrométrie γ apparaît comme une technique de mesure puissante et pluridisciplinaire. Sa mise en œuvre pratique est simple, ce qui explique son utilisation universelle pour la caractérisation de matières nucléaires et d’ objets irradiants. Elle nécessite cependant une bonne connaissance des principaux phénomènes limitatifs auxquels l’ utilisateur est susceptible d’ être confronté.

Du point de vue de l’ instrumentation, le phénomène de temps mort électronique constitue la principale source de biais systématique. Sa maîtrise nécessite un travail d’ optimisation préliminaire, tant du point de vue de la configuration du banc de mesure (position de la source, utilisation d’ écrans) que de l’ instrumentation associée (compromis entre capacité de traitement et résolution en énergie).

Ce chapitre met également l’ accent sur l’ utilisation des logiciels de traitement de spectre et sur l’ analyse des données brutes de mesure. Il décrit les limitations de ces logiciels pour le développement de nouvelles applications de la spectrométrie γ, telles que celles qui seront décrites dans les partie IV et V de ce mémoire, et sur les risques d’ une automatisation de l’ analyse des spectres complexes de produits de fission.

Une bonne compréhension des différents phénomènes physiques susceptibles d’influencer le résultat d’ une mesure par spectrométrie γ s’ avère donc indispensable pour répondre aux besoins de minimisation des erreurs systématiques et de réduction des incertitudes qui font l’ objet de ce travail de thèse. Cet état de l’ art constitue la première étape dans la définition des besoins d’ amélioration des mesures réalisées sur les réacteurs EOLE et MINERVE qui vont être développées dans le chapitre suivant.

CHAPITRE 3 :

LES MESURES PAR SPECTROMETIE γ