• Nenhum resultado encontrado

4 IDENTIFICATION DES BESOINS

4.2 Estimation et réduction des incertitudes

La détermination du taux de capture du plutonium 242 n’ était donc pas réalisable avec une incertitude suffisamment réduite en raison de ces différents phénomènes limitatifs. Un travail d’ optimisation, passant par une analyse des phénomènes de fluorescence X et une adaptation du banc de mesure, sera nécessaire pour déterminer l’ activité du plutonium 243 dans les meilleures conditions.

La configuration du banc de spectrométrie γ utilisé pour la détermination du profil axial de taux de fission d’ un crayon joue également un rôle majeur dans la précision du résultat de mesure. Sur ce banc, une fenêtre de collimation en plomb de 50 mm d’ épaisseur, ouverte de 10 mm, est utilisée pour analyser, tranche par tranche, l’ activité γ totale du crayon par la méthode intégrale (Fig. 19).

Dans ce type de mesure, il est fondamental de s’ assurer de la directivité du flux γ reçu par le détecteur, c’ est-à-dire que la majorité des photons détectés proviennent bien de la tranche de combustible visée.

Fig. 19 : schéma du banc dédié aux mesures de profil axial de taux de fission

Sachant que le coefficient linéique d’ atténuation du plomb pour des photons d’ énergie 1 MeV est environ de 8.06.10-1 cm-1, un calcul élémentaire montre qu’ environ 2% d’ entre eux traversent les 50 mm d’ épaisseur de collimation sans subir d’ interaction. Si, de plus, on tient compte des photons diffusés qui contribuent au spectre intégral enregistré et si on note que la tranche visée représente à peine plus de 1% de la longueur totale d’ un crayon EOLE (800 mm), on comprend aisément que le flux total reçu par le détecteur n’ est pas parfaitement directif et qu’ une part non négligeable de photons diffusés en provenance du reste du crayon atteignent le détecteur. Le dimensionnement inadapté des collimations de ce banc risque donc d’ influer significativement sur le profil axial mesuré.

Il est par conséquent fondamental de connaître la « résolution spatiale » de la fenêtre de collimation (i.e. la largeur utile réellement vue par le détecteur). Dans le chapitre 2 de la partie III, le code MCNP sera mis à profit pour optimiser la configuration du banc de mesure, afin de réduire la contribution des photons diffusés, et pour la quantification des erreurs commises.

Ces incertitudes intègrent une composante liée aux calculs de facteurs correctifs et aux données nucléaires de base utilisées ainsi qu’ une composante liée à la mesure des surfaces nettes et à l’ étalonnage en rendement du détecteur. La définition d’ une méthodologie rigoureuse de propagation des incertitudes sur ces différents paramètres et de combinaison de plusieurs mesurages du mesurande, doit permettre de réduire l’ incertitude finale sur le résultat de mesure. Ce travail constitue l’ un des objectifs principaux de ce travail de thèse et fera l’ objet du chapitre 3 de la partie II. In fine, les progrès réalisés sur l’ évaluation des incertitudes auront une répercussion directe sur la qualification des formulaires de calcul associés et en particulier sur la connaissance de certaines données nucléaires de base : sections efficaces, données de décroissance (rendements de fission, périodes radioactives, probabilités d’ émission γ). Les parties IV et V seront dédiées à ces applications.

4.2.1 Estimation des incertitudes

Les références [43] et [45] décrivent les méthodologies utilisées jusqu’ alors pour le traitement et la propagation des incertitudes des mesures de recalage de taux de fission et de taux de conversion.

Tout en gardant à l’ esprit qu’ une valeur exacte de l’ incertitude est impossible à obtenir, l’ analyse de certaines sources d’ incertitude était parfois trop approximative.

Tout d’ abord, concernant la composante statistique de comptage liée au caractère aléatoire de la désintégration radioactive, le calcul de l’ incertitude absolue sur la surface nette N d’ un pic était reportée égale à N . Or, ce résultat, dérivé de la loi de Poisson, n’ est valable que pour des comptages directs, c’ est-à-dire soit pour la somme des évènements d’ un canal, soit pour la somme de tous les évènements enregistrés dans le spectre. La surface nette d’ un pic étant la différence entre un comptage direct et un comptage estimé dû au fond continu, il faut tenir compte de ces deux composantes dans le calcul d’ incertitude. Si l’ approche passée s’ avèrait suffisante pour la mesure des pics à haute énergie (> 1 MeV) où le continuum est faible devant la hauteur du pic (< 10-2), ce n’ est plus du tout le cas pour la mesure de raies γ à plus faible énergie, notamment les pics caractéristiques du taux de conversion de l’ uranium 238 aux énergies 277.6 et 293.3 keV et la sous-estimation de l’ incertitude peut atteindre un facteur 2. L’ acquisition récente du logiciel GENIE 2000 [36] constitue un apport important pour obtenir une évaluation plus pertinente de l’ incertitude liée au comptage. Sa représentativité sera discutée dans le chapitre 1 de la partie II.

Ensuite, en l’ absence d’ outils informatiques adaptés, l’ incertitude associée au rendement d’ absorption totale était estimée par une approche « enveloppe », d’après l’ écart moyen des points d’ étalonnage par rapport à la courbe ajustée. Elle conduisait alors à des incertitudes de l’ ordre de 2 à 3%, alors que la plupart des études disponibles dans la littérature reportent des valeurs meilleures que 1%. La réduction de cette composante de l’ incertitude, qui va également dans le sens d’ une meilleure représentativité, constitue un enjeu majeur. Elle passe par l’ expression de la matrice de variance du problème qui permet de tenir compte des incertitudes et des corrélations entre les différentes sources d’ étalonnage utilisées. Ce point sera détaillé dans le chapitre 2 de la partie II.

4.2.2 Propagation des incertitudes

Pour des questions de commodités, la propagation des variances réalisée par le passé et décrite dans les références [39] et [43], ne prenait en compte aucune covariance entre les différentes variables intervenant dans les équations d’ analyse. Cette simplification était justifiée pour les mesures de taux

de comptage, pour les probabilités d’ émission γ associées à deux radionucléides différents ou pour les la convergence des calculs de type Monte-Carlo. Néanmoins, cette approche simplifiée conduisait toujours à une sur-estimation de l’ incertitude sur le résultat final pour deux raisons.

Tout d’ abord, il s’ avère que l’ incertitude sur le rapport des rendements d’ absorption totale, qui intervient dans l’ expression du taux de conversion de l’ uranium 238 (cf. chapitre 3 de la partie II), ne peut être estimée sous la forme d’ une somme quadratique simple des incertitudes individuelles. En effet, ces rendements étant déterminés à partir d’ un même étalonnage expérimental, il existe une forte corrélation entre deux points issus de la même courbe de calibration. De plus, on comprend intuitivement que l’ incertitude sur ce rapport est nécessairement plus faible pour deux énergies proches (par exemple : 277.6 keV et 293.3 keV) que pour deux énergies éloignées (par exemple : 277.6 keV et 1596.2 keV), ce que ne prenait pas en compte l’ approche décrite dans la référence [39].

Ensuite, pour les mesures de distribution de taux de fission entre plusieurs combustibles, il est fréquent que des données nucléaires de bases communes aux différentes mesures, soient utilisées. En particulier, qu’ ils s’ agissent de combustibles MOX ou UO2, le rapport des taux de fission (encore appelé « facteur de recalage ») fait systématiquement intervenir un rapport de rendements de fission.

Chaque terme est évalué à partir de données nucléaires relatives aux différentes réactions de fission et notamment : 235U(n,f) et 238U(n,f). Il existe donc une forte corrélation entre les mesures de taux de fission entre différents combustibles que l’ approche utilisée par le passé ne prenait pas en compte.

4.2.3 Intercomparaison et combinaison de résultats de mesure

Le dernier point de l’ analyse critique des méthodes de traitement des incertitudes concerne la combinaison de plusieurs résultats de mesure. Il peut s’ agir de:

- combinaisons de résultats de mesure obtenus à partir d’ une même raie γ et dans les mêmes conditions expérimentales (comparaison en terme de répétabilité20),

- combinaisons des résultats obtenus à partir de plusieurs raies γ et/ou produits de fission représentatifs du même mesurande (comparaison en terme de reproductibilité).

Par le passé et dans la plupart des cas, les mesures par spectrométrie γ consistaient en des séries de 2 à 4 mesurages d’ un même échantillon. Elles permettaient de contrôler la reproductibilité de la mesure de taux de comptage en vérifiant que l’ écart-type de l’ échantillon de résultats était du même ordre de grandeur que l’ incertitude individuelle d’ un comptage. Ces résultats étaient ensuite combinés par une moyenne pondérée et une incertitude calculée à partir de la variance interne de la moyenne.

En revanche, peu d’ études étaient consacrées à la comparaison de taux de réactions issus de différentes raies γ et/ou produits de fission. Par exemple, pour les mesures de taux de conversion, un écart de 2% est observé sur l’ évaluation de la probabilité d’émission de la raie γ à 293.3 keV du cérium 143, entre les bibliothèques ENDF/B-VI.8 et JEF2.2 et se répercute directement sur le résultat de la mesure. La combinaison de plusieurs produits de fission et l’analyse d’ autres raies γ caractéristiques permettraient d’ aboutir à une incertitude réduite sur le résultat de la mesure et moins dépendante des données nucléaires de base utilisées.

Des méthodes de combinaison de résultats de mesure seront donc proposées et formalisées dans le chapitre 3 de la partie II et l’ apport du travail quantifié dans les parties III, IV et V.

20 En toute rigueur on devrait parler de reproductibilité et non de répétabilité car les séries de mesurages successifs d’ un même radionucléide nécessitent généralement le calcul d’ une correction de décroissance entre chacun d’ eux qui introduit une source d’ incertitude supplémentaire.