Rapport JEFF 18 ÉVALUATION ET ANALYSE DES DONNÉES RELATIVES AUX RÉSONANCES NUCLÉAIRES F.H. Fröhner Forschungszentrum Karlsruhe Institut für Neutronenphysik und Reaktortechnik D-76021 Karlsruhe, Allemagne Avec la contribution de Électricité de France et du Commissariat à l’énergie atomique AGENCE POUR L’ÉNERGIE NUCLÉAIRE ORGANISATION DE COOPÉRATION ET DE DÉVELOPPEMENT ÉCONOMIQUES ORGANISATION DE COOPÉRATION ET DE DÉVELOPPEMENT ÉCONOMIQUES En vertu de l‘article 1er de la Convention signée le 14 décembre 1960, à Paris, et entrée en vigueur le 30 septembre 1961, l’Organisation de coopération et de développement économiques (OCDE) a pour objectif de promouvoir des politiques visant : • à réaliser la plus forte expansion de l’économie et de l’emploi et une progression du niveau de vie dans les pays Membres, tout en maintenant la stabilité financière, et à contribuer ainsi au développement de l’économie mondiale ; • à contribuer à une saine expansion économique dans les pays Membres, ainsi que les pays non membres, en voie de développement économique ; • à contribuer à l’expansion du commerce mondial sur une base multilatérale et non discriminatoire conformément aux obligations internationales. Les pays Membres originaires de l’OCDE sont : l’Allemagne, l’Autriche, la Belgique, le Canada, le Danemark, l’Espagne, les États-Unis, la France, la Grèce, l’Irlande, l’Islande, l’Italie, le Luxembourg, la Norvège, les Pays-Bas, le Portugal, le Royaume-Uni, la Suède, la Suisse et la Turquie. Les pays suivants sont ultérieurement devenus Membres par adhésion aux dates indiquées ci-après : le Japon (28 avril 1964), la Finlande (28 janvier 1969), l’Australie (7 juin 1971), la Nouvelle-Zélande (29 mai 1973), le Mexique (18 mai 1994), la République tchèque (21 décembre 1995), la Hongrie (7 mai 1996), la Pologne (22 novembre 1996) et la Corée (12 décembre 1996). La Commission des Communautés européennes participe aux travaux de l’OCDE (article 13 de la Convention de l’OCDE). L’AGENCE DE L’OCDE POUR L’ÉNERGIE NUCLÉAIRE L’Agence de l’OCDE pour l’énergie nucléaire (AEN) a été créée le 1er février 1958 sous le nom d’Agence européenne pour l’énergie nucléaire de l’OECE. Elle a pris sa dénomination actuelle le 20 avril 1972, lorsque le Japon est devenu son premier pays Membre de plein exercice non européen. L’Agence compte actuellement 27 pays Membres de l’OCDE : l’Allemagne, l’Australie, l’Autriche, la Belgique, le Canada, le Danemark, l’Espagne, les États-Unis, la Finlande, la France, la Grèce, la Hongrie, l’Irlande, l’Islande, l’Italie, le Japon, le Luxembourg, le Mexique, la Norvège, les Pays-Bas, le Portugal, la République de Corée, la République tchèque, le Royaume-Uni, la Suède, la Suisse et la Turquie. La Commission des Communautés européennes participe également à ses travaux. La mission de l’AEN est : • d’aider ses pays Membres à maintenir et à approfondir, par l’intermédiaire de la coopération internationale, les bases scientifiques, technologiques et juridiques indispensables à une utilisation sûre, respectueuse de l’environnement et économique de l’énergie nucléaire à des fins pacifiques ; et • de fournir des évaluations faisant autorité et de dégager des convergences de vues sur des questions importantes qui serviront aux gouvernements à définir leur politique nucléaire, et contribueront aux analyses plus générales des politiques réalisées par l’OCDE concernant des aspects tels que l’énergie et le développement durable. Les domaines de compétence de l’AEN comprennent la sûreté nucléaire et le régime des autorisations, la gestion des déchets radioactifs, la radioprotection, les sciences nucléaires, les aspects économiques et technologiques du cycle du combustible, le droit et la responsabilité nucléaires et l’information du public. La Banque de données de l’AEN procure aux pays participants des services scientifiques concernant les données nucléaires et les programmes de calcul. Pour ces activités, ainsi que pour d’autres travaux connexes, l’AEN collabore étroitement avec l’Agence internationale de l’énergie atomique à Vienne, avec laquelle un Accord de coopération est en vigueur, ainsi qu’avec d’autres organisations internationales opérant dans le domaine de l’énergie nucléaire. © OCDE 2000 Les permissions de reproduction partielle à usage non commercial ou destinée à une formation doivent être adressées au Centre français d’exploitation du droit de copie (CFC), 20, rue des Grands-Augustins, 75006 Paris, France. Tél. (33-1) 44 07 47 70. Fax (33-1) 46 34 67 19, pour tous les pays à l’exception des États-Unis. Aux États-Unis, l’autorisation doit être obtenue du Copyright Clearance Center, Service Client, (508)750-8400, 222 Rosewood Drive, Danvers, MA 01923 USA, ou CCC Online : http://www.copyright.com/. Toute autre demande d’autorisation ou de traduction totale ou partielle de cette publication doit être adressée aux Éditions de l’OCDE, 2, rue André-Pascal, 75775 Paris Cedex 16, France. AVANT-PROPOS Les données nucléaires sont essentielles au développement et à l'application des sciences et techniques nucléaires. Les données nucléaires de base, qu'elles soient mesurées ou calculées, sont soumises à un processus complexe d'évaluation de correction et d'analyse avant d'être disponibles pour les applications. Ce rapport décrit ce processus dans le cas des données d'interaction neutronmatière dans le domaine des résonances. Sachant qu'il n'existe pas de théorie capable de prédire les données nucléaires dans le domaine des résonances, la mesure, auprès de machines dédiées (accélérateur linéaire par exemple), reste la seule source primaire d'information. Les données mesurées sont corrigées de divers effets expérimentaux comme les impuretés, le bruit de fond et l'efficacité des détecteurs. Ceci étant, ces résultats expérimentaux ne peuvent pas être utilisés en l'état dans les calculs puisque l'information recueillie est fragmentaire. Une étape d'analyse est nécessaire pour compléter les mesures et produire un jeu de données cohérent. Fritz Frohner, l'auteur du présent rapport, décrit en détail les deux éléments nécessaires pour mener à bien l'analyse des données : la théorie de l'interaction neutron-noyau dans le domaine des résonances et les formalismes mathématiques d'inférence statistique. Concernant ce dernier point, l'auteur exprime clairement son penchant pour l'approche Bayesienne qu'il considère la plus appropriée. Ce rapport s'inscrit dans le cadre d'un effort coordonné à l'échelle internationale et auquel participent les organismes nationaux de recherche et l'industrie nucléaire. Il vise à sauvegarder les connaissances en données nucléaires, domaine dans lequel une grande partie des spécialistes sont récemment partis à la retraite. Il a été possible grâce à la collaboration du CEA Cadarache, d'Électricité de France et de l'Agence de l'OCDE pour l'énergie nucléaire. Vincent Greissier a assuré la traduction française du rapport et Pierre Ribon a révisé à la fois la version originale et la traduction. Laurent Carraro a passé en revue la partie mathématique du rapport. 3 TABLE DES MATIÈRES AVANT-PROPOS ...................................................................................................................3 ÉVALUATION ET ANALYSE DES DONNÉES RELATIVES AUX RÉSONANCES NUCLÉAIRES ....................................................................................7 1. FONDEMENTS MATHÉMATIQUES DE l’ÉVALUATION DES DONNÉES......................................................................................................................9 1.1. 1.2. 1.3. 1.4. 1.5. 1.6. 1.7. 1.8. 1.9. 2. ÉVALUATION DES DONNÉES NUCLÉAIRES POUR DES APPLICATIONS ..........33 2.1. 2.2. 2.3. 2.4. 2.5. 2.6. 2.7. 3. La probabilité, une mesure quantitative d’une prévision rationnelle ............................9 Le théorème de Bayes, la règle pour réactualiser la connaissance avec de nouvelles données.............................................................................................11 Valeurs recommandées à partir de l’estimation par perte quadratique .........................14 Généralisation à plusieurs observations et paramètres ..................................................15 Approche plus détaillée des probabilités a priori, attribution par la théorie des groupes ..............................................................................................16 Estimation Bayesienne de paramètre pour une Gaussienne à une variable...................18 Attribution de probabilités par maximisation de l’entropie ..........................................23 Une approximation : le maximum de vraisemblance ....................................................27 Une approximation : les moindres carrés ......................................................................28 Préparation par étape des données nucléaires pour applications...................................33 Ajustement par moindres carrés avec itération..............................................................40 Erreurs statistiques : statistique de Poisson...................................................................44 Erreurs systématiques : Incertitudes corrélées et leur propagation ...............................45 Qualité de l’ajustement ..................................................................................................49 Données incompatibles ..................................................................................................51 Estimation d’erreurs systématiques inconnues..............................................................56 THÉORIE DES RÉSONANCES POUR LE DOMAINE RÉSOLU .................................59 3.1. 3.2. 3.3. Le formalisme de Blatt-Biedenharn...............................................................................64 Les expressions exactes de la matrice-R .......................................................................67 Les approximations importantes d’un point de vue pratique ........................................71 3.3.1. Expressions de Kapur-Peierls pour les sections efficaces ................................73 3.3.2. Expressions des sections efficaces dans le cadre de SLWB.............................74 3.3.3. Expressions des sections efficaces dans le cadre de MLWB ...........................76 3.3.4. Expressions de Reich-Moore des sections efficaces ........................................78 3.3.5. Expressions d’Adler-Adler des sections efficaces............................................79 3.3.6. Conversion des paramètres de Wigner-Eisenbud en paramètres de Kapur-Peierls................................................................................................80 5 3.4. 3.5. 3.6. 4. THÉORIE STATISTIQUE DES RÉSONANCES POUR LE DOMAINE NON RÉSOLU .......................................................................................................................107 4.1. 4.2. 4.3. 5. Niveaux externes ...........................................................................................................82 3.4.1. Représentation statistique des niveaux externes...............................................83 3.4.2. Représentations des termes de bord par deux larges résonances......................85 3.4.3 Niveaux liés étroits pour imposer les sections efficaces thermiques prescrites pour les niveaux liés. ........................................................................88 Élargissement Doppler...................................................................................................92 3.5.1. Approximation du gaz libre ..............................................................................92 3.5.2. Cristal cubique ..................................................................................................94 3.5.3. Élargissement Gaussien avec profils de Voigt .................................................94 3.5.4. Élargissement Gaussien avec la méthode de Turing.........................................95 3.5.5. Élargissement de données ponctuelles tabulées et linéairement interpôlables.............................................................................96 Analyse pratique des sections efficaces expérimentales dans le domaine des résonances.................................................................................................98 3.6.1. Les observables.................................................................................................99 3.6.2. Complications expérimentales ..........................................................................102 3.6.3. Attribution de spin et de parité .........................................................................104 Statistique des niveaux ..................................................................................................107 4.1.1. Hypothèse de Porter et Thomas ........................................................................107 4.1.2. Loi de Wigner et l’Ensemble Gaussien orthogonal ..........................................110 4.1.3. Coefficients de transmission.............................................................................113 4.1.4. Densités nucléaires de niveaux .........................................................................115 4.1.5. Information provenant des résonances résolues ...............................................123 Sections efficaces résonnantes moyennes .....................................................................126 4.2.1. Section efficace totale moyenne .......................................................................126 4.2.2. Sections efficaces partielles moyennes : Formules heuristiques ......................127 4.2.3. Sections efficaces partielles moyennes : moyenne exacte sur l’EGO ..............129 4.2.4. Analyse de données moyennes .........................................................................131 Constantes de groupes ...................................................................................................137 4.3.1. Facteurs de Bondarenko....................................................................................138 4.3.2. Méthodes analytiques et de Monte Carlo pour la génération de constantes de groupe ....................................................................................139 CONCLUSIONS ....................................................................................................................141 ANNEXES .........................................................................................................................................143 A. Distributions de probabilités d’importance pratique .....................................................144 A.1. Distributions binomiale et bêta......................................................................................147 A.2. Distributions gamma et de Poisson................................................................................145 A.3. Gaussienne à une variable .............................................................................................146 A.4. Gaussienne à plusieurs variables ...................................................................................149 B. Propriétés mathématiques des profils de Voigt Voigt ψ et χ ........................................153 6 ÉVALUATION ET ANALYSE DES DONNÉES RELATIVES AUX RÉSONANCES NUCLÉAIRES Résumé Les fondements probabilistes de l’évaluation des données sont examinés avec un accent particulier sur l’estimation de paramètres à l’aide du théorème de Bayes et d’une fonction de perte quadratique, ainsi que sur les méthodes modernes d’attribution de probabilités a priori. Les grandes lignes du processus de réduction des données, menant des données expérimentales brutes aux fichiers informatiques d’évaluations des sections efficaces de réaction nucléaire, sont exposées avec une discussion sur les erreurs systématiques et statistiques, sur leur propagation et sur le formalisme généralisé des moindres carrés comprenant une information a priori et des modèles théoriques non-linéaires. Il est expliqué comment des erreurs communes peuvent induire des corrélations entre les données, quelles sont leurs conséquences sur la propagation des incertitudes et les études de sensibilité, et comment les évaluateurs peuvent construire des matrices de covariance d’après les informations sur les erreurs classiques données par les expérimentateurs. De nouvelles techniques d’évaluation, à partir de données incompatibles, sont également présentées. Les principes généraux sont ensuite appliqués spécifiquement à l’analyse et à l’évaluation des données relatives aux résonances nucléaires sous forme de modèles théoriques-théorie de la matrice-R (en particulier ses variantes Breit-Wigner multiniveaux et Reich-Moore, d’usage pratique) dans le domaine résolu et théorie de la matrice-R appliquée aux valeurs moyennes (théorie d’Hauser-Feshbach avec correction des fluctuations des largeurs) dans le domaine non-résolu. Des complications apparaissent du fait que les valeurs mesurées de la transmission, du taux de capture ou de fission, des rapports d’auto-indication ou encore d’autres observables ne sont pas directement les sections efficaces recherchées. Celles-ci ne sont obtenues qu’au travers d’une paramétrisation. Par conséquent, une discussion est également menée sur les effets affectant ces valeurs : élargissement Doppler, résolution expérimentale, auto-protection, diffusions multiples, bruit de fond, impuretés dans les échantillons, efficacités des détecteurs dépendant de l’énergie, données de référence imprécises, etc. 7 1. FONDEMENTS MATHÉMATIQUES DE L’ÉVALUATION DES DONNÉES Historiquement, l’évaluation des données, au sens actuel, débuta par les efforts de Dunnington (1939), de DuMond et Cohen (1953) et de leurs collaborateurs pour déterminer un ensemble de valeurs recommandées des constantes physiques fondamentales (vitesse de la lumière, quantum d’action de Planck, constante de structure fine, etc...), et établir leurs incertitudes, grâce à un ajustement global par moindres carrés de l’ensemble des données expérimentales utiles. Comme les mesures sont invariablement affectées par des erreurs instrumentales incontrôlables, des étalons imprécis, des statistiques de comptage finies et d’autres sources d’incertitudes, l’évaluation des données implique de raisonner à partir d’une information incomplète, c’est-à-dire en terme de théorie des probabilités. C’est pourquoi nous allons commencer par une brève revue des fondements théoriques, basés sur les probabilités, de l’évaluation des données. Cela nous aidera à relier entre elles diverses règles pour extraire des données expérimentales les « meilleures » valeurs et les incertitudes, et des prescriptions pour les ajustements sur les données. La plupart des scientifiques apprennent ces règles et formules durant des cours de laboratoire et au travail, en constatant que la plupart des livres de probabilités sont remplis d’intimidantes terminologies de statistique et de considérations « ad-hoc » peu évidentes (Good 1965) provenant de tentatives mal venues pour éviter le théorème de Bayes et ses très dénigrées probabilités a priori. Le présent exposé qui (a) est fermement basé sur le théorème de Bayes et (b) utilise les progrès récents sur les probabilités a priori, va mener à un traitement concis et mathématiquement simple de l’estimation des paramètres et de l’ajustement des données dans le cadre général de la conclusion par induction, ou de l’étude à partir d’observations réelles, toujours affectées d’une erreur et incomplètes. 1.1 La probabilité, une mesure quantitative d’une prévision rationnelle Tous nos résultats, dans cette partie, seront clairement des conséquences directes des règles de somme et de multiplication élémentaires de la théorie des probabilités, ( ) P( A C ) + P A C = 1 , (1) P( AB C ) = P( A BC ) P( B C ) = P( B AC ) P( A C ) , (2) où A, B ,C = propositions telles que « la pièce tombe sur face » ou « la section efficace est supérieure à 12 b », AB = A et B sont tous les deux vrais, A = A est faux, P( A C ) = probabilité de A sachant C. 9 Nos notations indiquent que toutes les attributions de probabilité sont conditionnelles, basées sur des informations empiriques ou théoriques ou sur des hypothèses. D’après J. Bernouilli (1713) et Laplace (1812), nous interprétons ces probabilités comme des degrés de plausibilité ou de prévision rationnelle sur une échelle numérique allant de 0 (impossibilité) à 1 (certitude), les valeurs intermédiaires indiquant des degrés de plausibilité intermédiaires. La règle de somme nous dit que, sous toute condition C, plus A est probable et moins A l’est, la somme égale à l’unité des deux probabilités traduisant la certitude que l’une de ces alternatives est vraie. La règle de multiplication exprime que, sous toute condition C, la probabilité qu’à la fois A et B soient vrais est égale à la probabilité de A sachant B multipliée par la probabilité que B soit vraie. Puisque A et B interviennent de manière symétrique, il est également possible de considérer la probabilité de B sachant A et de la multiplier par la probabilité de A. L’interprétation des P en tant que degrés de plausibilité (pas les équations les reliant) a été critiquée par les statisticiens qui tiennent à ce que, par probabilité, on entende uniquement « fréquence relative dans une expérience aléatoire » telle que lancer de pièce, dans la limite d’un très grand nombre de répétitions, et que l’on puisse assigner des probabilités « directes » à des effets (observations) si les causes (lois stochastiques et leurs paramètres) sont données, mais pas des probabilités « inverses » à diverses causes possibles si les observations sont données. Ils affirment que, puisque les constantes physiques ne sont pas des variables aléatoires qui supposent des valeurs données avec une certaine fréquence, il ne faut associer des probabilités qu’avec les erreurs observées et pas avec les constantes physiques. Pour les scientifiques en général, et les évaluateurs de données en particulier, ce point de vue est trop restrictif. Il ne leur permettrait pas de dire que, d’après les données mesurées, une constante physique a telle ou telle probabilité d’exister dans des bornes données. La tâche consistant à déduire les valeurs de constantes naturelles, de temps de demi-vie, de sections efficaces de réaction, etc, à partir de données affectées d’erreurs systématiques, incertaines et incomplètes n’est pas une expérience aléatoire qui peut être répétée à volonté, mais plutôt un exercice de conclusion par induction (raisonner face à l’incertitude). Le concept de probabilité de Laplace semble par conséquent plus approprié pour l’évaluation des données scientifiques. Tous ces doutes furent dissipés par R.T. Cox (1946). En utilisant l’arithmétique de la logique, l’algèbre de Boole, il prouva que tout système formel d’inférence logique utilisant des degrés de plausibilité doit soit être équivalent à la théorie des probabilités telle que dérivée des règles de somme et de multiplication de base, soit violer des conditions de consistence élémentaire. Dans sa démonstration, les conditions de consistence les plus générales s’expriment sous la forme de deux équations fonctionnelles dont les solutions sont justement les règles de base. Le fait critiquable que Cox a supposé la différentiabilité de ces fonctions de probabilité fut résolu par A. Rényi (1954) qui donna une démonstration sans cette hypothèse. Il est intéressant que Schrödinger (1947), l’un des pères de la mécanique quantique, arriva pratiquement, et indépendamment, aux même conclusions que Cox : les règles de base, clairement valables pour les fréquences relatives, sont également valable pour les probabilités de Laplace. Dans la théorie quantique, il a toujours été compris que les probabilités quantifient une connaissance incomplète mais une croyance largement répandue était que les probabilités des mécaniques classique et quantique différaient d’une manière ou d’une autre. Aujourd’hui, il peut être montré que le formalisme des probabilités de la mécanique quantique est parfaitement compatible avec le concept de probabilité de Laplace et les règles de somme et de multiplication (Fröhner, 1998). D’après la démonstration de Cox, deux choses devraient être claires : 1. Les probabilités ne sont pas des fréquences relatives. Elles peuvent s’appliquer tout aussi bien à des situations non-répétitives qu’à des expériences répétées. 10 2. Les schémas présumés supérieurs de l’inférence logique, tels qu’une logique floue ou l’intelligence artificielle, sont équivalents à la théorie des probabilités dans le meilleur des cas sinon, ils sont contraints de violer les obligations de consistance élémentaires. Bien que les probabilités ne soient pas des fréquences, elles sont certainement toutes deux reliées. Dans les situations répétitives, on considère que les probabilités sont essentiellement des valeurs attendues de fréquences relatives-voir par exemple Jaynes (1968) et Fröhner (1997). 1.2 Le théorème de Bayes, la règle pour réactualiser la connaissance avec de nouvelles données Les expériences scientifiques sont d’ordinaire décrites à l’aide d’un modèle statistique, des éléments statistiques étant introduit par des effets instrumentaux incontrôlables, apparemment aléatoires, par des erreurs inconnues et souvent par la théorie elle-même (par exemple les mécanismes statistiques, ou la théorie quantique, ou la théorie statistique des niveaux, pour les réactions par noyau composé). Le modèle statistique nous permet de calculer la probabilité « directe » d’un jeu quelconque de données observées (« échantillon »), pourvu que les quantités physiques et les paramètres statistiques du modèle soient donnés. En science empirique, la situation est ordinairement inversée : un échantillon de données expérimentales est donné, et on désire trouver les probabilités « inverses » pour les différentes valeurs possibles des quantités physiques et des paramètres statistiques du modèle. Les probabilités directes (des effets sachant les causes) et les probabilités inverses (des causes sachant les effets) sont reliées par le théorème de Bayes (1763). Dans sa forme la plus simple, P( A BC ) = P( B AC ) P( A C ) , P( B C ) (3) c’est une conséquence immédiate de la symétrie de la règle de multiplication (2) appliquée à A et B. La situation typique est que nous avons la donnée B qui dépend de la valeur d’une quantité physique inconnue A et d’autres conditions C. Si nous avons un modèle statistique, représenté par ce qu’on appelle fonction de vraisemblance p( B AC ) , nous disant à quel point serait probable l’observation de la donnée B sous la condition C si la quantité inconnue était A, et si nous avons également une probabilité a priori P( A C ) (notée plus brièvement « l’a priori »), alors la probabilité réactualisée ou a posteriori P( A BC ) (« l’a posteriori ») est proportionnelle au produit P( B AC ) P( A C ) . Le a priori résume ce que nous savons à propos de A avant que les données ne soient disponibles, la fonction de vraisemblance traduit l’impact des données, et le a posteriori contient l’information complète disponible pour une nouvelle inférence ou prédiction. Laplace (1812) donna la généralisation pour plusieurs alternatives Aj distinctes et mutuellement exclusive : ( ) P A j BC = )( ) , ∑ P( B A C ) P( A C ) ( P B A j C P Aj C j j = 1,2 , ....n, (4) j normalisée à 1 comme le demande la règle de somme. Pour des alternatives continues A et B, nous remplaçons les probabilités discrètes finies P( A C ) , P( B AC ) , etc., par des probabilités 11 infinitésimales p( A C ) dA , p( B AC ) dB , etc., avec les densités de probabilités p( A C ) , p( B AC ) , etc., et la somme sur les alternatives par une intégrale, p( A BC )dA = p( B AC ) p( A C )dA ∫ p( B AC) p( A C)dA , Amin ≤ A ≤ Amax . (5) Ces formes du théorème de Bayes peuvent être considérées comme la pierre angulaire de l’évaluation et de l’ajustement des données. Elles montrent comment une connaissance a priori (un fichier de données existant) peut être réactualisée avec une nouvelle information (nouvelles données). Dans toutes les formulations, le dénominateur n’est qu’une constante de normalisation, si bien que la règle formelle pour apprendre à partir d’observations peut être résumée par a posteriori ∝ vraisemblance × a priori Il faut comprendre que ces expressions a priori et a posteriori ont une signification logique plutôt que temporelle. Elles signifient simplement que les nouvelles données ne sont pas ou sont prises en compte. Comme illustration bien réelle, considérons la détermination des constantes de décroissance λ d’un radio-isotope quelconque de courte durée de vie à partir de décroissances enregistrées à des temps t1, t2, ...tn. Manifestement, nous devons identifier λ avec A, et les données t1, ...tn avec B, alors que C correspond à toutes les autres information sur la situation telles que validité de la loi de décroissance exponentielle, pureté de l’échantillon, fiabilité des appareils d’enregistrement, durée suffisante du temps d’observation pour l’enregistrement de toutes les décroissances observables, etc. Le modèle statistique pour l’expérience est représenté par ce qu’on appelle distribution d’échantillonnage, c’est à dire par la probabilité avec laquelle nous pouvons « raisonnablement attendre » les différentes alternatives si nous échantillonnons une seule fois, les paramètres du modèle étant données. Dans notre exemple, c’est la probabilité que, pour λ donnée, une décroissance particulière, disons la i-ème, soit enregistrée dans l’intervalle de temps dti à ti, ( ) p t i λ dt i = exp( − λt i )λdt i , 0 < t i < ∞ (6) Nous allons écrire sous cette forme la distribution des probabilités continues, avec la densité de probabilité p multipliée par la différentielle correspondante, soit en tant que probabilité infinitésimale, et avec le domaine des valeurs possibles établie explicitement. Cela accentue le fait qu’en fin de compte toutes les distributions de probabilités sont utilisées pour le calcul des valeurs attendues, si bien qu’elles font partie des fonctions à intégrer, sujettes à de possibles changement de variables. Puisque nous utilisons généralement la lettre p pour les densités de probabilité sans se soucier de leur forme fonctionnelle, un changement de variable se traduit par ( ) p( x .) dx = p( x .) dx / dy dy ≡ p y . dy . (Nous avons simplifié ici la notation en omettant une référence explicite aux informations conditionnelles C). 12 D’après la règle de multiplication, la probabilité conjointe d’observer les données mutuellement indépendantes t1, ...tn, connaissant λ, est n p t 1 ,... t n λ dt 1 ... dt n = exp − λ ∑ t j λn dt 1 ... dt n . j =1 ( ) (7) Cela correspond à l’expression p( A B)dB précédente. En multipliant la fonction de vraisemblance ( ) p t 1 ,... t n λ par l’a priori p( λ ) dλ , nous obtenons n p( λ t 1 ,... t n )dλ ∝ exp − λ ∑ t i λn p( λ )dλ , 0 < λ < ∞ . i =1 (8) Notons que dans notre problème la fonction de vraisemblance ne dépend pas de toutes les valeurs individuelle de l’échantillon. Elles apparaissent seulement sous la forme ∑t i ≡ nt , de telle façon i que, pour un échantillon donné de taille n, la moyenne t de l’échantillon comporte toute l’information contenue dans les données. Dans le jargon statistique, t est une « statistique exhaustive », n une « statistique ancillaire », où statistique s’applique à toute fonction de l’échantillon, c’est à dire des données. Si nous considérons toutes les valeurs de λ entre 0 et manière à ce que p (λ )dλ ∝ dλ , nous obtenons p(λ nt )dλ ∝ e − λnt λn dλ , 0 < λ < ∞ . ∞ comme a priori équiprobable, de (9) Or la fonction gamma est définie par ∞ Γ ( n + 1) ≡ ∫ e − x x n dx (10) 0 (qui pour des entiers non négatifs n’est autre que la factorielle n!). Il s’ensuit que le résultat final de notre estimation Bayesienne, correctement normalisée, peut être écrite comme p(λ nt )dλ = Γ( n + 1) e − x x n dx , 0 < x ≡ λnt < ∞ . −1 (11) Cet a posteriori, une distribution gamma (aussi connue comme distribution du χ2 avec χ 2 ≡ 2 x et ν = 2n + 2 degrés de liberté) représente l’information complète sur λ qui est contenue dans les données et l’a priori considéré. La figure 1 représente la distribution du χ2 pour différentes valeurs de ν. À mesure que la taille n de l’échantillon augmente, notre a posteriori devient de plus en plus concentré : plus il y a de données récupérées et meilleure est la connaissance de λ. 13 Figure 1. Distributions du χ2 pour différents degrés de liberté v (cf. équation 105 et Korn & Korn (1968) pour la définition normale et les propriétés principales) 1.3 Valeurs recommandées à partir de l’estimation par perte quadratique La plupart des utilisateurs de données de décroissance radioactive ne désirent pas être ennuyés par les détails de la distribution a posteriori. Ce qu’ils veulent généralement est une constante de décroissance recommandée et son incertitude, et rien d’autre. Par conséquent, à l’aide de l’équation 11, nous calculons la valeur attendue, ∞ λ = ∫ λp(λ nt )dλ = 0 n +1 , nt (12) et l’écart quadratique moyen (aussi appelé écart type, dispersion de l’erreur ou incertitude à un sigma), 14 ∞ ∆λ = ∫ (λ − λ 0 ) 2 p( λ nt )dλ 1/ 2 = n +1 , nt (13) et établissons le résultat sommairement comme λ = λ ± ∆λ . Ce choix se justifie de la manière suivante. La valeur attendue est celle estimée λ0 qui minimise le carré de l’erreur attendu, ∞ ∫ (λ − λ ) p(λ nt )dλ = min , 2 0 (14) 0 comme cela peut être aisément vérifié en dérivant par rapport à λ0, et en égalant à 0. Avec cette valeur recommandée, le carré de l’erreur moyenne (sa valeur attendue) n’est autre que la variance, var λ ≡ ( ∆λ ) , ce qui justifie également notre spécification de l’incertitude. Ce que nous venons 2 juste de faire est appelée « estimation par perte quadratique » dans la théorie de la décision. L’idée de base est qu’il y a habituellement une pénalité pour les mauvaises estimations, d’autant plus dure que l’estimation diffère de la valeur réelle, et que cette pénalité peut être décrite par une « fonction de perte » qui disparaît pour la valeur réelle et est positive partout ailleurs. Au voisinage de la valeur réelle, une fonction de perte raisonnablement lisse peut être prise comme quadratique en erreur (λ0-λ), puisque son développement de Taylor autour de 0 commence par le terme au carré (cf, par exemple, DeGroot 1970, Berger 1985). L’équation 14 est de ce fait la condition pour obtenir la pénalité minimale attendue dans cette approximation parabolique. Évidemment, la recommandation λ ± ∆λ tend à cacher l’asymétrie de la distribution gamma qui, spécialement pour les faibles de valeurs de n, est assez importante (voir figure 1). Si de tels détails importent, on doit retourner à la distribution a posteriori complète. Jusqu’ici nos résultats apparaissent suffisamment raisonnables, mais comme nous allons le voir, il y a un problème provenant de la manière quelque peu cavalière avec laquelle nous avons attribué les probabilités a priori. 1.4 Généralisation à plusieurs observations et paramètres Avant de traiter les a priori avec plus de précautions, regardons l’impact qu’aura une deuxième mesure (avec un nouvel échantillon radioactif) sur notre connaissance de la constante de décroissance. En utilisant la distribution a posteriori de la première mesure comme celle a priori pour la seconde, nous obtenons pour la nouvelle distribution a posteriori p( λ t1 ,...tn ,t’1 ,...t’m )dλ ∝ p( t’1 ,...t’m λ ) p( t1 ,...tn λ )dλ , (15) où t’1 ,... t’m sont les nouvelles données. Plus généralement, s’il y a k mesures, avec des jeux de données associés D1,...Dk et des fonctions de vraisemblances L1,... Lk, on obtient k p( λ D1 ,... Dk )dλ ∝ ∏ L j D j λ p( λ )dλ , j =1 ( ) (16) qui montre de quelle belle façon le théorème de Bayes modélise le processus d’apprentissage par l’expérience : chaque nouveau résultat expérimental peut être formellement incorporé dans le corps existant de la connaissance par multiplication de sa fonction de vraisemblance avec les distributions de probabilité existantes (et renormalisation). Il n’est en aucune manière nécessaire que toutes les 15 expériences soient du même type. Dans l’analyse des résonances nucléaires, par exemple, on combine généralement les fonctions de vraisemblance d’expériences de transmission, capture, diffusion et fission faisant intervenir tout type de détecteur et de géométrie d’échantillon afin d’obtenir les meilleures valeurs de l’énergie et des largeurs partielles des résonances. Avec chaque jeu de données additionnel, la distribution a posteriori devient plus étroite, ce qui signifie que l’incertitude sur le paramètre estimé devient plus faible. Notre exemple le montre explicitement : pour de grands n, l’incertitude relative sur λ tends vers 0 en 1/ n . Une dernière généralisation concerne les paramètres estimés. Dans l’évaluation et ajustement de données, nous ne traitons pas seulement de grandes quantités de données provenant de multiples expériences différentes, mais également de nombreux paramètres, bien souvent corrélés, qui doivent être déterminés simultanément. À la place d’un seul paramètre λ on a donc un vecteur de paramètres λ, au lieu de la différentielle dλ on a un élément de volume dNλ dans l’espace des paramètres, et les distributions a priori et a posteriori représentent les probabilités conjointes pour l’ensemble des N paramètres (les coordonnées du vecteur de paramètres), complétées par les corrélations. A nouveau, l’analyse des résonances fournit des exemples. À l’aide des programmes modernes d’analyse de forme, on peut estimer simultanément l’énergie et les largeurs de dizaines de résonances en ajustant des expressions théoriques appropriées à des combinaisons de données provenant de plusieurs types de mesures de résonance, chaque expérience fournissant des centaines ou milliers de points expérimentaux (voir Figure 4 en bas). 1.5 Approche plus détaillée des probabilités a priori, attribution par la théorie des groupes Nous devons maintenant traiter plus rigoureusement les probabilités a priori. Dans notre exemple de taux de décroissance, nous avons utilisé l’a priori p( λ ) dλ ∝ dλ , ce qui en terme de temps de vie τ ≡ 1 / λ peut être réécrit comme p( 1 / τ) dτ / τ 2 ≡ p( τ ) dτ ∝ dτ / τ 2 . Évidemment, nous pourrions avoir aussi bien pu estimer τ plutôt que λ, et considérer tous les τ équiprobables, c’est-à-dire p( τ ) dτ ∝ dτ . Ceci, toutefois, aurait donné une distribution a posteriori différente. Il est vrai que l’a posteriori ne dépend que faiblement de l’a priori si les données sont abondantes, mais d’un point de vue fondamental ce n’est que piètre consolation. Il semble y avoir un caractère bassement arbitraire concernant les a priori, en particulier pour les paramètres continus. Durant plus d’un siècle, ce caractère arbitraire apparent a conduit de nombreux statisticiens à répudier l’estimation Bayesienne des paramètres et à rechercher d’autres méthodes pour circonvenir les a priori. D’autres, en comparant cela à une tentative de faire de l’arithmétique sans le zéro, défendirent le théorème de Bayes comme dérivable en quelques lignes des règles de somme et de multiplication. Ils utilisèrent ainsi des a priori « subjectifs » ou, comme H. Jeffreys (1939), invoquèrent des arguments d’invariance pour trouver des a priori qui évitaient d’être ambigus. Une importante avancée fut amenée par A. Wald (1950). Il avait commencé par chercher des méthodes plus fondées (théorie décisionnelle) d’inférence statistique, sans le théorème de Bayes, mais finit par prouver que la stratégie optimale pour prendre une décision (recommander une valeur, par exemple) vis à vis de l’incertitude était justement les lois Bayesiennes. Encore plus importante fut l’application de la théorie des groupes et de la théorie de l’information au problème des a priori par E.T. Jaynes (1968, 1973). Il démontra, pour un nombre de cas simples mais ayant une grande importance d’un point de vue pratique, que même si l’on ignore complètement les valeurs numériques des paramètres estimés, la symétrie du problème détermine sans 16 ambiguïté l’a priori. Si ce qu’on appelle un paramètre de position doit être déterminé, par exemple la moyenne µ d’une Gaussienne, la forme de l’a priori doit être invariante pour un déplacement c de la ( ) ( ) ( ) position, p µ dµ = p µ + c d µ + c . Autrement dit, les positions de la Gaussienne ne seront pas toutes équiprobables a priori, contrairement à ce qu’on attendrait d’une complète ignorance. L’équation fonctionnelle a pour solution p(µ )dµ ∝ dµ , −∞<µ<∞, (17) un résultat totalement plausible. Moins évident est le cas d’un paramètre d’échelle tel que l’écart type σ d’une Gaussienne. S’il n’y a pas d’échelle préférée, on s’attend à une invariance par changement d’échelle, p( σ ) dσ = p( cσ) d ( cσ) . La solution de cette équation fonctionnelle est p( σ ) dσ ∝ dσ , σ 0< σ < ∞ , (18) comme le préconisait déjà H. Jeffreys (1939). Malgré son importance et sa simplicité, la démonstration de Jaynes (1968) semble si peu connue que nous allons la citer ici pratiquement mot pour mot pour le cas d’une constante qui multiplie (changement d’échelle) tous les temps ou intervalles de temps dans un problème (comme le fait λ dans l’équation 6) : Supposons que deux observateurs, Messieurs X et X’, veuillent estimer un rapport constant à partir d’un nombre d’événements. Si leurs observations sont effectuées pour différents rapports de telle manière que leurs mesures sont reliées par t = ct’, leurs paramètres de rapport ou d’échelle seront reliés par λ’ = cλ. Ils attribuent les probabilités a priori p(λ)dλ et q(λ’)dλ’, et si elles doivent représenter le même état d’ignorance, alors p et q doivent être la même fonction et donc p(λ)dλ=p(λ’)dλ’. À partir des deux équations pour λ et λ’, on obtient l’équation fonctionnelle p(λ)=cp(cλ). Son unique solution est l’a priori de Jeffrey, p( λ ) dλ ∝ dλ , λ 0<λ <∞. (19) Il est certain que c’est l’a priori approprié pour notre exemple de taux de décroissance, puisque la constante de décroissance n’est autre qu’un paramètre d’échelle dans nos équations. Elle satisfait p( λ ) dλ ∝ dλ / λ ∝ dτ / τ qui élimine toute ambiguïté : que nous estimions le paramètre d’échelle λ ou le paramètre d’échelle τ, nous obtenons toujours le même a posteriori, e − x x n dx p(λ nt )dλ = , 0 < x ≡ λnt < ∞ , Γ (n) x (20) avec λ = 1 , t (21) ∆λ 1 = . λ n (22) Cela semble plus juste que notre résultat précédent, illustrant le principe de parcimonie d’Ockham (1349) (« le rasoir d’Ockham ») : le résultat le plus simple est souvent le plus correct. Si ce 17 n’est pas la constante de décroissance, mais la vie moyenne qui est à estimer, il est alors tout aussi facile de trouver τ = λ−1 = 1 ∆τ , = τ n−2 nt , (23) n−1 (24) applicable si n > 2. D’autres exemples d’a priori issus des invariances de la théorie des groupes peuvent être trouvés dans les travaux de Jaynes (1968, 1973, 1976,1980). Dans le langage de la théorie des groupes, l’a priori qui correspond à l’invariance dans un groupe de transformation est la mesure du bon invariant de Haar de ce groupe (voir Berger 1985, chapitre 6.6). Le fait que de tels a priori « moins informatifs » ne puissent être normalisés est parfois critiqué, et ils sont appelés a priori « impropres ». Maintenant, on peut employer à la place un a priori complètement normalisable de forme mathématique acceptable (« conjuguée »). Dans notre exemple, cela serait une distribution gamma. L’a posteriori dépendrait alors, bien sûr, de la largeur de cet a priori. Si on laisse la largeur augmenter indéfiniment, on trouvera toujours que l’a posteriori tends vers l’a posteriori obtenu bien plus facilement avec l’a priori moins informatif. Nos a priori moins informatifs peuvent par conséquent être considérés comme les limites de distributions extrêmement large, normalisable, sur l’échelle linéaire (dµ) et logarithmique (dσ/σ = d ln σ), tout comme la fonction delta de Dirac est le cas limite de distributions extrêmement étroites et normalisées. Il n’y a pas de difficulté conceptuelle ou mathématique si l’on garde en mémoire que les a priori les moins informatifs et les fonctions delta les « plus informatives » ne sont rien d’autre que des notations sténographiques pratiques pour des distributions extrêmement larges ou extrêmement fines, n’ayant un sens que dans la convolution avec d’autres distributions, moins extrêmes. 1.6 Estimation Bayesienne de paramètre pour une Gaussienne à une variable Appliquons également les a priori les moins informatifs sur la distribution Gaussienne à une variable, importante tant sur le principe que d’un point de vue pratique. Supposons qu’une mesure répétée de la même quantité physique m ait donné les résultats x1,... xn, avec des erreurs expérimentales qui peuvent être considérées distribuées normalement. La distribution d’échantillonnage est alors 1 x j − µ 2 dx j , − ∞ < x j < ∞ , p x j µ , σ dx j = exp − 2 σ 2 πσ 2 ( ) 1 (25) avec une dispersion de l’erreur σ inconnue, L’a priori exprimant une ignorance complète de la position (moyenne) et de l’échelle (largeur) de la Gaussienne est (voir Jaynes 1968) p(µ , σ )dµdσ ∝ dµdσ , σ −∞<µ<∞, 0< σ < ∞ . L’a posteriori est alors 18 (26) 1 1 p µ , σ x1 ,..., x n dµdσ ∝ n exp − 2 σ 2σ ( ) ∑ (x n j =1 j dµdσ −µ . σ ) 2 (27) En terme de moyenne de l’échantillon et de variance de l’échantillon, 1 n x ≡ ∑ xj , n j =1 ( ) 2 1 n s’ ≡ ∑ x j − x , n j =1 2 (28) (29) l’exposant peut être écrit comme 1 2σ 2 ∑ (x 2 n j =1 j − µ) µ − x 2 ns’2 2 = 1 + 2 ≡ 1+ u v. s ’ 2 σ ( ) (30) La probabilité conjointe a posteriori pour µ et σ, correctement normalisée et en notation simplifiée, peut alors être représentée sous les formes suivantes qui correspondent aux deux factorisations de la règle fondamentale de multiplication (2), p (µ ,σ x , s’ , n )dµdσ = p (u v , n )du ⋅ p (v n )dv = e − vu 2 v du e − v v ( n −1 ) / 2 dv Γ n2−1 v ( ) π n/ 2 e −(1+u )v [(1 + u 2 )v] dv = p (v u , n )dv ⋅ p (u n )du = Γ n2 v B 2 () −∞<u≡ µ−x < ∞, s’ 0<v≡ du ( )(1 + u ) 1 n −1 , 2 2 2 n/2 , ns ’2 <∞, 2σ 2 (31) ( ) ≡ Γ( )Γ( ) / Γ( ) est une fonction beta. Notons que u est essentiellement µ, que v est où B 1 n−1 , 2 2 1 2 n −1 2 n 2 essentiellement σ-2, et que dans les deux factorisations l’a posteriori dépend de l’échantillon uniquement au travers de la moyenne x de l’échantillon et de la variance s’2 de l’échantillon (indépendamment de la taille n de l’échantillon). C’est pourquoi ces quantités sont, dans le jargon des fréquencistes, des « statistiques exhaustives conjointes ». Dans la première factorisation, la distribution de probabilité de µ sachant σ est Gaussienne alors que celle de σ-2 est une distribution gamma. Dans la seconde, la distribution de probabilité de σ sachant µ est une distribution gamma tandis que celle de µ est une distribution t de Student. Les deux alternatives montrent explicitement les deux distributions marginales pour µ et σ : Si le seul intérêt est µ, quoi que puisse valoir σ, nous intégrons sur toutes les valeurs possibles du « paramètre dérangeant » σ (ou v) afin d’obtenir la distribution marginale des valeurs possibles de µ, ( ) du p µ x , s’ dµ = B ( )(1 + u ) 1 n −1 , 2 2 2 n/ 2 , −∞<u≡ 19 µ−x < ∞. s’ (32) C’est la distribution t de Student pour t ≡ u / ν avec ν = n-1 degrés de liberté. Voir figure 2 et annexe A. Sa moyenne et sa variance sont u = 0 et u 2 = 1 / ( n − 3) , d’où µ =x, var µ= (33) s’ 2 . n−3 (34) Nous rencontrons ici la formule (plausible) des fréquencistes pour utiliser la moyenne de l’échantillon comme « estimateur » de la moyenne de la population. Aucune erreur type finie et réelle ne peut être établie tant que n ≤ 3 . D’un autre côté, la demi-largeur est toujours bien définie et peut être utilisée pour signifier la largeur de la distribution t, comme cela est communément pratiqué dans le cas n = 2, la distribution de Cauchy (connue des physiciens sous le nom de Lorentzienne ou profil symétrique de Breit et Wigner). Figure 2. Distributions t de Student pour différents degrés de liberté (voir Korn & Korn 1986). La distribution de Cauchy (Lorentzienne, ν = 1) et la Gaussienne ( ν = ∞ ) sont des cas limites Si seul σ représente un intérêt, sans considération sur µ, on obtient en intégrant sur u la distribution gamma (ou du χ2) e − v v ( n −1) / 2 dv p(σ x , s ’)dσ = , Γ n2−1 v ns ’2 −∞<v≡ <∞. 2σ 2 ( ) (35) v = var v = (n − 1) / 2 . L’estimation par perte Sa moyenne et sa variance sont égales, quadratique pour σ est alors -2 σ −2 n − 1 −2 = s’ ≡ s − 2 , n ∆( σ −2 ) (36) σ −2 20 = 2 . n−1 (37) Ceci étaye une extension de l’autre (pas si plausible) formule des fréquencistes consistant à ne pas prendre la variance de l’échantillon s’2 mais s2 comme estimateur de σ2, malgré le fait que cet estimateur soit « biaisé », c’est à dire que sa valeur attendue, la moyenne sur tous les échantillons possibles, n’est pas égale au paramètre estimé, s 2 ≠ σ 2 . Or, σ /2 est également appelé précision -2 2 (voir par exemple DeGroot 1970) et nous devons donc désormais reconnaître que s- /2 est un 2 estimateur non biaisé pour la précision. L’estimation Bayesienne correcte de σ provient toutefois de v −1 = 2 / (n − 3) et v −2 = 4 /[(n − 3)(n − 5)] . Sans aucun empirisme, on obtient σ −2 n = s’ 2 , n−3 (38) ∆( σ 2 ) σ 2 = 2 . n−5 (39) Notons qu’un échantillon de moins de six valeurs ne contient pas suffisamment d’information pour une estimation complète de σ2 alors que σ-2 peut être estimée à partir d’un échantillon de deux. La covariance entre u et v s’annule du fait qu’après intégration sur v, l’intégrand restant est une fonction impaire de u. Par voie de conséquence, on a cov ( µ , σ -2 ) = 0 . (40) Le cas avec une seule donnée, n = 1, doit être traitée différemment car s’ = 0 empêche de définir u, mais cela est aisé. L’a posteriori est simplement ( ) p µ , σ x1 dµdσ ∝ 1 µ − x1 2 dµdσ exp , - 2 σ σ 2 πσ 2 1 (41) à partir duquel nous obtenons les distributions marginales ( ) p µ x1 dµ ≡ p(σ x1 )dσ ∝ dµ µ − x1 , (42) dσ . σ (43) La distribution marginale de µ présente un maximum très marqué au niveau de la valeur observée mais celle de σ apparaît être toujours égale à l’a priori le moins informatif-ce qui a un sens, puisqu’un échantillon de taille n = 1 peut apporter quelque chose sur la position mais rien concernant la largeur de la distribution. C’est toutefois un exemple montrant que la méthode Bayesienne s’accorde avec le sens commun même dans des cas extrêmes, en particulier pour de très petits échantillons, où les autres méthodes sont vouées à l’échec. Mentionnons que l’a posteriori (31) pour n > 1 fut trouvé bien avant que l’a priori (26) ne soit disponible, mais ceux qui connaissent l’approche « fiducielle » de R.A. Fisher (1935) apprécieront à quel point la dérivation Bayesienne est plus simple et plus directe, et avec quelle facilité elle peut être étendue au cas n = 1 (Jeffreys 1939). En outre, la dérivation peut être étendue de manière directe aux distributions Gaussiennes à plusieurs variables. Avec des généralisations appropriées des relations scalaires aux formes matricielles, soit de la variance (erreur 21 quadratique moyenne au carré) à la matrice de covariance ( σ 2 → C ), d’une différentielle avec une variable à un élément de volume dépendant de plusieurs variables ( dx → d ( x) ≡ dσ 2 → d ( C) ≡ ∏ ν≤ k ∏ ν dx ν , Cν ,k ) etc., on obtient des expressions matricielles qui ressemblent beaucoup aux expressions scalaires pour la Gaussienne avec une variable (voir Annexe 1 et Fröhner 1990). Assez généralement, une estimation Bayesienne des paramètres est, d’un point de vue logique et mathématique, plus simple que d’autres approches et au moins aussi rigoureuse. Des concepts tels que biais, efficacité, suffisance, acceptabilité, compression de James-Stein (voir par exemple Berger 1985), essentiels pour les méthodes d’estimation fréquenciste, n’ont nullement besoin d’être introduits puisqu’ils apparaissent en tant qu’éléments plus ou moins fortuits de la distribution a posteriori, de sa moyenne ou de sa variance. Il n’y a pas de risque que les meilleures estimations soient déterminés en dehors de l’intervalle des valeurs autorisées, comme cela peut arriver parfois pour les autres méthodes. Bien que les taux de réactions ou les sections efficaces soient des quantités fondamentalement positives, les données mesurées peuvent très bien contenir des points négatifs après soustraction du bruit de fond. Ce serait une erreur que d’écarter les points négatifs. On peut se fier au fait que l’a priori garantit un intervalle correct pour les quantités estimées, par exemple µ<0, indépendamment de la plage des valeurs observables admise par la fonction de vraisemblance, par exemple − ∞ < x j < +∞ . La fondamentale simplicité et supériorité de l’approche Bayesienne comparativement aux autres méthodes d’estimation a été démontrée assez puissamment par Jaynes (1976) à l’aide de toute une série d’exemples de la vie courante. La distribution conjointe a posteriori de la moyenne µ et de la variance σ2 est l’information complète sur les paramètres d’une Gaussienne qui peut être extraite des données. À partir de l’a posteriori, on peut obtenir des valeurs recommandées et leurs incertitudes à partir de fonctions de perte quadratique ou autre, comme nous l’avons vu. Souvent, toutefois, nous ne sommes pas seulement intéressés par les paramètres du modèle statistique mais également par les prédictions de nouvelles mesures. Ceci est peut être, en fait, la raison pour laquelle un modèle statistique fut introduit la première fois. Que pouvons-nous dire, après déduction de l’a posteriori (31) pour les paramètres du modèle Gaussien, à propos du résultat d’une nouvelle expérience, x ≡ x n +1 ? On pourrait songer à prendre la Gaussienne avec l’a posteriori le plus probable ou avec la valeur moyenne des paramètres, ou bien à calculer la moyenne de la Gaussienne sur la distribution a posteriori de ses paramètres. La dernière solution est la bonne. Cela devient clair si nous notons la probabilité conjointe de x, µ et σ pour des données connues x et s’2, puis utilisons la règle de multiplication et enfin intégrons sur les paramètres dérangeants µ et σ, ce qui donne p(x x , s ’)dx ∝ dx ∫ dσ ∫ dµ p(x µ, σ ) p(µ, σ x , s ’) ∞ ∞ ∝ dx ∫ dv ∫ du e −(u − w ) 0 2 v/n (44) e − v v ( n −1) / 2 , −∞ où u, v sont définis comme précédemment et w ≡ ( x − x ) / s ’. En intégrant d’abord la Gaussienne (sur tous les u) puis la fonction gamma restante (sur tous les v) nous obtenons, pour n > 1, la distribution « prédictive » p( x x , s’)dµ = B ( ) 1 n −1 , 2 2 dy (1 + y ) 2 n/ 2 , −∞<y≡ 22 x−x s’ n + 1 < ∞. (45) Bien que la distribution d’échantillonnage soit Gaussienne, la distribution prédictive pour le résultat d’une mesure additionnelle n’est pas une Gaussienne mais une distribution t. Il est vrai qu’une distribution t s’approche d’une Gaussienne pour des n élevés, mais pour des valeurs de n finies, elle est toujours plus large (voir Figure 2). La meilleure estimation pour toute fonction f(x) des données suivantes est sa valeur attendue f selon la distribution prédictive. 1.7 Attribution de probabilités par maximisation de l’entropie Jaynes (1968, 1973, 1978, 1980) considéra également le cas où l’on n’est pas totalement a priori ignorant des valeurs numériques. Il montra dans quelle mesure les probabilités pouvaient être attribuées d’une manière bien déterminée si l’on dispose au moins d’une information vague sur les quantités moyennes, par exemple d’estimations des valeurs attendues telles que les premier et second moments. Le concept clé est celle de l’entropie d’information, introduite par C.E. Shannon (1948) en tant qu’unique mesure de l’indétermination ou de l’information manquante implicite d’une distribution donnée de probabilités. L’entropie d’information d’une distribution discrète de probabilités pj avec des alternatives mutuellement exclusives j est (à une constante près) S = − ∑ p j ln p j . (46) j Shannon prouva que c’est l’unique mesure d’indétermination qui satisfait les exigences suivantes : (i) C’est une fonction lisse des pj. (ii) S’il y a N alternatives, toutes équiprobables, alors l’indétermination et donc S doivent croître de manière monotone si N augmente. (iii) Un simple regroupement des alternatives n’engendre aucune différence : si nous ajoutons l’entropie quantifiant l’ignorance du groupe réel, et les entropies convenablement pondérées quantifiant l’ignorance de chaque membre réel à l’intérieur de chaque groupe, nous devons trouver la même entropie globale S que pour les alternatives non groupées. Pour des distributions continues ayant une densité de probabilité p(x), nous prenons l’expression apparemment analogue S = − ∫ dx p( x) ln p( x) . (47) Supposons maintenant que nous ne connaissons pas p(x) mais que nous en avons une information globale sous forme de valeurs attendues pour plusieurs fonctions connues fk(x), f k = ∫ dx p( x ) f k ( x ) , k = 1,2, ... K. (48) Quelle est la densité de probabilité p(x) qui satisfait ces K équations sans impliquer d’autres informations, faussées, ou des hypothèses cachées ? La réponse est fournie par le principe du maximum d’entropie : si nous désirons qu’il y est compatibilité entre l’information donnée, tout en ayant un contenu d’information minimal, nous devons varier p(x) de telle manière à ce que son 23 entropie soit maximale, S = max, sous les K contraintes (48). La solution bien connue de ce problème variationnel, obtenue par la méthode des multiplicateurs de Lagrange, est p( x ) = K 1 exp - ∑ λ k f k ( x ) . k =1 Z (49) Cette densité de probabilité est manifestement positive pour λk réel, et correctement normalisée à un avec K Z = ∫ dx exp - ∑ λ k f k ( x ) . k=1 (50) Les multiplicateurs de Lagrange λk doivent être déterminés à partir des K contraintes (48) ou à partir des équations équivalentes fk = − ∂ ln Z . ∂λ k (51) La dernière manière est plus commode si Z peut être exprimé sous forme d’une fonction analytique des paramètres de Lagrange. À chaque fois qu’une nouvelle donnée « globale » est disponible, on doit multiplier la distribution existante par un facteur exp[-λk fk(x)] (et renormaliser). Ceci montre comment on peut généraliser aux cas où une distribution a priori donnée m(x)dx est réactualisée avec de nouvelles données globales f k p( x ) = : la densité de probabilité réactualisée doit s’exprimer sous la forme m( x ) K exp - ∑ λ k f k ( x ) k=1 Z (52) avec K Z = ∫ dx m( x ) exp - ∑ λ k f k ( x ) . k =1 (53) Les multiplicateurs de Lagrange peuvent être déterminés à partir des équations (48) ou (51) comme ci-dessus. Ce résultat peut être obtenu par maximisation de l’entropie d’information correspondante (entropie croisée) S = − ∫ dx p( x ) ln p( x ) , m( x ) (54) sujettes aux contraintes (48). L’entropie croisée possède l’invariance requise par changement de variable, contrairement à l’équation (47) que nous reconnaissons maintenant être limitée au cas spécifique d’un a priori uniforme pour la variable d’intégration x. 24 L’algorithme de l’entropie maximale (48)-(51) doit sembler familier aux physiciens : il ne constitue rien d’autre que le rationnel manquant dans l’approche axiomatique de Gibbs en thermodynamique. Sur ce point, l’entropie d’information maximisée, multipliée par la constante de Boltzmann, est l’entropie thermodynamique de Clausius, et la constante de normalisation Z est la fonction de partition à partir de laquelle tout ensemble de moyennes observables macroscopiquement ou contrôlables peut être obtenu par une dérivation appropriée. Par exemple, si E est l’énergie (non négative) des particules d’un système thermodynamique, à propos desquelles on ne connaît rien hormis leur énergie moyenne (déterminée par la température du système), on a la distribution canonique, p( E E ) ∝ exp ( − λE ) , c’est-à-dire un facteur de Boltzmann avec l’inverse de la température apparaissant en tant que paramètre de Lagrange. Si le nombre moyen de particules est ( ) également connu, on obtient l’ensemble grand-canonique, p( E , N E , N ) ∝ exp − λE − µN , le potentiel chimique étant le deuxième paramètre de Lagrange, et ainsi de suite. Les évaluateurs de données sont la plupart du temps confrontés à des données exprimées sous la forme x ± ∆x . Notre notation indique que nous interprétons ces nombres comme la meilleure estimation des expérimentateurs par perte quadratique. Les deux premiers moments, x et x 2 , d’une distribution inconnue sont ainsi déterminés. (Rappelons que ( ∆x) = var x = x 2 − x .) Si l’intervalle de définition est − ∞ < x < ∞ , l’algorithme de l’entropie maximale donne pour ce genre 2 ( 2 ) d’information p( x) ∝ exp − λ 1 x − λ 2 x 2 comme la densité de probabilité la moins restrictive et moins informative, et par conséquent la plus conservative et objective. C’est manifestement une Gaussienne qui en terme de donnée d’entrée doit s’écrire sous la forme (confirmée, bien sûr, par l’algorithme de l’entropie maximale) p( x x ,∆x )dx = 1 2 π( ∆x ) 2 1 x − x 2 exp - dx , 2 ∆x − ∞ < x < ∞ . (55) Le cas d’une variable strictement positive, 0 < x < ∞ , est ramené au cas précédent en la remplaçant par y = ln x, et ainsi − ∞ < y < ∞ . Avec des premier et second moments connus sur l’échelle logarithmique en y, nous obtenons une Gaussienne sur l’échelle logarithmique, c’est à dire une distribution lognormale sur l’échelle linéaire en x. Si nous connaissons uniquement la moyenne x , et que x est strictement positif, nous obtenons une exponentielle décroissante. Nous rencontrons ici une des raisons de l’ubiquité de ces distributions en statistique et dans l’analyse des données. Traditionnellement, la Gaussienne n’est considérée correcte que si la variable est affectée par de très nombreuses erreurs indépendantes de telle manière que le théorème de la limite centrale soit applicable, ou alors elle est simplement invoquée pour des raisons de commodités mathématiques, avec de sombres avertissements sur les terribles conséquences d’une distribution réelle non Gaussienne. Le principe du maximum d’entropie ne peut éliminer ces conséquences, mais elle évite mauvaise conscience ou paralysie : si seules la meilleure valeur (la moyenne) et l’erreur quadratique moyenne (l’écart type) sont données, la distribution de probabilités optimale pour une nouvelle inférence est la gaussienne correspondante, quoi que la distribution réelle inconnue puisse être. Contrairement au théorème de la limite centrale, le principe du maximum d’entropie fonctionne également avec des données corrélées. Un autre mythe repose sur le fait que les erreurs systématiques doivent être décrites par des distributions de probabilité rectangulaires. Si nous ne connaissons pas leur signe mais possédons au 25 moins une vague idée de leur grandeur (grâce à l’état de l’art, par exemple), le principe du maximum d’entropie nous dit d’utiliser une Gaussienne de moyenne nulle et dont la largeur correspond à cette grandeur, plutôt qu’une distribution rectangulaire. La généralisation aux distributions à plusieurs variables est directe. Prenons, par exemple, un jeu x j − x j ≡ ε j , j = 1, 2, ...n, dont nous ne connaissons que les valeurs d’erreurs expérimentales attendues ε j ε k , c’est à dire leurs variances et covariances. Les erreurs εj sont les coordonnées Cartésiennes de la variable vecteur ε, et les valeurs attendues ε j ε k sont les éléments de la matrice de covariance symétrique et définie positive C = εε Τ , où Τ identifie la transposée. Pour chaque valeur attendue Cjk=Ckj, nous introduisons un multiplicateur de Lagrange Λjk=Λkj. La distribution d’entropie maximale est alors ( ) p ε C d nε = 1 exp - ∑ ∑ ε j Λ jk ε k d n ε . Z j k (56) La normalisation est aisée dans le système de coordonnées où la matrice carrée symétrique Λ est diagonale. Nous effectuons donc les substitutions suivantes : ε’ = Οε, où Ο est la matrice orthogonale qui rend Λ’=ΟΛΟΤ diagonale, det Λ’ = det Λ, et dnε’ = dnε. L’intégrale Z de dimension n se factorise alors en n intégrales élémentaires sur des Gaussiennes à une variable, ( ) Z = ∏ ∫ dε j ’ exp − Λ’ jj ε j ’ 2 = j πn . det Λ (57) La relation entre la matrice Λ des paramètres de Lagrange et la matrice connue des covariances C est obtenue par dérivation de ln Z, voir équation (51). On a C jk = − ∂ 1 ln Z = ( Λ −1 ) jk , ∂Λ jk 2 (58) puisque la dérivation du déterminant par rapport à un élément de la matrice donne le cofacteur pour cet élément, qui pour une matrice non singulière est égal à l’élément correspondant de la matrice inverse multipliée par le déterminant. La distribution avec l’entropie maximale parmi toutes celles ayant la même matrice de covariance C est alors p( ε C )d ( ε ) = où ε = 0, εε T 1 1 exp - ε T C −1 ε d ( ε ) , 2 det ( 2πC ) −∞<εj <∞, (59) = C , det (2 πC ) = ( 2 π ) det C , et d ( ε ) ≡ d n ε . Nous obtenons ainsi, pour des n moments de second ordre définis, une Gaussienne à n variables centrée sur l’origine. Puisque rien n’est établi pour les premiers moments des erreurs, c’est à dire pour le centre de leur distribution, il n’y a aucune raison de préférer des εj positifs ou négatifs, et donc l’algorithme aboutit à une symétrie par rapport à zéro. Que se passe-t’il si seules les variances Cjj sont connus et non pas les covariances Cjk, comme cela arrive couramment en pratique ? Dans ce cas, seuls les paramètres de Lagrange Λjj 26 apparaissent dans (56), c’est à dire que les matrices Λ et C sont a priori diagonales. Des covariances inconnues peuvent ainsi être considérées nulles, et cette règle simple peut être également appliquée dans les cas où certaines covariances sont connue et d’autres non. Ceci est un autre exemple, après celui de l’annulation des premiers moments, d’une propriété générale des distributions d’entropie maximale : toutes les valeurs attendues sont nulles à moins que des contraintes n’en décident autrement. Ainsi, il n’y a aucune différence entre le fait de considérer des moyennes inconnues comme nulles après avoir introduit des paramètres de Lagrange pour celles-ci, ou de les ignorer complètement dès le début. Avec ε = x − x , nous pouvons réécrire la distribution des erreurs (59) sous la forme p( x x ,C )d ( x) = 1 1 exp - ( x - x 2 det ( 2 πC ) ) T C −1 ( x - − ∞ < xj < ∞ x ) d ( x) , (60) qui est la généralisation à plusieurs variables de la distribution Gaussienne à une variable (55). Il devrait être clair désormais que la maximisation de l’entropie est un outil puissant pour l’attribution de l’a priori ou de tout autre probabilité. Une publication fascinante et très riche en informations sur la méthode du maximum d’entropie, incluant une grande variété d’applications allant des tests d’hypothèses à la thermodynamique hors équilibre et la théorie des fluctuations, est celle de Jaynes (1978). 1.8 Une approximation : le maximum de vraisemblance Plus les données sont nombreuses, et moins l’a priori est important. C’est pourquoi, l’utilisation d’un a priori constant est souvent une approximation raisonnable, comme nous l’avons fait dans notre exemple de constante de décroissance. Cela signifie que la densité de probabilité de la probabilité a posteriori est prise égale à la fonction de vraisemblance. La méthode largement utilisée du maximum de vraisemblance est essentiellement constituée de la règle recommandant de prendre la valeur du paramètre (ou le vecteur) qui maximise la fonction de vraisemblance. Puisque la fonction de vraisemblance dépend seulement de l’échantillon, la valeur du paramètre (ou le vecteur) la maximisant ne dépend de rien d’autre : elle est statistique et sa distribution de probabilité « directe », c’est-à-dire la probabilité que son écart par rapport à la valeur (ou au vecteur) réelle soit dans des limites données si on choisit un échantillon, peut être calculée comme l’intégrale de la fonction de vraisemblance sur un domaine correspondant à l’espace de l’échantillon. Si la distribution ainsi obtenue est étroite, le paramètre réel est vraisemblablement proche de l’estimation par le maximum de vraisemblance bien spécifique obtenu à partir d’un échantillon bien spécifique. La distribution de la statistique doit par conséquent être reliée à l’a posteriori Bayesien. Dans les cas simples, lorsque la statistique est suffisante, on peut, en fait, déduire rigoureusement l’a posteriori Bayesien de la distribution de l’estimation par le maximum de vraisemblance. C’est l’approche fiducielle de R.A. Fisher (1935). Dans de tels cas favorables, on remarque que le résultat du maximum de vraisemblance coïncide avec le résultat Bayesien obtenu avec le convenable a priori le moins informatif. Illustrons ceci avec notre exemple de constante de décroissance. La fonction de vraisemblance de l’équation (7) devient maximale pour λ = 1 / t : l’estimation par le maximum de vraisemblance est donc la même que l’estimation « ponctuelle » Bayesienne (21). La probabilité pour que la statistique 27 suffisante t soit dans l’intervalle infinitésimal dt , si un échantillon est tiré au sort, peut être obtenue par intégration de la fonction de vraisemblance sur une coque sphérique de rayon t et d’épaisseur dt dans l’espace des ti. En passant en coordonnées polaires, t = r 2 , dt = 2rdr , d n t ∝ r 2 n −1 drdΩ et en effectuant une intégration (triviale) sur les coordonnées angulaires Ω, on obtient p( t n,λ )dt ∝ e − λnr r 2 n −1 dr , 2 0< r ≡ t < ∞. (61) Après renormalisation, le membre de droite de cette relation de proportionnalité est identique à l’a posteriori Bayesien (20) obtenu avec l’a priori de Jeffrey. Manifestement, nous avons ici la distribution de probabilité universelle du produit λnt qui peut aussi bien être interprétée comme la probabilité de λ sachant nt (un échantillon spécifique et un continuum de constantes de décroissance possibles) que comme celle de nt sachant λ (une constante de décroissance spécifique et un continuum de d’échantillons possible pour chaque valeur du nombre naturel n). La méthode du maximum de vraisemblance, une des techniques inventées pour contourner les a priori, est donc, dans les cas favorables, équivalente à l’approche Bayesienne, mais malgré tout elle reste plus lourde : tout d’abord il faut identifier des statistiques suffisantes, puis il faut calculer leur distribution de probabilité « directe » par intégration de la fonction de vraisemblance sur un domaine convenable de l’espace des échantillons, et finalement il faut « inverser » pour obtenir la distribution de probabilité des paramètres. Dans des cas plus complexes, les statistiques suffisantes peuvent ne pas exister du tout et même si elles existent, des approximations sont requises de manière à ce que le résultat par maximum de vraisemblance donne uniquement une approximation du résultat Bayesien exact. 1.9 Une approximation : les moindres carrés L’approximation qui va être étudiée, la méthode des moindres carrés, est la plus importante pour l’évaluation et l’ajustement des données. Comme exemple le plus simple, considérons le cas d’une quantité µ mesurée n fois, sous différentes conditions expérimentales, et que nous obtenions les résultats sous la forme x j ± σ j . La meilleure façon d’interpréter ces nombres est de les considérer comme les moyennes et erreurs types de distributions de probabilité non spécifiées. Qu’elles soient Gaussiennes ou non, le principe du maximum d’entropie nous dit de fonder toute nouvelle inférence sur des Gaussiennes si les erreurs inconnues peuvent avoir une valeur quelconque entre -∞ et +∞. La fonction de vraisemblance est le produit de ces distributions d’erreur Gaussiennes, et l’a priori approprié pour la position du paramètre µ est uniforme, et donc l’a posteriori est également une Gaussienne, ( p µ {x j ,σ j } 1 x − µ 2 j dµ ∝ exp − ∑ dµ . 2 j σ j ) En introduisant les moyennes sur les échantillons pondérées par σ-2, 28 (62) ∑σ −2 j xj j x≡ ∑σ , −2 j σ2 ≡ (63) ∑σ j −2 j σ 2j j ∑σ −2 j j = n ∑σ −2 j , (64) j ainsi que x 2 , et en normalisant correctement, nous obtenons ({ (µ − x ) 2 dµ , exp − 2 2 σ /n 2 2 πσ /n }) 1 p µ x j , σ j dµ = (62) avec pour la moyenne et la variance µ =x, var µ ≡ ( ∆µ ) (66) 2 σ2 = . n (67) L’erreur standard relative sur le résultat, ∆ var µ/ µ , est apparemment une nouvelle fois proportionnelle à 1/ n . La meilleure estimation par perte quadratique est la moyenne pondérée par σ-2 sur l’ensemble des données. Elle minimise la somme des carrés dans l’exponentielle de l’a posteriori (62). Cette propriété des moindres carrés sera à nouveau rencontrée dans la généralisation à plusieurs variables : Considérons • Des observables yj, j = 1, 2, ... J (par exemple des données de capture neutronique). • Des paramètres xµ, µ = 1, 2, ... M (par exemple des paramètres de résonance). • Un modèle théorique y = y(x) (par exemple, la théorie de la matrice-R des réactions nucléaires). { } { } où x = x1 ,... x M , y = y1 ,... y J sont des vecteurs respectivement dans l’espace des paramètres et l’espace des échantillons. D’ordinaire M<J, mais nous verrons que ce n’est pas nécessaire. Supposons maintenant qu’avant que les données ne soient obtenues, on ait une connaissance a priori du vecteur de paramètres sous la forme d’un vecteur estimé ξ et d’une matrice de covariance A = δξδξ T , avec δξ ≡ ξ − x , décrivant les incertitudes et les corrélations des paramètres estimés. La distribution de probabilité a priori de x, sachant ξ et A, peut alors être considérée comme T 1 p( x ξ , A ) d ( x) ∝ exp − ( ξ − x) A -1 ( ξ − x) d ( x) , 2 (68) où d(x) ≡ dMx est l’élément de volume de l’espace des paramètres, de dimension M (à ne pas confondre avec le vecteur infinitésimal dx). Supposons de plus que les mesures donnent un vecteur de données η, affecté par des erreurs expérimentales dont les incertitudes et corrélations sont spécifiées par la matrice de covariance B = δηδη T , avec δη ≡ η − y , de sorte que la vraisemblance d’obtenir ces valeurs, pour un vrai vecteur y d’observables, est 29 T 1 p η y , B d ( η) ∝ exp − ( η − y) B -1 ( η − y)d ( η) , 2 ( ) (69) où d(η) ≡ dMη est l’élément de volume de l’espace des échantillons, de dimension J. Ces attributions de probabilité sont les Gaussiennes à plusieurs variables imposées par le principe du maximum d’entropie (comparer avec l’équation 59). En multipliant distribution a priori et fonction de vraisemblance, on obtient la distribution a posteriori, p( x ξ , A , η , B ) d ( x ) 1 T T 1 ∝ exp − ( ξ − x) A -1 ( ξ − x) − ( η − y( x)) B -1 ( η − y(x))d (x) . 2 2 (70) Jusqu’ici nous avons négligé les corrélations entre l’information a priori et les nouvelles données. Ce n’est toutefois pas toujours possible, par exemple si l’information a priori vient de mesures plus anciennes où les mêmes méthodes et standards que pour les nouvelles mesures ont été employés. Une généralisation à cette situation n’est pas difficile. L’équation (70) montre que l’on peut considérer les estimations des anciens paramètres et les nouvelles données sur un pied d’égalité. Les estimations a priori et leurs incertitudes ont exactement le même impact que si elles étaient des données obtenues dans une mesure des observables spéciales yµ=xµ. Ainsi, nous pouvons combiner les vecteurs x et y(x) dans un hypervecteur z(x) ≡ {x, y(x)}. Si le vecteur donnée correspondant ζ ≡ {ξ, η} et la matrice de covariance C ≡ {δζ, δζT} sont connus, la distribution d’entropie maximale est T 1 p( x ζ , C) d ( x) ∝ exp − ( ζ − z( x) ) C -1 ( ζ − z( x) ) d ( x) , 2 (71) où C contient désormais également les covariances entre les estimations a priori et les nouvelles données, δξ µ δη i . Cette distribution a posteriori est le résultat le plus général, le plus détaillé pour notre estimation de paramètre Bayesienne. Il contient sous forme analytique toute l’information sur le vecteur paramètre x que contiennent l’information a priori et les nouvelles données considérées. La tâche restante est de se ramener à un vecteur paramètre recommandé et à son incertitude. La théorie décisionnelle nous dit ce que nous devons faire si une fonction de perte est donnée. Si aucune n’est donnée, nous supposons une perte quadratique qui nécessite de recommander le vecteur de moyenne a posteriori réactualisé x et de spécifier les incertitudes et corrélations par la matrice de covariance a posteriori δxδx T , avec δx ≡ x − x . Pour un modèle linéaire y(x), les intégrations nécessaires sont faciles comme nous le verrons dans la partie 2.2. Pour un modèle non-linéaire, on doit soit intégrer numériquement, ce qui n’est pas pratique si de nombreux paramètres doivent être estimés (excepté peut être avec des techniques de Monte Carlo), soit avoir recours à la méthode de la plus grande pente (approximation de Laplace). Cela signifie essentiellement que l’a posteriori exact est remplacé par une Gaussienne à plusieurs variables ayant le même maximum et le même tenseur de courbure au maximum, si bien que l’intégrand est déterminé avec une bonne approximation au moins dans le domaine qui contribue le plus à l’intégrale. Ceci est réalisé par un développement de Taylor de l’exponentielle de l’équation (71) autour de son minimum et par une troncation après les termes du second ordre (voir par exemple Bernardo et Smith 1994, Lange 1999). Le vecteur paramètre x$ maximum, c’est-à-dire a posteriori le plus probable, est spécifié par 30 (ζ − z(x$ )) T C -1 (ζ − z(x$ )) = min . (72) Ceci est l’établissement formel du principe des moindres carrés sous sa forme la plus générale. (Dans le système d’axes principaux, la forme quadratique apparaît en tant que somme de carrés, d’où son nom). En statistique fréquenciste, le principe des moindres carrés est introduit de manière plus ou moins ad hoc, ou est dérivé du principe de maximum de vraisemblance qui à son tour est introduit ad hoc. Dans les deux cas, seule la fonction de vraisemblance est utilisée. À ce stade, nous reconnaissons que la condition pour les moindres carrés est une conséquence naturelle de critères plus fondamentaux et qu’elle demande la maximisation non seulement de la fonction de vraisemblance mais également de toute la distribution a posteriori. Sans trop simplifier, on peut dire que les moindres carrés généralisés ne sont rien d’autre qu’une estimation Bayesienne de paramètres par perte quadratique dans l’approximation de Laplace, dans des problèmes où seules les données et l’incertitude sur les données sont connues de sorte que le principe du maximum d’entropie demande des Gaussiennes, que les distributions réelles inconnues soient des Gaussiennes ou non. Un principe des moindres carrés ad hoc n’est pas requis. Nous terminons ce chapitre en résumant la différence essentielle entre l'approche fréquentiste (également appelés orthodoxe ou classique ou échantillonnage-théorique) et l'approche Bayesienne de l'inférence inductive : les fréquentistes moyennent sur tous les résultats imaginables d'une mesure, conditionnés par des causes données, alors que les bayésiens moyennent sur toutes les causes possibles conditionnées par le résultat observé et la connaissance a priori. Il ne peut y avoir de doute que l'approche Bayesienne est celle qui convient pour un physicien qui doit déduire des sections efficases ou des paramétres nucléaires à partir d'observations affectées d'incertitudes. 31 2. ÉVALUATION DES DONNÉES NUCLÉAIRES POUR DES APPLICATIONS Dans les paragraphes suivants, nous allons discuter de certains aspects plus pratiques de l’évaluation des données, avec une attention particulière sur le formalisme des moindres carrés, sur l’opposition entre erreurs statistiques et erreurs systématiques et sur la manière dont ces dernières amènent des corrélations. Historiquement, l’évaluation des données au sens moderne commença avec les efforts de Dunnington (1939), Cohen, Dumond et de leurs collaborateurs (1957, 1992) pour déterminer un ensemble de valeurs recommandées pour les constantes fondamentales (Constante de Planck, constante de structure fine, masse de l’électron, etc.), et établir les incertitudes, par un ajustement général par moindres carrés sur l’ensemble des données expérimentales significatives. À peu près au même moment, l’industrie nucléaire, qui prenait rapidement de l’ampleur, commença à développer un appétit vorace pour des données nucléaires précises, principalement des sections efficaces neutroniques et photoniques, mais également des données de structure nucléaire et de décroissance. Les données pour des réactions nucléaires induites par des neutrons ayant des énergies « thermiques » autour de 25.3 meV furent évaluées en première priorité (voir Westcott et al. 1965, Lemmel 1975), mais le champ grandissant de la technologie nucléaire, des réacteurs à fission thermiques aux réacteurs à fission rapides et éventuellement aux réacteurs à fusion, amena une extension correspondante du domaine d’énergie d’intérêt. Les fichiers modernes de données neutroniques contiennent des millions de valeurs de section efficace couvrant la totalité du domaine allant de 10 µeV à au moins 20 MeV pour des centaines d’isotopes et des ordinateurs sont indispensables pour leurs maintenance et utilisation. Les données nucléaires fournissent un exemple particulièrement développé du processus permettant d’aller de données expérimentales brutes à des fichiers de données évaluées. 2.1 Préparation par étape des données nucléaires pour applications Les données nucléaires (et pour d’autres sciences) pour des applications technologiques sont habituellement préparées en plusieurs étapes, par différents groupes de spécialistes. Considérons les données de sections efficaces neutroniques pour illustrer ces étapes. 1. Mesure : Les expérimentateurs prennent des données, généralement auprès d’accélérateurs fournissant des faisceaux continus ou pulsés, ces derniers permettant d’utiliser la méthode du temps de vol. Cette méthode produit en une expérience, et par conséquent sous exactement les mêmes conditions expérimentales, de grandes quantités de points de mesure couvrant de larges plages d’énergie avec une très bonne résolution. La plus simple de ce type de mesures est celle de la section efficace totale σ. On mesure la fraction du faisceau de particules ayant une énergie donnée (un temps de vol donné) qui traverse, sans interagir, un échantillon ayant une épaisseur n (en atomes/barn). Cette fraction, la transmission, est 1-σ∆n pour une couche très mince de matière. Pour tout l’échantillon, elle vaut 33 T = lim (1 − σ∆n) n / ∆n ∆n → 0 = e − nσ . (73) En pratique, la transmission est obtenue par le rapport entre les nombres de coups d’expériences « avec échantillon » et « sans échantillon ». Le flux incident et l’efficacité du détecteur n’interviennent plus, et il n’y a donc pas d’incertitude liée à la normalisation. Le bruit de fond, toutefois, demande des corrections. Si la section efficace présente une structure résonante, on utilise à la fois des échantillons « minces » et « épais » afin d’obtenir une bonne précision sur les sections efficaces extraites aussi bien au pics des résonances que dans les vallées entre les résonances. Les sections efficaces partielles sont plus difficiles à mesurer. Expérimentalement, on obtient un taux de réaction, par exemple, en enregistrant les produits de fission ou les rayons gamma de capture émis par un échantillon mince bombardé par des neutrons. Le taux de réaction est défini comme la fraction des particules du faisceau qui subissent la réaction du type mesuré dans l’échantillon. C’est une somme de contributions d’évènements de collisions multiples où la particule du faisceau subit zéro, une, deux, etc. diffusions avant d’induire finalement la réaction enregistrée, Yx = Yx 0 + Yx1 + Yx 2 + ... . (74) Le taux de premier choc est le produit de la probabilité d’interaction des neutrons incidents et du rapport σx/σ du nombre d’événements (n,x) au nombre total d’interactions, Yx 0 = (1 − e − nσ ) σx , σ (75) où σx est la section efficace partielle pour la réaction (n,x) considérée. Pour des échantillons très minces, nσ << 1 , on peut négliger les collisions multiples et prendre Yx ≈ Yx 0 ≈ nσ x 0 , mais pour des échantillons plus épais le terme de premier choc (75) doit être utilisé en entier. En particulier, dans le cas des réactions avec résonances, les termes de collisions multiples sont des fonctions de plus en plus complexes des sections efficaces, de sorte qu’elle doivent être calculées par simulation Monte carlo (voir Fröhner 1989). Le taux de comptage observé est le produit du taux de réaction, du flux incident et de l’efficacité de des détecteurs. Ces deux dernières quantités doivent être déterminées séparément et introduisent des incertitudes corrélées sur la normalisation comme nous allons en discuter cidessous. La figure 3 montre des données de capture neutronique mesurée pour des résonances, se 53 superposant, de Cr+n avec une forte contribution des captures avec collisions multiples (Brusegan et al. 1992). La figure 4 prouve la qualité des données modernes de temps de vol : il y a trois jeux de données de transmission et deux jeux de taux de fission induite par des neutrons, montrant tous les 239 cinq les mêmes résonances du système composé Pu+n (Derrien et al. 1988). 34 Figure 3. Taux de capture neutroniques mesurés avec la méthode du temps de vol auprès de l’accélérateur linéaire de Geel (Gelina) autour de quatre résonances d’onde s et d’une étroite résonance d’onde p se superposant, incluant les élargissements par la résolution expérimentale et l’effet Doppler et présentant une forte capture après collisions multiples. En trait fin : ajustement par moindres carrés avec le code FANAC (Fröhner 1977) utilisant la matrice-R ; en trait épais : calcul correspondant pour le taux de simple collision (Brusegan et al. 1992) 35 Figure 4. Données de transmission pour trois échantillons et deux jeux de sections efficaces de fission, mesurés avec la méthode du temps de vol auprès de l’accélérateur linéaire d’électrons de Saclay (Blons) et à Oak Ridge (les autres), montrant les 239 résonances de Pu+n. Les courbes correspondent à un ajustement simultané, en utilisant la matrice-R, des données d’Oak Ridge à l’aide du code de moindres carrés généralisés SAMMY (Larson and Perey, 1980). D’après Derrien et al. (1988) 36 2. Réduction des données brutes : Des bruits de fond constants et dépendant du temps sont soustraits, des impuretés dans l’échantillon sont prises en compte, et, dans le cas de sections efficaces partielles (taux de réaction), le flux et l’efficacité des détecteurs sont mis en facteur. Les corrections de diffusion multiple et de résolution expérimentale sont d’ordinaire traitées à l’étape suivante si elles nécessitent, par exemple, la théorie des résonances. Du fait de relations complexes entre les sections efficaces et les observables (Equations 73-75), les sections efficaces ne peuvent pas encore être obtenues lors de cette étape, excepté peut être pour des mesures d’échantillons minces. 3. Analyse des données corrigées : Chaque fois que possible, les sections efficaces mesurées sont paramétrisées au moyen d’une théorie des réaction nucléaires. Ceci assure la consistance entre les sections efficaces partielles et totale, permet d’inter- et d’extrapoler dans les régions où aucune donnée n’a été mesurée et évite la recommandation de valeurs n’ayant pas de sens physique. Les théories et modèles suivants sont employés, par ordre croissant d’énergie : • Théorie de la matrice-R dans le domaine thermique et des résonances résolues (paramètres : énergie et spins des niveaux, largeurs partielles), voir figures 3, 4. • Théorie statistique des niveaux (Hauser-Fesbach) dans le domaine des résonances non-résolues (paramètres : densité de niveaux, fonctions densités et largeurs partielles moyennes, ou les facteurs de transmission des voies équivalents), voir figure 5. • Le modèle optique à plus hautes énergies, où les niveaux se recouvrent fortement mais où les réactions par noyau composé dominent toujours (paramètres : rayon, profondeur, largeurs et déformation des parties réelles et imaginaires du puit de potentiel), voir figure 6. • Théories du noyau précomposé, des réactions directes et semi-directes à des énergies encore supérieures où les processus directs et de prééquilibre sont importants. • Ceci est complété par le modèle de la résonance dipolaire géante pour les réactions photoniques, les modèles de barrière de fission pour les réactions de fission, etc. À ce niveau, les techniques d’estimation de paramètre (d’ajustement de courbe) sont largement utilisées. Les sections efficaces sont générées à partir des paramètres estimés et des incertitudes que l’utilisateur trouve dans les fichiers de données nucléaires évaluées. Lorsqu’il n’existe pas de modèle adapté, des ajustements avec des polynômes ou des fonctions similaires sont utilisés afin d’interpoler entre les points dont les valeurs ont été évaluées. Les trous entre les données mesurées sont comblés par des calculs avec modèle ou avec la systématique. Les figures 3-6 donnent des exemples de courbes théoriques ajustées sur les données mesurées. 37 Figure 5. Trois jeux de données de section efficace de capture mesurées à Oak Ridge (1976), Harwell (1977) et Karlsruhe (1980) pour 241Am dans le domaine des résonances non-résolues. La courbe lisse est un ajustement par moindres carrés généralisés obtenu avec le code FITACS, utilisant la théorie d’Hauser-Feshbach. D’après Fröhner et al. (1982) 4. Création de constantes de groupe : Les sections efficaces ponctuelles élargies par effet Doppler pour toutes les voies de réaction ouvertes et pour différentes températures peuvent maintenant être calculées et moyennées sur des intervalles d’énergie finis comme cela est requis pour les calculs de réacteur ou de protection. Le résultat est un ensemble de constantes de groupe, comprenant habituellement des sections efficaces moyennées sur le groupe (« de dilution infinie ») pour la température ambiante et des facteurs d’auto-protection dépendant de la température et de la dilution sur une grille spécifique de températures et de « dilutions » (décrivant le mélange avec les autres noyaux), voir, par exemple, Fröhner (1989). Ces ensembles de constantes de groupe sont souvent des fichiers ayant une utilité spécifique pour des applications particulières, au contraire de la finalité générale des fichiers « microscopiques » dont ils sont issus. Afin d’améliorer la fiabilité de leur but spécifique, ils sont souvent ajustés (par moindres carrés) sur les données obtenues dans des expériences « intégrales » menées dans des réacteurs d’essai spéciaux ou des installations similaires. 38 Figure 6. Dépendance angulaire des sections efficaces de diffusion élastique de 93Nb mesurée au Laboratoire National d’Argonne. Les sections efficaces différentielles sont exprimées en barn/sr et les angles de diffusion (θ, dans le système du laboratoire) en degrés. Les points représentent les données et leurs erreurs, les courbes sont calculées à partir d’un potentiel ajusté du modèle optique. D’après Smith et al. (1985) Toutes ces étapes demandent du temps et plusieurs années peuvent s’écouler avant que des données nucléaires mesurées pour le besoin d’applications technologiques ou scientifiques ne soient disponibles sous forme de fichiers informatiques d’évaluation. Cet aspect a motivé des efforts de coordination des travaux à une échelle internationale. Les demandes formelles de données nucléaires sont désormais publiées régulièrement par l’AIEA dans les « Worldwide Requests for Nuclear Data », connue sous le nom de liste WRENDA. Les données mesurées sont collectées par un réseau de centres de données, chacun d’eux agissant dans son aire de service agréée : NNDC (National Nuclear Data Centre) à Brookhaven, USA, servant les USA et le Canada. 39 NEADB (Banque de données AEN/OCDE) à Saclay, France, servant les pays non américains de l’OCDE . CJD (Centr po Jadernym Dannym) à Obninsk, Russie, servant le territoire de l’ancienne Union soviétique. NDS (Nuclear Data Section, IAEA), à Vienne, Autriche, servant tous les autres pays. Des échanges de données réguliers assurent que la base de donnée est essentiellement la même pour les quatre centres. Les données évaluées sont également rassemblées, notamment les fichiers ENDF (USA), JEF (pays membres de la NEADB), JENDL (Japon) et BROND (pays du Comecon). Les centres produisent également la bibliographie très utilisée « Computer Index to Neutron Data » (CINDA). Le très connu « barn book » (NdT : le « BNL ») (Mughabghab et al. 1984) contenant de vastes tableaux de paramètres de résonance et des graphes de sections efficaces, sont des produits du NNDC. Des réseaux similaires de centres de données rassemblent et distribuent les données de particules chargées, de structure nucléaire et de décroissance. Le fichier de type ENSDF contient des données du dernier type, évaluées : c’est une version lisible sur machine des très connus « Nuclear Data Sheets » et « Table of Isotopes » (Lederer et al., 1979). Des coopérations internationales comparables impliquant des réseaux de bases de données existent en météorologie, physique des hautes énergies, recherche en matériaux, recherche aérospatiale et bien d’autres domaines scientifiques et technologiques. 2.2 Ajustement par moindres carrés avec itération La plus grande partie du travail d’estimation de paramètre dans l’analyse des données corrigées (étape 3 du paragraphe précédent) repose sur la méthode des moindres carrés. Retournons donc à la condition des moindres carrés, (ζ − z(x$ )) T C -1 (ζ − z(x$ )) = min . (76) Nous rappelons que le vecteur ζ est le jeu combiné des estimations a priori des paramètres et des données mesurées, ζ = {ξ , η} = {ξ1 ,...ξ M ,η1 ,...η J }. Les données expérimentales peuvent provenir de types de mesures assez différents qui, bien sûr, doivent être décrites par les coordonnées correspondantes du vecteur du modèle y(x). Sans information a priori sur les paramètres on a simplement ( η − y(x)) T B -1 ( η − y(x)) = min . (77) Si on néglige également les corrélations entre les données ηj, la matrice B devenant ainsi diagonale, on obtient les équations pour un ajustement par moindres carrés « primitif » qui est encore employé dans de nombreux codes. Il utilise uniquement les nouvelles données et leurs incertitudes, ignorant toute information a priori qui pourrait être disponible. Les estimations des paramètres en découlant et leurs incertitudes doivent ensuite être combinés avec l’information a priori, issue par exemple de mesures précédentes, par une sorte de moyenne pondérée après l’ajustement. Or, un 40 principe fondamental de la logique inductive est que les probabilités devraient coder toute l’information disponible, la connaissance a priori tout comme les nouvelles indications. Il est donc plus correct – et également plus commode – d’inclure les estimations a priori (ou premières suppositions) et leurs incertitudes (variances) dès le début sous forme d’une distribution a priori comme dans l’équation (70). En outre, la convergence d’ajustement non linéaires par moindres carrés est toujours améliorée-souvent de manière spectaculaire-après avoir inclus l’information a priori par des Gaussiennes ou des a priori similaires. On ne doit pas se soucier outre mesure des corrélations initiales inconnues. En se référant au principe du maximum d’entropie, nous pouvons simplement négliger celles que nous ne connaissons pas et mettre les éléments correspondants de la matrice de covariance initiale à zéro. D’un autre côté, il n’est pas difficile de construire complètement des matrices de covariance si les incertitudes sur les données sont bien détaillées, avec une spécification claire des diverses composantes de l’erreur, incluant leurs erreurs quadratiques moyennes. Cela sera expliqué ci-dessous, mais dans l’immédiat nous allons supposer que la matrice de covariance initiale C est donnée, au moins sous forme diagonale. Essayons de calculer l’estimation des paramètres par perte quadratique, c’est à dire la moyenne et la matrice de covariance (finale) de la distribution a posteriori (71). L’intégration numérique est toujours possible, mais afin d’obtenir des expressions analytiques, nous devons employer l’approximation de Laplace (méthode de la plus grande pente, intégration au point selle) qui n’est strictement exacte que dans le cas d’un modèle linéaire y(x). Pour des modèles non linéaires, elle est adéquate pour la plupart des applications pratiques, mais on doit garder en mémoire qu’elle peut ne plus fonctionner si les non linéarités sont importantes autour du pic de l’a posteriori. Le développement de Taylor de l’exposant de l’équation (70) autour de son minimum à x = x$ mène à Q( x) ≡ (ζ − z( x)) C -1 (ζ − z( x)) T (78) = Q( x$ ) + ( x - x$ ) A’ -1 ( x - x$ ) + ..., T Le vecteur paramètre x$ le plus probable est défini par ∇Q=0 avec ∇µ≡∂/∂xµ), c’est à dire par les équations « normales » S( x$ ) C -1 (ζ − z(x$ )) = 0 , T (79) et la matrice A’ par A’-1 ≡ 1 T ∇∇ T Q]x=x = S( x$ ) C-1S( x$ ) + ... , [ 2 (80) $ où S est la matrice rectangulaire des coefficients de sensibilité S jµ = ∂z j ∂x µ . (81) Le vecteur x$ peut être déterminé à partir des équations normales (79) par itération de Newton-Raphson : si on a, après n itérations, une solution approchée xn, on peut faire intervenir les approximations linéaires z( x$ ) ≈ z( x n ) + S( x n )( x$ - x n ) (82) 41 ( ) et S( x$ ) ≈ S x n dans les équations normales et résoudre pour x$ . La solution améliorée obtenue par cette méthode est [ ] [ ] x n+1 = x n + S( x n ) C -1S( x n ) S( x n ) C -1 ζ − z( x n ) . T -1 T (83) Ainsi, on peut commencer avec la valeur de l’a priori la plus probable, x0 = ξ, dans le membre de droite, calculer la valeur améliorée x1, la réinsérer à droite, et ainsi de suite jusqu'à ce qu’on obtienne des valeurs constantes en simple précision de l’ordinateur (ou jusqu'à ce qu’un autre critère de convergence soit satisfait). À chaque itération, nous devons recalculer z(x) et la matrice de sensibilité S(x). Pour un modèle linéaire, z est une fonction linéaire de x, c’est à dire que l’équation (82) est exacte pour n=0, avec S ne dépendant pas de x. Par conséquent, le résultat final est obtenu dès la première itération, x$ = x 1 , comme attendu. Une fois que nous avons établi le résultat final x$ de l’itération, nous pouvons calculer la valeur recommandée (dans l’approximation du point selle) [ ] T T x = S(x$ ) C -1S( x$ ) S(x$ ) C -1 [ ζ − z( x$ )] , [ -1 δxδx T = S( x$ ) C -1S( x$ ) T ] -1 . (84) (85) Pour un modèle linéaire, on effectue simplement x$ = ξ et les valeurs moyennes ainsi obtenues sont exactes. Remarquons que dans le processus d’itération, il est nécessaire de calculer des vecteurs améliorés z(x) contenant à la fois les paramètres améliorés xn et les données améliorées y(xn). Les changements sont faibles si les coefficients de sensibilités sont petits et si les valeurs calculées sont déjà proches des estimations a priori des paramètres et des données. Dans l’évaluation des données neutroniques et dans la paramétrisation des sections efficaces, le nombre M de paramètres est habituellement beaucoup plus petit que le nombre J de points expérimentaux. L’opposé est vrai pour l’ajustement de constantes de groupe puisque le nombre M de constantes de groupe ajustées dans les librairies de données est d’ordinaire beaucoup plus grand que le nombre J de données intégrales (réponses mesurées en réacteur). Les équations utilisées sont les mêmes dans les deux cas. Le formalisme Bayésien de moindres carrés par itération est employé dans le code d’analyse de résonance SAMMY (Larson and Perey 1980) et dans le programme FITACS (Fröhner et al.,1982), basé sur la théorie d’Hauser-Feshbach, qui est utilisé pour analyser des données de sections efficaces moyennes dans le domaine des résonances non résolues. L’expérience acquise au travers de ces codes a clairement montré l’avantage de la prise en compte explicite d’une information a priori sous forme d’une Gaussienne. L’a priori contraignant la recherche de paramètre d’une manière progressive dans un domaine raisonnable, les problèmes (de programmation linéaire) aux frontières abruptes sont évités, et la convergence s’en retrouve grandement améliorée comparativement aux précédentes versions de moindres carrés « primitifs » de ces codes qui n’utilisaient pas les incertitudes a priori. Un problème typique des ajustements par moindres carrés « primitifs », à savoir l’absence de convergence si trop de paramètres sont ajustés simultanément, est pratiquement éliminé avec le système des moindres carrés généralisés qui tolère de grands nombres de paramètres ajustés (plusieurs douzaines dans l’analyse de résonances), même si les incertitudes a priori sont assez importantes. 42 ( ) En physique des réacteurs, on travaille souvent avec des erreurs relatives, ζ j − z j / ζ j , avec les éléments correspondants de la matrice des covariances relatives ( ∂ζ j ∂ζ k / ζ j ζ k ) et les coefficients de sensibilité relatifs S jµ / ζ j . Cela amène aux remplacements suivants : ζ − z → D( ζ − z) , C → DCD , S → DS avec D jk = δ jk / ζ j . (86) Bien entendu, les matrices diagonales D insérées sont annulées par leurs inverses dans les équations de moindres carrés, si bien que l’utilisation de quantités relatives modifie uniquement la forme des équations et non leur contenu. L’avantage est bien sûr que les erreurs relatives (les pourcentages) et les sensibilités relatives sont plus facilement saisissables et mémorisables ce qui rend plus aisée leur comparaison et facilite l’établissement de leur importance relative dans des problèmes avec de nombreux paramètres physiquement différents. Des difficultés apparaissent toutefois si les valeurs ζj sont beaucoup plus petites que leurs incertitudes, si bien que l’on en arrive pratiquement à devoir diviser par zéro. Dans ce cas, il est préférable d’utiliser des valeurs absolues plutôt que relatives. Occasionnellement se pose la question de savoir s’il est correct d’utiliser les données ζj (mesurées ou estimées a priori) comme référence ou s’il ne serait pas préférable d’utiliser les valeurs réelles zj. La réponse est simple : les valeurs réelles sont généralement inconnues si bien qu’il est impossible de les utiliser en tant que référence, par exemple dans des fichiers informatiques de matrices de covariances relatives ou de coefficients de sensibilités. Tout ce que l’on peut faire, c’est utiliser les meilleures estimations disponibles à un niveau donné. Avant l’ajustement des moindres carrés, il s’agit des estimations a priori des paramètres ξµ et des données expérimentales ηi, donc des quantités ζj. Après l’ajustement on a les estimations des paramètres améliorés x µ et des données calculées améliorées y j ( x ) , et elles sont donc les valeurs de références correctes pour les matrices de covariances finales relatives. Les valeurs réelles ne sont jamais connues, elles apparaissent seulement dans les équations en tant qu’arguments des distributions de probabilité, c’est à dire en tant que valeurs possibles, et s’intègrent à n’importe quel moment aux valeurs attendues ou autres quantités recommandées calculées pour des applications pratiques. 43 Figure 7. Illustration de non linéarités et de corrélations dans les ajustements par moindres carrés : la largeur neutronique Γn et la largeur radiative Γγ de la résonance à 23.52 eV de 232Th+n sont estimées par des ajustements simultanés de deux aires importantes de transmission (TA), cinq aires de pic de capture (CA) et deux rapports d’auto-indication (SIR). Les courbes représentent les huit composantes du vecteur y(x) du modèle théorique, le vecteur paramètre x ayant deux coordonnées, Γn et Γγ. « L’ellipse d’erreur » montre la meilleure estimation et les incertitudes corrélées (code TACASI). D’après Fröhner (1966) 2.3 Erreurs statistiques : statistique de Poisson Nous allons maintenant discuter de l’information relative à l’erreur nécessaire pour la reconstruction de la matrice de covariance Cη qui décrit les incertitudes sur les données et leurs corrélations. Dans pratiquement toutes les mesures de données nucléaires, on détecte et on compte des particules d’un type particulier, par exemple des fragments de fission signalant des événements de fission nucléaire, ou des rayons gamma signalant des événements de capture radiative. Les taux de comptage sont une mesure des probabilités de fission ou de capture correspondantes (exprimées par convention sous forme de sections efficaces de fission nucléaire ou de capture). Dans le cas limite d’un temps de comptage infini, et en l’absence d’autres erreurs, on mesurerait les probabilités (dans le sens fréquenciste) directement, mais en pratique, il y a toujours une incertitude statistique sur le taux de comptage final (ou section efficace) du fait d’un temps de comptage fini. Que pouvons nous dire à propos du vrai taux λ, et en particulier sur son incertitude, si n événements ont été enregistrés durant un temps t ? 44 Un taux de comptage constant signifie qu’il y a un intervalle de temps moyen t bien défini entre les comptages. Avec cette information globale, le principe du maximum d’entropie mène immédiatement à la familière distribution exponentielle des intervalles de la statistique de Poisson, p( t λ ) = e − λt λdt 0< t < ∞. (87) Le multiplicateur de Lagrange, le taux constant, est l’inverse de l’intervalle moyen, λ = 1/ t . Connaissant la distribution des intervalles, on peut noter la probabilité conjointe que les comptages soient enregistrés dans des intervalles de temps infinitésimaux dt1, dt2,... dtn situés dans un temps écoulé t, et intégrer sur l’ensemble des positions possibles de ces intervalles. Le résultat est la probabilité d’enregistrer n coups à des temps arbitraires, dans l’intervalle t, pour un taux constant λ donné, e − λt ( λt ) p( n λ , t ) = n! n , n = 0,1,2 ,... (88) C’est la distribution de Poisson. Le théorème de Bayes avec l’a priori de Jeffreys pour le paramètre d’échelle λ donne directement la probabilité inverse (voir section 1.5, équation 20) e − x x n dx p( λ t , n) = , Γ ( n) x 0 < x ≡ λt < ∞ , (89) avec λ = n , t 1 ∆λ = . λ n (90) (91) L’incertitude relative n’est autre que la loi familière en 1 / n pour l’estimation des incertitudes statistiques, largement utilisée pour toute sorte de comptages en statistique en général et en calcul de Monte Carlo en particulier. 2.4 Erreurs systématiques : Incertitudes corrélées et leur propagation Nous allons maintenant discuter rapidement les cas typiques d’erreurs systématiques et de quelle façon elles induisent des corrélations entre les estimations. Comme précédemment, nous notons les erreurs inconnues sur les données par δη i = η i − y i . Si elles étaient d’origine purement statistique, elles ne seraient pas corrélées et les éléments de la matrice de covariance B seraient ( ) δη j δη k = δ jk var η j ≡ δ jk ∆η j 2 , (92) c’est-à-dire que la matrice serait diagonale. Ceci est supposé dans beaucoup de codes de moindres carrés « primitif » : chaque erreur quadratique est pondérée par l’inverse de la variance. Parallèlement aux erreurs statistiques, il y a cependant toujours des erreurs expérimentales de mesure de flux, de calibration de détecteur, d’incertitude en temps, etc. Contrairement aux erreurs statistiques, ces erreurs appelées erreurs systématiques sont communes à tout un jeu de données, par exemple à toutes les données accumulées dans les canaux en temps dans des expériences de temps de vol. 45 Assez généralement, les corrélations entre les données sont usuellement produites par des erreurs communes. Pour représenter ceci, nous écrivons les erreurs totales inconnues sous la forme δη j = δη’ j +δη’ , (93) où δη’ j est l’erreur systématique et δη’ l’erreur systématique. Cette dernière est la même pour l’ensemble du jeu de données et donc ne possède pas d’indice. Les éléments de la matrice de covariance B sont ( ) δη j δη k = δη’ j 2 δ jk + (δη’) 2 , (94) puisque les erreurs statistiques des différents points expérimentaux ne sont pas corrélées, ( ) δη’ j δη’k = δη’ j 2 δ jk , avec une moyenne nulle, δη’ j = 0 , et puisqu’il n’y a pas de corrélations entre erreurs statistique et systématique, δη’ j δη’ = 0 . Nous concluons que les erreurs communes, c’est à dire systématiques, engendrent toujours des corrélations entre les éléments d’un jeu de données expérimentales. Les erreurs systématiques les plus fréquentes sont celles qui produisent un déplacement des valeurs observées (par exemple des erreurs sur le bruit de fond) ou qui les multiplient (comme des erreurs sur la normalisation du flux ou sur la calibration du détecteur). Si nous modifions un bruit de fond soustrait b pour un des points expérimentaux, nous devons faire de même pour tous les autres : toutes les valeurs signalées ηj doivent être modifiées ensemble. C’est, bien sûr, la signification littérale de la covariance. Plus généralement, si les données ont été obtenues à partir de taux de comptage brut aj, en leur appliquant des corrections communes b, c, ..., les erreurs totales sont : δη j ≈ (∂η j / ∂a j )δa j + (∂η j / ∂b )δb + (∂η j / ∂c )δc + ... Or les erreurs statistiques ainsi que, très souvent, les erreurs systématiques ne sont pas corrélées, ( ) ( ) si bien que leurs covariances sont nulles, δa j δa k = δa j δb = ( δbδc) = 0 . Les éléments totaux de covariance dépendent donc seulement des carrés des erreurs quadratiques moyennes (variances) des composantes et des coefficients de sensibilités (les dérivées), δη j δη k ∂η j ≈ ∂a j 2 ∂η j ∂η j 2 ∂η k 2 ∂η k (∆a j )2 δ jk + ∆b ) + ∆c ) ( ( + ... (95) ∂ b b c c ∂ ∂ ∂ Ceci montre que pour la construction des matrices de covariances, l’évaluateur a besoin de la part de l’expérimentateur : • Des erreurs quadratiques moyennes pour chaque composante de l’erreur. • D’information sur la réduction des données de manière à pouvoir calculer les coefficients de sensibilité. 46 S’il lui est dit que la réduction des données a consisté dans la soustraction d’un bruit de fond ( ) commun b et dans la multiplication par un facteur de calibration c, c’est à dire η j = a j - b ⋅ c , alors il ( n’a pas de mal à calculer δη j δη k ≈ δ jk c∆a j ) + (c∆b ) 2 2 + η j η k (∆ c ) / c . Évidemment, il est 2 2 essentiel que les expérimentateurs établissent clairement, et avec suffisamment de détails, les différentes composantes des erreurs statistiques et systématiques quand ils publient leurs données alors qu’ils ne doivent pas se soucier des corrélations puisque celles-ci peuvent être construites directement à partir des composantes des erreurs, même pour de très grands jeux de données (à l’aide d’ordinateurs si nécessaire, voir N. Larson 1986, 1992). Comme exemple instructif d’incertitudes corrélées sur les données et de leur impact sur les paramètres estimés, voir la discussion sur les références pour l’énergie des résonances par F. Perey (1978). L’union des erreurs statistiques et systématiques dans une erreur totale est souvent considérée incorrecte. Nos équations montrent, toutefois, que le calcul du carré de l’erreur totale quadratique moyenne en tant que somme des carrés des erreurs quadratiques moyennes (variances) de toutes les composantes de l’erreur, statistiques aussi bien que systématique, est immédiat. La ligne de démarcation entre les deux types d’erreur est toutefois discutable : une erreur statistique pour une personne pourra être une erreur systématique pour une autre personne. Le seul problème dans la somme quadratique des erreurs moyennes est qu’en elle-même elle ne révèle pas à quel point elle est statistique ou systématique, c’est à dire quel niveau de corrélation il peut y avoir. Cette question peut uniquement être répondue si la signification physique et l’erreur type de chacune des composantes de l’erreur sont connues. Une critique relativement reliée à ceci a été soulevée à l’encontre des moindres carrés appliqués à des combinaisons de données obtenues de sources différentes : supposons qu’un taux de comptage constant, par exemple celui d’un bruit de fond, soit mesuré de manière répétée avec des nombres de coups nj enregistrés durant des intervalles de temps tj. La moyenne sur l’échantillon pondérée par σ −2 n j appropriées pour les comptages, devient j , calculée avec les incertitudes relatives 1 / ∑ t / ∑ (t j j j 2 j ) / n j . Ceci ne semble pas correct et il a été considéré à tort comme une évidence qu’il y a quelque chose de fondamentalement faux dans le formalisme des moindres carrés qui doit être clarifié et corrigé. L’origine de cette difficulté n’est toutefois pas dans le formalisme des moindres carrés, mais de son utilisation dans une situation où l’on sait que s’applique une distribution non-Gaussienne d’échantillons-la distribution de Poisson. Il n’y a pas ici nécessité de remplacer les distributions inconnues par des Gaussiennes via la maximisation de l’entropie ou le théorème de la limite centrale et donc d’utiliser les moindres carrés. L’a posteriori correct est un produit des probabilités de Poisson, équation (88), et de l’a priori de Jeffreys pour des taux constants. Les estimations en découlant, λ = ∑ j n j / ∑ j t j et ∆λ / λ = 1 / ∑ j n j , font intervenir le nombre total de coups et temps de comptage total de la manière précise où l’entendait le bon sens commun à partir des équations (90) et (91). La leçon est que la méthode des moindres carrés ne doit pas être utilisée aveuglément si l’information disponible admet un traitement plus rigoureux. C’est une autre illustration de la vérité fondamentale selon laquelle la solution correcte à un problème de probabilité demande à ce que toute l’information connue soit utilisée. La stipulation que les expérimentateurs n’ont pas besoin de se soucier outre mesure des corrélations ne doit pas être mal interprétée. Cela ne signifie pas que les corrélations sont sans importance. Cela signifie seulement qu’elles ne sont pas nécessaires pour la construction de matrices de covariances pourvu que la procédure de réduction des données et les erreurs quadratiques 47 moyennes correspondantes soient correctement précisées. Les incertitudes corrélées finales des sections efficaces ou des paramètres des sections efficaces, contenues dans la matrice de covariance a posteriori δxδx T , constituent une information particulièrement adaptée pour les utilisateurs des données. L’incertitude de toute fonction f des sections efficaces xµ, par exemple la criticalité calculée d’un réacteur nucléaire, est donnée dans le cadre d’une approximation linéaire par la racine carrée de (δf ) où 2 δx µ δx ν = ∑∑ µ ν ∂f ∂f δx µ δx ν , ∂x µ ∂x ν (96) est un élément de la matrice de covariance, et où les dérivées ou coefficients de sensibilités sont à calculer avec les meilleures estimations x µ . Il est évident qu’une bonne étude de sensibilité ne peut être entreprise sans la matrice de covariance. Par le passé, quand l’information sur la covariance était ignorée, on observait systématiquement que tout se passait comme si les données nucléaires n’étaient pas assez précises pour certaines applications. Lorsque cette information est correctement prise en compte, la précision devient assez acceptable du fait de termes négatifs dans la double somme venant d’erreurs anticorrélées (se compensant). Ainsi, ceux qui extraient des paramètres de section efficace à partir de données expérimentales ne devraient pas seulement déterminer les paramètres et leurs incertitudes, mais au moins également les éléments les plus importants de la matrice de covariance. Nous terminons cette partie en notant que les éléments Cµν de la matrice de covariance sont reliés aux écarts types ∆x µ = var x µ et aux coefficients de corrélation ρµν de la manière suivante, Cµν ≡ δx µ δx ν = ∆x µ ρ µν ∆x ν , (97) avec ρµµ = 1. L’inégalité de Schwarz limite l’intervalle de définition des coefficients de corrélations, − 1 ≤ ρ µν ≡ ( cov x µ , x ν ) var x µ var x ν ≤ +1 . (98) Les incertitudes peuvent donc être établies de plusieurs manières équivalentes : 1. Comme variances et covariances. 2. Comme variances relatives et covariances relatives. 3. Comme erreurs types et coefficients de corrélation. 4. Comme erreurs types relatives et coefficients de corrélation. De loin, la méthode la plus économique et la plus sûre mnémotechniquement est la dernière (au moins si les données ne sont pas négligeables devant les incertitudes). D’abord, les erreurs types relatives (pourcentages) sont plus facilement saisissables, mémorables et comparables aux absolues, spécialement si les vecteurs données contiennent des quantités distinctes d’un point de vue physique (par exemple des paramètres de résonance et des sections efficaces, ou des sections efficaces multigroupe et des facteurs d’auto-protection). Ensuite, les erreur types relatives et les coefficients de 48 corrélation ont une signification intuitive claire contrairement aux variances et covariances. Si on m’a dit que les variances de x et y sont 0.04 et 0.000009 et que leur covariance est -0.000012, je suis désemparé. C’est seulement avec l’information supplémentaire disant que les valeurs recommandées sont x = 10 et y = 0.1 que je peux déduire que les écarts types relatifs sont de 2% pour x et 3% pour y et que le coefficient de corrélation est de -0.02. Si on m’avait parlé directement des trois dernières grandeurs, j’aurai immédiatement compris que les deux quantités sont connues avec une bonne précision et que leur anticorrélation est négligeable pour la plupart des applications. Il est difficile de comprendre pourquoi le format actuel ENDF-6 (Rose et Dunford 1990) n’admet que des variances et covariances. Une extension du format aux erreurs types et coefficients de corrélation permettraient aux évaluateurs et utilisateurs de travailler avec des fichiers d’incertitudes qui seraient plus faciles à construire, à lire et à réactualiser, donc considérablement moins sujets aux erreurs que ceux existant, sans occuper plus de place. 2.5 Qualité de l’ajustement La qualité et la consistance d’un ajustement par moindres carrés est indiquée par la valeur a posteriori de χ 2 ≡ (ζ − z) C -1 (ζ − z) . T Plus les résidus ζ j − z j (99) sont petits, meilleur est l’ajustement et plus χ2 est faible. Des désaccords, tels qu’un mauvais modèle théorique (une résonance manquante, par exemple) ou des erreurs sous-estimées, tendent à rendre χ2 trop grand, alors que des erreurs surestimées le rendent trop faible. Afin de voir ce qui est entendu par trop grand ou trop faible, considérons la distribution de probabilité de la variable χ2 (dans l’espace des échantillons, pour des paramètres connus). Dans le cas d’un modèle linéaire y(x), il est facile de voir que la distribution de χ2 est une distribution gamma : la distribution du maximum d’entropie du vecteur de données ζ, connaissant le vecteur réel z, est χ2 T 1 -1 p(ζ z, C) d (ζ ) ∝ exp− (ζ − z) C (ζ − z) d (ζ ) ∝ exp - d (ζ ) . (100) 2 2 Nous simplifions par une transformation orthogonale sur le système d’axes principaux dans lequel χ2 est une somme de N = M + J carrés, 2 ζ’ j − z’ j ≡ ∑ χ 2j . χ = ∑ σ ’ j =1 j j N 2 (101) Les primes se réfèrent au système d’axes principaux et les σ’ j 2 sont les éléments de la matrice diagonale C’ = OTCO, avec OTO = 1. Les écarts relatifs χj peuvent être considérés comme les coordonnées Cartésiennes dans l’espace des ζj. L’élément de volume correspondant est invariant par transformation orthogonale (rotation) O, d ( ζ ) = d ( ζ’) ∝ d ( χ ) ∝ χ N −1 dχdΩ . (102) 49 Dans le dernier terme, nous introduisons les coordonnées polaires avec la coordonnée radiale χ, comme le suggère l’équation (101). Avec cet élément de volume, il est trivial d’intégrer l’équation (100) sur les coordonnées angulaires Ω. La distribution radiale en découlant peut être écrite comme une distribution du χ2 à N degrés de liberté, χ2 N p χ 2 z, C dχ 2 = Γ exp 2 2 ( -1 ) χ 2 2 N 2 −1 dχ 2 , 2 0 < χ 2 ≡ (ζ − z) C -1 (ζ − z) < ∞ . T (103) Malheureusement, nous ne connaissons pas le vecteur réel des observables z = z(x). Tout ce que nous connaissons, c’est l’estimation z$ ≡ z( x$ ) , où x$ satisfait la condition d’application des moindres carrés (76) ou les équations normales (79) que nous écrivons maintenant sous une forme plus abrégée comme S$ T C -1 ( ζ − z$ ) = 0 . (104) Du fait de ce système de M équations, tous les ζj ne sont pas mutuellement indépendant mais seulement J d’entre eux. Un développement de Taylor autour de l’estimation x$ mène à (comparer les équations 78 et 80) T χ 2 = χ$ 2 + ( x - x$ ) S$ T C -1S$ ( x - x$ ) , (105) où 2 ζ’ j − z$’ j ≡ ∑ χ$ 2j . χ$ = ∑ σ ’ j =1 j j N 2 (106) T $ Pour une théorie linéaire, on a z’= z’+O S( x - x$ ) et par conséquent 1 χ j = χ$ j + σ’ j ∑O k ,µ T jk S kµ ( x µ − x$ µ ) . (107) On peut maintenant remplacer les variables d’intégration χj par χ$ j pour j = 1,2,...J et par xµ pour j=J+1, J+2,...N. Le Jacobien pour cette distribution est constant du fait de la relation linéaire (107) entre les anciennes et les nouvelles variables, si bien que $d Mx. d ( ζ ) ∝ d ( χ ) ∝ χ$ J −1 dχ$ dΩ (108) En intégrant (100) sur toutes les coordonnées angulaires et tous les xµ, on obtient finalement la distribution de la somme de l’écart quadratique χ$ 2 qui peut être calculé à partir de quantités connues, 50 χˆ 2 J p χˆ 2 zˆ , C dχˆ 2 = Γ exp 2 2 ( -1 ) χˆ 2 2 J 2 −1 dχˆ 2 , 2 0 < χ$ 2 ≡ (ζ − z$ ) C -1 (ζ − z$ ) < ∞ . T (109) Cette distribution du χ2 à J degrés de liberté est plus large que la distribution du χ2 (103) à J+M degrés de liberté. Sa moyenne et sa variance sont χ$ 2 = J , (110) var χ$ 2 = 2 J . (111) Ce résultat est exact pour des modèles théoriques linéaires z(x) ; pour des modèles non linéaires il est valide dans l’approximation du point selle (Laplace). Il s’applique certainement à chaque fois que l’ajustement par moindres carrés (voir partie 2.2) est possible. Les deux dernières équations montrent qu’un bon ajustement est caractérisé par une valeur du χ2 proche du nombre J de points expérimentaux, approximativement entre J − 2 J et J + 2 J . Le fait qu’un ajustement « donne un χ2 de 1 031 pour 1 024 points expérimentaux » indiquerait ainsi un bon accord entre les données initiales et le modèle théorique. Une valeur du χ2 supérieure pourrait mettre en évidence des incertitudes sous-estimées, et il est bien souvent d’usage pratique de multiplier, dans ce cas, toutes les incertitudes (c’est-à-dire les éléments de la matrice C) par un facteur d’échelle commun afin de forcer 2 l’égalité χ = J (et de modifier en conséquence les paramètres de la matrice de covariance 2 a posteriori). Ceci est toutefois dangereux, du fait qu’une valeur élevée du χ peut également être due à un modèle théorique inadéquat (des spins attribués aux niveaux de manière incorrecte ou des petites 2 résonances omises, par exemple). Une valeur du χ anormalement faible, d’un autre côté, pourrait indiquer des estimations d’incertitude trop prudents, mais cela pourrait également être dû à des falsifications de données telles qu’éliminations de données (« données écartées ») qui semblaient en contradiction avec la théorie en faveur. Le réajustement des incertitudes ne devrait ainsi être considéré qu’après avoir acquis la certitude qu’il n’y a rien d’apparemment faux au niveau du modèle ou des entrées. Dans les ajustements par moindres carrés « primitifs », où l’information a priori est négligée , la même argumentation conduit au résultat amplement utilisé que χ$ 2 = ( η − y$ ) B -1 ( η − y$ ) suit une T loi de distribution du χ2 à J-M degrés de liberté de sorte que la valeur du χ$ 2 est attendue grosso modo entre ( J − M ) − 2( J − M ) et ( J − M ) + 2( J − M ) . L’établissement de la qualité de l’ajustement doit alors inclure à la fois le nombre de points expérimentaux mesurés et de paramètres. Une « valeur du χ2 de 1 031 pour 1 024 points expérimentaux et 20 paramètres ajustés (1 004 degrés de liberté) » indiquerait un accord raisonnable. 2.6 Données incompatibles Un des problèmes les plus épineux de l’évaluation des données est celui des données incompatibles. Supposons que nous soient donnés les résultats de n mesures complètement indépendantes et expérimentalement différentes de la même quantité physique µ, sous la forme xj ± σj, j = 1,2,...,n. Si la distance entre tout couple de valeurs, x j − x k , est plus faible ou au moins pas 51 beaucoup plus grande que la somme des incertitudes correspondantes, σj + σk , les données sont dites compatibles ou en accord « dans les barres d’erreurs ». (La probabilité que deux mesures de même précision conduisent à une distance supérieure à σj + σk = 2σ est seulement égale à erfc 1 ≈ 0.157 pour deux distributions d’échantillonnage Gaussiennes de même écart type σ). Si certaines des distances sont bien plus importante, les données ne sont pas compatibles avec les incertitudes établies. Les incompatibilités ont pour origine des effets expérimentaux non identifiés ou mal corrigés tels que bruits de fond, temps mort de l’électronique de comptage, résolution expérimentale, impuretés dans les échantillons, erreurs de calibration, etc. Comme nous l’avons mentionné précédemment, un arrangement rapide et populaire consiste à multiplier toutes les erreurs initiales par un facteur commun afin que le χ2 ait la valeur attendue (et que toutes les barres d’erreur se recoupent). Ceci ne change toutefois pas les poids relatifs, d’où l’aspect tout aussi pénalisant d’attribuer des incertitudes trop optimistes ou trop prudentes. Le traitement Bayésien qui va suivre rend une justice plus équitable. Il considère non seulement les incertitudes revendiquées mais également à quel point une valeur donnée est distante de la moyenne. Que pouvons nous dire des erreurs non identifiées ? Si nous ne connaissons que les données et non la manière dont elles ont été mesurées, des erreurs positives et négatives sont équiprobables et, par conséquent, la distribution de probabilité pour l’erreur non identifiée εj de la j-ème expérience devrait être symétrique par rapport à 0, et la même distribution devrait s’appliquer à toutes les expériences. Supposons donc, en accord avec le principe du maximum d’entropie, que les distributions pour tous les εj soient Gaussiennes, ( ) p ε j τ j dε j = 1 2 πτ 2j 2 εj 1 exp− dε j , 2τj −∞<εj <∞. (112) La probabilité de mesurer la valeur xj, connaissant la valeur réelle µ, l’erreur non identifiée εj et l’incertitude σj due à toutes les sources d’erreurs non identifiées, est alors donnée par ( ) p x j µ , σ j , ε j dx j = 1 2 πσ 2j 1 xj − µ − ε j 2 dx j , − ∞ < x j < ∞ . (113) exp − σj 2 Si les dispersions τj des erreurs non identifiées sont connues, alors la distribution conjointe a posteriori pour µ et les εj est (x − µ − ε )2 ε2 j j j p µ , ε x , σ , τ dµd ( ε ) ∝ dµ ∏ d ε j exp − − 2 . 2 2σ j 2τ j j =1 ( ) n (114) (ε, σ, τ, dans le membre de gauche, doivent être interprétés comme des vecteurs dans l’espace des échantillons, dont les coordonnées sont εj, σj, τj). En effectuant les carrés dans l’exponentielle, on peut facilement intégrer sur les εj. La distribution de µ a posteriori en découlant est une Gaussienne, 52 2 µ − x) ( p µ x , s dµ = exp − 2 2 2( σ 2 + τ 2 ) / 2 π( σ + τ ) / n ( ) 1 dµ , − ∞ < µ < ∞ . (115) n avec µ = x, var µ = (116) 1 2 (σ + τ 2 ) . n (117) où les barres supérieures signifient que les moyennes sont effectuées sur les j (sur les mesures) avec ( ) des poids 1 / σ 2j + τ 2j . En intégrant (114) par rapport à µ, on obtient la distribution conjointe des erreurs non identifiées, 1 1 T p(ε x , σ , τ )d ( ε ) ∝ exp − ( ε − x) A −1 ( ε − x) − ε T B −1 ε d ( ε ) , 2 2 (118) -1 où A-1 et B sont des matrices définies positives, symétriques dont les éléments sont ( A ) jk −1 −2 j ≡ σ δ jk − σ −j 2 σ −k 2 ∑σ l −2 l , ( B −1 ) jk (119) ≡ τ −j 2 δ jk . (120) Ce produit de deux Gaussiennes à plusieurs variables est également une Gaussienne à plusieurs variables, avec le vecteur de moyenne ε = CA −1 x et la matrice de covariance inverse C-1 = A-1 + B-1, si bien que (A −1 + B −1 ) ε = A −1 x . (121) En résolvant la dernière équation pour ε j , on obtient εj = τ 2j σ 2j + τ 2j (x j ) −x . (122) La meilleure estimation de εj est alors l’écart x j − x de la j-ème donnée de la moyenne ( (pondérée) x , multiplié par « un facteur réducteur » τ 2j / σ 2j + τ 2j ) qui est proche de zéro si les erreurs non identifiées attendues sont beaucoup plus petites que les incertitudes connues σj, et proche de l’unité si elles sont beaucoup plus grandes. Ceci, toutefois, est trivial : si nous connaissons les variances τ 2j des erreurs non identifiées, c’est qu’elles ne sont pas réellement inconnues. Nous en savons autant sur elles que sur les autres erreurs. Nous pouvons donc ajouter les variances comme d’habitude pour obtenir les variances totales σ 2j + τ 2j . On s’attend à ce que leurs inverses apparaissent en tant que poids dans chaque moyenne j et c’est en fait ce que nous venons de trouver. Le cas non trivial le plus simple est celui où les τj ne peuvent pas être considérés comme les erreurs quadratiques moyennes non identifiées mais plutôt comme leurs estimations, basés par exemple sur la qualité générale des diverses mesures, sur la précision des techniques employées, peut être même sur la crédibilité des expérimentateurs d’après leurs travaux précédents. (Notons qu’il est parfaitement correct de mettre τj = 0 pour les expériences qui peuvent être considérés exemptes de 53 toute erreur non identifiée). La variance réelle inconnue peut alors être prise égale à τ 2j / c , où c est un paramètre d’échelle commun ajustable avec un a priori p(c)dc, et la probabilité conjointe pour µ et le vecteur ε être prise égale à ( x − µ − ε ) 2 cε 2 j j j p µ , ε x , σ , τ dµd ( ε ) ∝ dµ ∫ dcp( c)∏ c d ε j exp − − 2 . (123) 2 2σ j 2τ j j =1 0 ( ∞ ) n 1/ 2 En intégrant sur tous les εj, on obtient la distribution a posteriori de µ, ( ∞ ) n ( p µ x, σ , τ dµ ∝ dµ ∫ dcp( c)∏ σ + τ / c j =1 0 2 j 2 j ) −1 / 2 2 µ − xj) ( 1 exp − 2 σ 2j + τ 2j / c ( ) . (124) Si nous n’avons pas du tout d’information numérique sur le paramètre d’échelle c, l’a priori de Jeffreys dc/c semble approprié. L’intégration sur c est donc facile si les incertitudes connues sont négligeables. Avec σj = 0 pour tous les j, l’intégrand devient essentiellement une distribution gamma de c, et l’intégration mène à une distribution t de Student, ( ) p µ x , s’ dµ = B ( ) 1 n −1 , 2 2 du (1 + u ) 2 n/ 2 , −∞<u≡ µ−x <∞, s’ (125) avec µ = x, var µ = (126) s’2 , n−3 (127) où s’ 2 ≡ x 2 − x 2 , les barres supérieures indiquant des moyennes sur l’échantillon pondérées par τ −2 j . Ainsi, l’incertitude sur µ dans ce cas extrême est égale à la variance s’ 2 de l’échantillon, déterminée par la dispersion des données xj (parfois appelée « l’erreur externe »). Ceci, bien entendu, n’est autre que ce que nous avons trouvé lorsque nous discutions des estimations de µ à partir d’un échantillon décrit par une Gaussienne dont l’écart type est inconnu (équation 34). Pour des valeurs élevées de n, la distribution de µ est pratiquement Gaussienne. Dans le cas général, σj > 0, τj > 0, l’intégrale (124) avec l’a priori de Jeffreys le moins informatif p( c) dc ∝ dc/c diverge logarithmiquement car l’intégrand devient proportionnel à 1/c pour c→0. Le formalisme Bayesien signale de cette manière que l’information a priori est insuffisante pour les prédictions désirées. Y a t’il autre chose que nous sachions outre le fait que c est un paramètre d’échelle ? Si les τj sont en fait les meilleures estimations que nous ayons pour les incertitudes engendrées par les erreurs non identifiées, alors nous nous attendons à ce que c soit proche de l’unité. L’a priori d’entropie maximale, avec la contrainte c = 1 est p( c)dc = e − c dc , 0< c< ∞. (128) 54 Il n’engage à pratiquement rien de plus que l’a priori de Jeffreys, décroissant également de manière monotone quand c augmente, mais est normalisable et donne moins de poids aux extrema. Avec cet a priori, l’intégrale sur c et la constante de normalisation de la distribution a posteriori de µ (124) sont toutes deux finies et peuvent être calculées numériquement sans difficultés. La figure 8 239 montre un exemple concret, la distribution a posteriori de la section efficace de fission du Pu pour des neutrons de 14.7 MeV ainsi que les distributions Gaussiennes représentant les six résultats expérimentaux donnés dans le tableau 1. Des incertitudes a priori valant τj = 0.1 barn furent attribués sans discrimination à toutes les expériences, en se basant sur l’état de l’art. La moyenne a posteriori et l’incertitude quadratique moyenne, calculées numériquement, sont également données dans le tableau 1. Figure 8. Densités de probabilité représentant les résultats expérimentaux retranscrits dans le Tableau I (Gaussiennes en pointillé), et densité a posteriori de la valeur réelle (courbe continue) estimée avec le modèle Bayésien à deux étages, équation (124), avec l’hyper a priori donné par l’équation (128). Des incompatibilités sont évidentes entre les expériences 2,3 et 4 (l’étiquette des courbes est donné dans la première colonne du tableau) 55 Tableau 1. Résultats expérimentaux et après estimation de 239Pu(n,f) pour des neutrons de 14.7 MeV d’énergie incidente. N° Auteurs Année Section efficace de erreur non fission mesurée identifiée estimée (barn) (barn) 1978 Kari 1 2.37 ± 0.09 -0.019 ± 0.056 1978 Cancé et al. 2 2.29 ± 0.05 -0.086 ± 0.050 1979 Adamov et al. 3 2.51 ± 0.05 0.056 ± 0.048 1982 Li et al. 4 2.53 ± 0.05 0.069 ± 0.049 1982 Mahdawi et al. 5 2.44 ± 0.09 0.006 ± 0.056 1983 Arlt et al. 6 2.39 ± 0.03 -0.027 ± 0.041 meilleure estimation 2.42 ± 0.05 estimation a priori pour toutes les erreurs systématiques τj = 0.1 b 2.7 Estimation d’erreurs systématiques inconnues Que pouvons-nous apprendre sur les erreurs systématiques non identifiées εj à partir d’un ensemble de données incompatibles, xj ± σj, j = 1,2,...,n ? Avec l’a priori (128), il est facile d’intégrer la distribution de probabilité a posteriori (124) d’abord sur la distribution gamma de c, puis sur la distribution Gaussienne de µ. Le résultat peut s’écrire sous la forme 1 1 T p(ε x , σ , τ )d ( ε ) ∝ exp − ( ε − x) A −1 ( ε − x) 1 + ε T B −1 ε 2 2 − n / 2 −1 d (ε ) , (129) avec les matrices A et B définies comme précédemment dans les équations (115) et (116). Afin d’obtenir le vecteur de moyenne et la matrice de covariance de cette distribution sous forme analytique, nous utilisons l’intégration au point selle, en remplaçant la distribution exacte par une Gaussienne à plusieurs variables ayant le même maximum et la même courbure au maximum, 1 T p(ε x , σ , τ ) ≡ exp[ -F ( ε )] ≈ exp -F ( ε$ ) − ( ε − ε$ ) ( ∇∇ T F ) ε = ε (ε − ε$ ) , (130) 2 $ où l’opérateur nabla a pour coordonnées ∇ i ≡ ∂ / ∂ε j . Nous avons ainsi ε ≈ ε$ , (131) [ δεδε T ≈ ( ∇∇ T F ) ε = ε $ ] −1 . (132) Le vecteur le plus probable ε$ peut être déterminée en résolvant l’équation n+2 B −1 ε ∇F = A ( ε − x) + =0 2 1 + ε T B −1 ε / 2 −1 et la matrice de covariance approximative comme l’inverse de 56 (133) ∇∇ F = A T −1 −1 T −1 −1 T −1 n + 2 B ( 1 + ε B ε / 2) − B εε B + , 2 ( 1 + ε T B − 1 ε / 2) 2 (134) évaluée pour ε = ε$ . A partir des définitions (119) et (120) pour A et B, nous obtenons τ −j 2 σ 2j ε$ j $ε j = x j − x + ε$ − n + 2 , 2 1 + ∑ k τ −k 2 ε$ 2k / 2 (135) où x et ε$ sont les moyennes pondérées par σ −2 j . Ceci est approprié pour itérer. En insérant ε$ j ≈ x j − x , pour tous les j, comme première estimation dans le membre de droite, on obtient la seconde approximation n+2 τ −j 2 σ 2j x −x , ε$ j ≈ 1 − 2 1 + ∑ τ −2 ( x − x ) 2 j k k k ( ) (136) et, en répétant l’opération, des approximations de plus en plus bonnes. Notre traitement des erreurs systématiques non identifiées est un exemple de méthode Bayesienne « hiérarchique » (ici à deux étages). Elle implique une application répétée du théorème de Bayes : la distribution d’échantillonnage (113) dépend des paramètres εj avec l’a priori (112) qui, à son tour, dépend de « l’hyper paramètre » c avec « l’hyper a priori » (128) si nous remplaçons τ 2j par τ 2j / c . Les estimations finales et leurs incertitudes (racines carrées des éléments diagonaux de la matrice δε ε T ) dans le cas de notre problème pour 239Pu, obtenus de cette manière, sont retranscrits dans la dernière colonnes du tableau 1. Aucune erreur non identifiée significative n’a été trouvée pour les mesures 1, 5 et 6 alors que 2, 4 et peut être 3 semblent être affectées par des erreurs non identifiées qui sont du même ordre de grandeur que les incertitudes établies par les auteurs. Bien sûr, cette conclusion aurait pu déjà être tirée des données expérimentales (et spécialement de la représentation graphique par des Gaussiennes de la figure 8), mais notre formalisme donne également un support quantitatif pour notre sens commun dans des cas moins évidents. En outre, il éclaire quelque peu une récente méthode d’estimation dont on fait le plus grand cas : Notre seconde approximation (136) ressemble aux estimateurs de James-Stein (Stein 1956) qui, depuis leur introduction, ont provoqué une grande quantité d’excitation, de confusion et un flot de publications. C. Stein montra, en utilisant la définition fréquenciste du risque (l’erreur quadratique moyennée sur tous les échantillons possibles, pour un ensemble donné de paramètres), que des estimateurs similaire à (136) ont parfois un risque moindre que celui des estimations issues de l’estimation Bayesienne par perte quadratique (qui minimise l’erreur quadratique moyennée sur tous les paramètres possibles pour l’échantillon dont on dispose). Beaucoup d’améliorations ont été suggérées pour les estimateurs originaux de Stein, basées sur la théorie des distributions fréquencistes et d’un empirisme plus ou moins instruit. Par exemple, l’estimateur de « loi positive » n − 2 σ2 xj − x , ε j ∗ ≈ 1 − 2 s’ 2 + ( ) (137) fut proposé pour le cas particulier d’incertitudes égales (σj = σ pour tous les j). L’indice + signifie que seules les valeurs positives du « facteur réducteur » sont acceptées. Pour les valeurs négatives, il faut 57 mettre ε j ∗ = 0 . De plus, l’estimateur de « loi positive » ne doit être utilisé que pour n ≥ 3. Des discussions endiablées eurent lieu au sujet du « paradoxe » que l’estimateur pour εj ne dépend pas seulement de xj mais de tous les autres xk, k ≠ j, échantillonnés indépendamment. La question fut posé si l’inclusion d’autre données sans lien apparent n’améliorerait pas l’estimation. (« Si je veux estimer la consommation du thé à Taiwan, ferai-je mieux d’estimer simultanément la vitesse de la lumière et la masse des porcs dans le Montana ? » (Efron et Morris 1973).Ce qu’on appelle les formules Bayesiennes d’empirisme paramétrique ne semblent pas manquer de perspicacité, par exemple par le 2 2 remplacement de τ dans l’équation 121 (dans le cas τj = τ pour tous les j) par la variance s’ de l’échantillon. Aussi plausibles que de telles formules puissent paraître (voir par exemple Berger 1985), sans une justification rigoureuse elles restent des considérations ad hoc. Avec les même conditions (σj = σ, τj = τ), notre équation 136 devient ( n + 2) σ 2 ε j ≈ 1 − x −x , ns’ 2 +2 τ 2 j ( ) (138) valide pour toute valeur n ≥ 2, sans discontinuités ou problème d’interprétation. Un paradoxe n’existe que pour les fréquencistes qui se refusent à utiliser les a priori. Pour un Bayésien, il n’y a pas de paradoxe. Il ou elle code l’information que les données sont toutes du même type, mesurées dans des expériences liées entre elles et donc comparables, dans un a priori de second étage qui induit des corrélations et des facteurs « diminuant » de manière naturelle. Des données sur la vitesse de la lumière n’ont aucun lien avec les nôtres et sont donc exclues. Du point de vue Bayesien, d’un autre côté, il semble curieux de ne pas baser le critère de risque sur un échantillon donné et une connaissance a priori, mais sur un échantillon donné et tous les autres échantillons non observés qu’on puisse imaginer, sans l’utilisation de la connaissance a priori. Les estimateurs « dans les longs run » (moyennés sur plusieurs échantillons), dont les Fréquencistes affirment la supériorité, ne sont pas très adéquat pour l’évaluation des données, où l’on doit inférer les meilleures valeurs (par perte quadratique ou de tout autre type) à partir d’un échantillon disponible. Il se peut qu’un estimateur avec un faible risque soit plus proche de la valeur réelle pour une large proportion de tous les échantillons possibles qu’un estimateur qui assure une perte quadratique minimale, mais la partie restante des échantillons possibles tend à être si grande que l’avantage apparent devient un net désavantage (voir Jaynes 1976). Dans tous les cas, la méthode Bayesienne à deux étages mène, dans l’approximation du second point selle, à des estimateurs qui sont similaires, et pour des petits échantillons particulièrement meilleurs, aux estimateurs de James-Stein. De plus, les itérations traitent toutes les améliorations possibles et également les incertitudes de manière systématique et sans ambiguïté, sans les discontinuités curieuses (Efron et Morris 1973) de bien des estimateurs améliorés de James-Stein. La méthode Bayesienne ne laisse aucune place à l’empirisme une fois qu’une fonction de perte, un modèle statistique et des a priori sont spécifiés. De manière certaine, l’interprétation correcte de données incompatibles n’est jamais facile, et le vieil adage selon lequel « l’évaluation des données est plus un art qu’une science » reste vrai dans une certaine mesure, malgré les nombreux progrès réalisés dans la formalisation et la quantification durant les trois dernières décennies. 58 3. THÉORIE DES RÉSONANCES POUR LE DOMAINE RÉSOLU 235 Si des noyaux d’un élément donné, par exemple U, sont bombardés par des neutrons, on observe des réactions nucléaires telles que diffusion élastique, capture radiative ou fission. Les probabilités de ces processus (n,n), (n,γ) ou (n,f), exprimées par coutume sous forme de sections -24 2 efficaces dont l’unité est le barn (1 b = 10 cm ), dépendent fortement de l’énergie des neutrons incidents. La section efficace de diffusion, par exemple, est le plus souvent proche de la section efficace géométrique du noyau (quelques barns) mais à certaines énergies, elle augmente brusquement de plusieurs ordres de grandeur. Un comportement résonnant similaire, aux mêmes énergies, est suivi par les sections efficaces de capture radiative et de fission. La figure 9 (en haut et au milieu) montre 238 ce comportement pour le noyau U pour lequel seules les réactions neutroniques de diffusion élastique et de capture radiative sont autorisées d’un point de vue énergétique aux basses énergies 235 (en négligeant la fission en dessous du seuil). Pour U, on aurait également vu des résonances dans la fission. Chacune de ces résonances est due à l’excitation d’un état de durée de vie relativement longue (quasi-stationnaire) du noyau composé qui est formé temporairement lorsqu’un neutron interagit avec un noyau cible. Notons la forme des différents pics : les résonances de la section efficace de capture sont symétriques alors que celles de la section efficace de diffusion sont asymétriques avec un minimum prononcé et une section « potentielle » de diffusion d’une certaine importance entre les résonances. L’impact des résonances sur le spectre neutronique dans un réacteur de puissance est visible sur la figure 9 (en bas). Les creux marquants dans le flux de neutrons coïncident avec les pics des résonances dans les sections efficaces. L’explication est simple : les neutrons ne peuvent survivre 238 longtemps à des énergies où U, le constituant principal du combustible, possède des sections efficaces élevées, car ils sont bien vite capturés (ils disparaissent complètement) ou diffusés (transférés à d’autres énergies, habituellement plus faibles). Il en résulte que le flux est appauvri au 238 niveau des résonances de U. Des creux plus faibles dans le flux sont dus à d’autres composants 235 moins abondants du combustibles tels que le noyau fissible U. Aux basses énergies, les résonances apparaissent bien séparées mais lorsque l’énergie augmente, leurs espacements diminuent alors que leurs largeurs augmentent. Éventuellement, elles se superposent tellement les unes aux autres que la structure résonnante du noyau composé se moyenne et que seules survivent des structures beaucoup plus larges, telles que les larges résonances (ou de particules indépendantes) décrites par le modèle optique ou les résonances géantes dipolaires observées dans les réactions photonucléaires. En général, seules les résonances à relativement basse énergie peuvent être observées directement. Aux énergies intermédiaires, elles ne sont pas complètement résolues du fait de la résolution expérimentale, alors que la disparition de la structure résonnante du noyau composé due à des superpositions très importantes de niveaux n’apparaît qu’à des énergies encore supérieures. Aussi distingue-t-on le domaine des résonances résolues du domaine des résonances non-résolues (ou seulement en partie résolues). 59 Plus il y a de nucléons dans le système composé et plus la structure résonnante est fine. Les espacements typiques entre les niveaux observés dans les réactions neutroniques sont de l’ordre du MeV du keV de l’eV pour les noyaux légers pour les noyaux intermédiaires pour les noyaux lourds Les espacements entre les niveaux des noyaux cibles avec un nombre pair de nucléons sont souvent plus grands que ceux des noyaux avec un nombre impair de nucléons. Les noyaux magiques ou proche de la magicité ont des espacements de niveaux inhabituellement grands. Le noyau lourd 208 doublement magique Pb, par exemple, a des espacements moyens ressemblant à ceux de noyaux légers. L’agitation thermique des noyaux cibles engendre l’élargissement Doppler des résonances observées dans le système du laboratoire : lorsque la température de la cible augmente, les résonances s’élargissent tout en conservant une aire pratiquement constante. Cela modifie les taux moyen de diffusion, de capture et de fission et l’équilibre neutronique global dans un réacteur à fission. Par voie de conséquence, les caractéristiques de sécurité des divers modèles de réacteur à fission dépendent de manière cruciale des résonances dans les sections efficaces des principaux constituants du combustible et en particulier de leur élargissement Doppler. L’effet Doppler est le seul phénomène naturel donnant une rapide contre-réaction à une excursion soudaine de puissance dans un réacteur à fission. L’expansion thermique agit de même mais est beaucoup plus lente. De manière générale, on demande que l’augmentation de température accompagnant une excursion de puissance se traduise par une diminution du nombre de neutrons produits par neutron absorbé, de sorte qu’on ne perde pas le contrôle de la réaction en chaîne de fission. En termes plus techniques, le coefficient instantané de réactivité pour l’effet Doppler doit être négatif. Dans les applications liées à la protection, les minima présentés par les sections efficaces de diffusion et donc également par les sections efficaces totales (sommes de toutes les sections efficaces partielles de diffusion, capture, fission, etc.) donnent lieu, pour les neutrons, à des « fenêtres » en énergies dangereuses. Dans les modèles de réacteurs à fusion, tels qu’ITER (International Thermonuclear Experimental Reactor), encore dans les planches à dessins, un blindage en fer est prévu pour les bobines supraconductrices de l’aimant. Les fenêtres dans la section efficace des composantes principales du fer limitent de manière significative l’efficacité du blindage. (voir 56 figure 10 pour Fe). Ces exemples devraient suffire à illustrer l’importance des résonances des sections efficaces en physique et techniques nucléaires. Les résonances résolues sont décrites de la manière la plus pratique par la théorie de la matrice-R. Elle atteignit sa forme standard avec l’article de revue très détaillé de Lane et Thomas (1958). Cet article se doit d’être lu par tout spécialiste du domaine. De façon très brève, les principes de la théorie de la matrice-R sont les suivants. Toutes les collisions sont considérées binaires, une fonction d’onde entrante décrivant les deux particules incidentes, une fonction d’onde sortante décrivant les deux produits de la réaction. Les particules incidentes peuvent 235 être, par exemple, un neutron et un noyau U, les produits de réaction pourraient être deux fragments 236 235 de fission ou un noyau U excité et un photon ou encore un noyau U dans son état fondamental et un neutron diffusé élastiquement. Puisque les forces nucléaires sont de courtes portées mais ne sont pas très bien comprises, on divise l’espace des configurations en (i) une région externe où les forces nucléaires sont négligeables, si bien que les fonctions d’onde bien connues pour des particules libres, ou interagissant tout au plus électromagnétiquement, peuvent être utilisées ; et (ii) une région interne, 60 où les forces nucléaires prédominent. Même si la fonction d’onde interne est inconnue, elle peut au moins être écrite comme un développement des fonctions propres d’un problème aux valeurs propres. Le problème aux valeurs propres est caractérisé par l’équation (non relativiste) de Schrödinger qui définit les dérivées logarithmiques des fonctions propres à la limite entre les deux régions. En assurant la continuité des fonctions d’onde externes et internes à la limite, et en demandant des probabilités finies dans tout l’espace, on trouve que pour une fonction d’onde entrante donnée, toutes les fonctions d’onde sortantes, et donc toutes les sections efficaces, sont paramétrisées par les fonctions propres et valeurs propres intervenant dans le problème. Celles-ci peuvent être identifiées avec les énergies et les amplitudes de décroissance des états quasi-stationnaires du système composé. Tout ceci va être discuté en détail ci-dessous. Alors que les principes de la théorie des résonances sont assez simples, les expressions générales peuvent apparaître impressionnantes aux débutants. Nous ne pouvons pas en donner tous les développements (ceux-ci peuvent être trouvés dans l’article de revue de Lane et thomas 1958) et la théorie fondamentale des collisions en mécanique quantique sera supposée connue, mais nous allons essayer de présenter le formalisme de manière suffisamment détaillée pour les applications en sciences et technologie. Les variantes importantes d’un point de vue pratique sont • Le formalisme de Blatt-Biendenharn. • L’approximation de Breit et Wigner simple niveau (SLBW). • L’approximation de Breit et Wigner multi-niveaux (MLBW). • L’approximation (multi-niveaux) d’Adler-Adler. • L’approximation (multi-niveaux) de Reich-Moore. La première est assez générale. Elle montre comment les sections efficaces peuvent être exprimées en fonction de la matrice de collision symétrique unitaire (matrice-S) avec un accent particulier sur les distributions angulaires et le spin des particules. Elle peut être combinée avec n’importe quelle des quatre autres qui imposent différentes approximations à la matrice de collision. 61 Figure 9. En haut : section efficace de capture de 238U en dessous de 200 eV, élargie par effet Doppler à 300 K. Au milieu : section efficace de diffusion de 238U, également élargie à 300 K. En bas : Spectre neutronique dans un réacteur à eau pressurisé de pointe (C. Broeders, FZK, communication privée). L’axe des ordonnées est en échelle logarithmique. Les énergies sont données dans le référentiel du laboratoire 62 56 Figure 10. Section efficace totale expérimentale de Fe+n entre 305 et 600 keV (en barns) et ajustement théorique des résonances (ligne continue, à peine visible) avec le formalisme de Reich-Moore à une voie. Les larges pics asymétriques sont des résonances d’onde s, les étroits pics symétriques sont des résonances d’onde p ou d. Les données ont été obtenues dans une mesure de transmission par temps de vol avec une base de vol de 201.6 m, auprès d’ORELA, l’accélérateur linéaire d’électron d’Oak Ridge (d’après Perey et al. 1990) 63 3.1 Le formalisme de Blatt-Biedenharn Notre notation dans cette sous-partie et les suivantes sera fondamentalement la même que celle de Lane et Thomas (1958). Nous rappelons que, dans la théorie des réactions nucléaires, on parle de voies de réactions. Chaque voie est complètement déterminée par • α, la division du système composé en partenaires de la réaction, par exemple + γ (dans les deux cas, c’est le même noyau composé). • J, le moment angulaire total en unité h . • l , le moment angulaire orbital en unité h . • s, le spin de la voie en unité h . 235 U + n ou 236 U Les moments angulaires satisfont les relations triangulaires de mécanique quantique r r r J =l+s l−s ≤ J ≤l+s, c’est à dire (139) r r r s =I +i c’est à dire I −i ≤s≤ I +i, (140) r r où I et i sont les spins (en unité h ) des deux partenaires de la collision. L’énergie totale, le moment angulaire total et (dans tous les cas pratiques) la parité sont conservés dans les réactions nucléaires. Nous rappelons à nouveau que, pour des particules neutres et de spin nul, il est possible de résoudre l’équation non relativiste de Schrödinger pour la condition aux limites « onde entrante stationnaire plane + onde sortante stationnaire sphérique » avec comme résultat dσ αα = πD ∞ 2 α ∑ (2l + 1)(1 − U )P (cos ϑ) l =0 l l 2 dΩ 4π (141) pour la section efficace différentielle de diffusion élastique. La longueur d’onde de de Broglie 2πD α = h / (µ α v rel ) correspond au mouvement relatif des partenaires de la collision, avec la masse réduite µα et la vitesse relative vrel. Les fonctions propres Pl du moment angulaire sont des polynômes de Legendre d’ordre l . Les termes dans la somme avec l = 0,1,2... sont dits appartenir aux ondes s, p, d, f, …, une nomenclature historique venant de la spectroscopie atomique (où elle se réfère à ce qu’on appelle séries spectrales « sharp », « principal », « diffuse », « fundamental »). La fonction de collision U l décrit la modification de la l -ème onde partielle sortante par rapport au cas où il n’y a pas d’interaction. Sa valeur absolue donne l’atténuation en amplitude, son argument le déphasage amené par la réaction. Avec Pl Pl ’ = (ll’00, L0 ) PL où (ll’00, L0 ) est un coefficient de 2 Clebsch-Gordan s’annulant à moins que l − l’ ≤ L ≤ l + l’ et (− ) + ’ = (− ) L , l l on peut écrire la section efficace différentielle sous forme de développement linéaire en polynômes de Legendre, ∞ dσ αα = D 2 ∑ B L PL (cos ϑ)dΩ (142) L =0 64 avec les coefficients BL = ( ) 1 (2l + 1)(2l’+1)(ll’00, L0)2 1 − U l* (1 − U l ’ ) . ∑ 4 l ,l ’ (143) Blatt et Biedenharn (1952) menèrent à bien la généralisation pour des particules de spin non nul et pour des collisions amenant un changement (un réarrangement) de la composition du système. Dans le cas où il n’y a pas d’interaction coulombienne, ils obtinrent dσ αα ’ = ∞ D2 ∑ BL (αs, αs’)PL (cos ϑ)dΩ , (2i + 1)(2 I + 1) ∑ s , s ’ L =0 (144) avec les coefficients s −s ’ ( −) B L (αs, αs ’) = ∑ ∑ ∑ Z (l 1 J 1l 2 J 2 , sL )Z (l’1 J 1l’2 J 2 , s’L ) 4 J1 , J 2 l 1 , l 2 l ’1 , l ’2 ( × δ αα ’δ l 1l ’1 δ ss ’ − U ) (δ * J1 αl 1s , α ’l ’1 s ’ δ αα ’ l 2 l ’2 δ ss ’ − U J2 αl 2 s , α ’l ’2 s ’ Z (l 1 J 1 l 2 J 2 , sL ) = (2l 1 + 1)(2l 2 + 1)(2 J 1 + 1)(2 J 2 + 1) × (l 1 l 2 00, L0)W (l 1 J 1 l 2 J 2 , sL ), ), (145) (146) où W (l 1 J 1 l 2 J 2 , sL ) est un coefficient de Racah, voir par exemple Fano et Racah (1959) ou de Shalit et Talmi (1963). Notre convention de phase est celle de Lane et Thomas (1958) ; une convention légèrement différente est adoptée dans les tables de Z de Biedenharn (1953). Les coefficients Z sont nuls à moins que les relations triangulaires de mécanique quantique pour la somme des vecteurs r r r r l1 + l 2 = L = l’1 + l’2 (147) r r r r r l i + s = J i = l’i + s ’ (i = 1,2) (148) ne soient vérifiées. La conservation de la parité exige que (− ) Π α = Π i = (− ) Π α ’ où Π α , Π α ’ sont les parités propres des particules entrantes et sortantes (positives pour les neutrons, protons, particules α et photons) et Π i est la parité du système composé avec le moment orbital total Ji (i = 1,2). S’il y a une interaction coulombienne entre les partenaires de la collision, des termes additionnels doivent être introduits, voir Lane et thomas (1958). l l’ Intégrons l’équation (144) sur les angles. Tous les termes avec L<0 disparaissent du fait de l’orthogonalité des PL et car Z (l 1 J 1l 2 J 2 , s 0) = (− ) J1 + s 2 J 1 + 1 δ J 1 J 2 δ l 1l 2 , (voir de-Shalit et Talmi 1963) et on obtient 65 (149) dσ αα ’ = πD 2α ∑ g J ∑ ∑ δ α ,α ’δ l ,l ’δ s , s ’ − U αJls ,α ’l ’s ’ , 2 (150) l,l ’ s , s ’ J où ce qu’on appelle les facteurs statistiques de spin gJ ≡ 2J + 1 , (2i + 1)(2 I + 1) (151) sont les poids pour les différents moments angulaires totaux possibles. Nous ne pouvons pas aller dans le détail des distributions angulaires, mais nous mentionnons qu’elles présentent des interférences entre les différentes ondes partielles, par exemple ondes s et p, alors qu’il n’y en a pas entre les sections efficaces intégrées sur les angles. Ces dernières sont de simples sommes sur les termes ayant des l et s donnés, sans termes croisés, voir équation (150). Néanmoins, il existe une certaine connexion entre les différentes ondes partielles. Comme nous l’avons déjà mentionné, le noyau composé et ses états quasi-stationnaires sont caractérisés, outre par l’énergie, par le moment angulaire total, J, et la parité, Π. Le Tableau 2 montre, pour une cible de spin et de parité positive donnés, les combinaisons possibles de l , s et J pour des particules incidentes de spin i = ½. Certaines combinaisons JΠ peuvent être formées au travers de plus d’une voie si l >0 et I >0. Si IΠ0 = ½+, par exemple, des résonances avec JΠ = 1- peuvent être excitées par deux ondes p avec s = 0 et s = 1 et les niveaux 2+ peuvent être excités par des ondes d avec s = 0 et s = 1. Les largeurs neutroniques (qui donnent la force de l’excitation, voir plus loin) pour les niveaux 1- et 2+ sont donc les sommes de deux largeurs partielles pour deux voies de spin. Pour IΠ0 = 1+, les niveaux ½+ peuvent même être excités par des ondes partielles de l différent, une onde s avec s = ½ et une onde d avec s = 3/2, tandis que les niveaux 3/2+ sont excitables par trois ondes partielles, une onde s avec s = 3/2 et deux ondes d avec s = ½ et s = 3/2, et ainsi de suite. Tableau 2. Combinaisons possibles du spin I de la cible, du moment angulaire orbital l et du spin de la voie s donnant le spin total J, la parité Π et le facteur statistique de spin g, pour une cible de parité Π0 positive et un projectile de spin i = ½ IΠ0 0+ l 0 1 2 s 1/2 1/2 1/2 g JΠ 1/21/2-, 3/23/2+, 5/2+ 1 1, 2 2, 3 Σg 1 3 5 onde s p d 1 s 3 p 5 d 1 s 3 p 5 d etc. 1/2+ 0 1 2 1+ 0 1 2 0 1 0 1 0 1 1/2 3/2 1/2 3/2 1/2 3/2 1/4 0+ 0-, 1+ 11-, 2-, 2+ 1+, 2+, 3/4 3/4 1/4, 3/4, 5/4 5/4 3/4, 5/4, 7/4 3+ etc. 1/2+ 1/3 3/2+ 1/2-, 3/21/2-, 3/2-, 5/23/2+, 5/2+ 1/2+, 3/2+, 5/2+, 7/2+ etc. 2/3 1/3, 2/3 1/3, 2/3, 3/3 2/3, 3/3 1/3, 2/3, 3/3, 4/3 66 Ainsi, nous trouvons que chaque état quasi-stationnaire du noyau composé se révèle en tant que résonance dans toutes les voies ouvertes qui ne sont pas exclues par les règles de sélection de spin et de parité. Les intensités (les aires des pics) peuvent différer, mais la largeur de la résonance doit être la même dans toutes ces voies, étant proportionnelle à l’inverse du temps de demi-vie de l’état du noyau composé. Dans ce contexte, il peut être alors compris que les termes couramment employés de résonance d’onde s ou p signifient que le niveau peut au moins être excité par des ondes s ou p, mais aussi, éventuellement, par des ondes partielles de même parité d’ordre plus élevé. Pour donner un exemple : les résonances d’onde s 3/2+ observées dans des réactions nucléaires avec des noyaux cibles ayant IΠ0 = 1+ contiennent également une composante d’onde d. Il est vrai qu’aux basses énergies incidentes, la composante d’onde s est beaucoup plus grande du fait de la plus grande barrière centrifuge pour les neutrons d’onde d (voir plus loin) mais il faut prendre conscience que certaines séquences de résonances d, f, … sont masquées par des séquences s, p, …. C’est un point important, par exemple pour l’interprétation statistique des densités de niveaux observées ou pour la simulation des effets de résonance dans le domaine des résonances non résolues avec des « mailles » de résonances obtenues en échantillonnant par Monte Carlo (voir la partie 4, ci-dessous). 3.2 Les expressions exactes de la matrice-R La section efficace intégrée sur les angles σαα’, équation (150), peut être écrite en tant que somme des sections efficaces partielles, σcc’, obtenue par sommation sur toutes les voies d’entrée c ≡ {αJls} et de sortie c’≡ {α’Jl’s’} qui mènent de la répartition α à la répartition α’. Dans une notation légèrement simplifiée, ces dernières s’écrivent σ cc ’ = πD 2c g c δ cc ’ − U cc ’ . 2 (152) Notons que, pour c ≠ c’, la section efficace partielle est proportionnelle à la probabilité, au sens de la mécanique quantique, U cc ’ 2 d’une transition de la voie c à la voie c’, et à la probabilité gc d’avoir le moment angulaire correct à partir des spins des partenaires de la collision. Le symbole de Kronecker δcc’ intervient puisque les particules entrantes et sortantes ne peuvent être distinguées si c = c’. Le facteur cinématique πD 2c permet de relier probabilités et sections efficaces. La matrice de collision U, souvent appelée matrice de diffusion ou matrice-S, est symétrique car, pour tous les cas pratiques, nous pouvons considérer les interactions nucléaires (et coulombiennes) comme invariante par rapport à l’inversion du temps. De plus, U est unitaire puisque le cumul des probabilités des transitions dans les différentes voies est égal à un, ∑ U cc ’ = 1 . De l’unitarité de U et de l’équation 2 c’ (152), il s’ensuit que la section efficace totale pour la voie d’entrée c est une fonction linéaire de Ucc, σ c ≡ ∑ σ cc ’ = πD 2c g c (1 − Re U cc ) , (153) c’ contrairement aux sections efficaces partielles qui dépendent de manière quadratique de Ucc’. Les expressions obtenues sont donc les plus simples pour la section efficace totale, et les plus compliquées pour la section efficace de diffusion élastique (à cause du symbole de Kronecker). Il est par conséquent plus commode de calculer σcc comme une différence entre σc et des autres sections 67 efficaces partielles plutôt que directement à partir de l’équation (152). La relation de réciprocité entre les sections efficaces pour une réaction c → c’ et la réaction inverse c’ → c, σ c ’c σ = cc ’2 , 2 g c ’D c ’ g c D c (154) découle directement de la symétrie de U. Ces équations sont assez générales. Afin d’introduire les résonances, nous faisons appel à la théorie de la matrice-R qui nous permet d’exprimer U en fonction de la matrice des voies R (voir Lane et Thomas 1958, Lynn 1968), { [ ( U cc ’ = e −i (ϕc + ϕc ’ ) Pc1 / 2 [1 - R (L - B )] 1 - R L* - B { −1 [( = e −i (ϕc + ϕc ’ ) δ cc ’ + 2iPc1 / 2 1 - RL0 Rcc ’ = ∑ λ ) −1 ] )]} } cc ’ Pc1’/ 2 R cc ’ Pc1’/ 2 , γ λc γ λc ’ , Eλ − E (155) (156) L0cc ’ ≡ Lcc ’ − Bcc ’ = ( Lc − Bc )δ cc ’ ≡ (S c + iPc − Bc )δ cc ’ . (157) Une autre possibilité est d’exprimer la matrice de collision en fonction de la matrice des niveaux A, U cc ’ = e −i (ϕc −ϕc ’ ) δ cc ’ + i ∑ Γλ1c/ 2 Aλµ Γµ1c/’2 , λ ,µ (158) Γλ1c/ 2 ≡ γ λc 2 Pc , (159) (A ) −1 λµ = (E λ − E )δ λµ − ∑ γ λc L0c γ µc . (160) c Remarque : Les indices en Roman renvoient aux voies de réaction, les indices Grec au niveaux du noyau composé et 1 est la matrice unité. Trois groupes de quantités physiques apparaissent dans ces équations : D’abord, il y a les paramètres de résonance, c’est à dire les énergies formelles des niveaux Eλ et les amplitudes de probabilité γλc pour la décroissance (ou formation) des états du noyau composé via les voies de sortie (ou d’entrée) c, toutes parfaitement incluses dans la matrice-R (156), chaque niveau contribuant à un terme de la somme (une hyperbole en fonction de l’énergie E). Les γλc (ndT : appelées aussi amplitudes de voies) peuvent être positives ou négatives, de manière pratiquement aléatoires sauf à proximité de l’état fondamental. Les formules des sections efficaces sont d’ordinaire écrite en fonction des largeurs partielles Γλc et des largeurs totales Γλ ≡ ΣcΓλc plutôt que des amplitudes de décroissance. 68 Le deuxième groupe, les déphasages de sphère dure ϕc et les dérivées logarithmique Lc, dépend uniquement des fonctions d’onde radiales entrantes et sortantes (connues) Ic et Oc au rayon de la voie ac, ϕ c ≡ arg Oc (a c ) = arc tan Lc ≡ a c Im Oc (a c ) , Re Oc (a c ) (161) O’c (a c ) ∂ ln Oc = rc . ∂rc r = a Oc (a c ) c (162) c Les Sc ≡ Re Lc sont appelés facteurs de décalage pour des raisons qui deviendront claires par la suite, les Pc ≡ Im Lc sont les pénétrabilités de la barrière centrifuge. Les quantités Bc et ac forment le troisième groupe. Elles définissent le problème aux valeurs propres avec les valeurs propres Eλ. Leur choix est principalement une affaire de commodité. Les Bc sont les dérivées logarithmiques des fonctions propres radiales pour les rayons des voies ac. Ces rayons définissent la limite entre la région interne et externe. Ils doivent être choisis suffisamment grands pour que l’interaction nucléaire puisse être parfaitement négligée si la distance rc entre les partenaires de la réaction est supérieure à ac, autrement ils sont arbitraires. Il est préférable de choisir ac juste légèrement supérieur au rayon du noyau composé (voir Lynn 1968). Un choix raisonnable pour les voies neutroniques est ac = (1.23A1/3 +0.80) fm, où A est le nombre de nucléons dans le noyau cible. Nous mentionnons ici que, dans les applications, toutes les énergies et largeurs des résonances sont données dans le référentiel du laboratoire, comme par exemple dans la compilation de paramètres de résonance largement utilisée de Mughabghab et al. (1981, 1984) connu sous le nom de « barn book » (NdT : ou BNL-325), ou dans celle de Sukhoruchkin et al. (1998), ou encore dans les fichiers informatiques d’évaluation de données nucléaires. Pour des projectiles neutres, les fonctions d’onde radiales sortantes sont proportionnelles aux fonctions sphériques de Hankel de première espèce, hl(1) , Oc = I c* = ik c rc hl(1) (k c rc ) (≈ i e l ik c rc ) si k c rc >> l(l + 1) , (163) où k c = 1 / D c . Les propriétés des fonctions de Hankel donnent les relations récursives L0 = ik c a c = iP0 , ϕ 0 = k c ac , Ll = −l − (k c a c )2 , (164) ϕ l = ϕ l −1 + arg(l − Ll −1 ) , (165) Ll −1 − l avec lesquelles le tableau 3 est construit. Notons que Sc = 0 pour l = 0 , et que S c → −l pour k c a c → 0 (aux basses énergies). Par conséquent, Bc = −l est un bon choix pour le domaine des résonances résolues : assez généralement, cela simplifie toutes les expression de la matrice-R et, en particulier, élimine de manière rigoureuse les facteurs de décalage pour les ondes s ainsi que, comme nous le verrons plus loin, de manière approximative pour les ondes partielles d’ordre supérieur. Cela signifie que les pics de section efficace apparaissent aux énergies formelles de résonance Eλ comme elles le devraient, au lieu d’être décalés. Sc et Pc pour les voies photon et fission sont habituellement considérés constants. 69 Tableau 3. Fonctions d’onde de voie et quantités associées pour des projectiles neutres ( ρ ≡ k c rc , α ≡ k c a c ) l Oc 1 2 e iρ 1 e iρ − i ρ 3 3 3i e iρ 2 − − 1 ρ ρ … … ϕc α α − arc tan α α − arc tan … 3α 3 − α2 Sc 0 Pc α −1 α2 +1 α3 α2 +1 ( ) − 3 α2 + 6 α 4 + 3α 2 + 9 α5 α 4 + 3α 2 + 9 … … Les paramètres de résonance fondamentaux, Eλ, γλc, dépendent d’interactions nucléaires inconnues. Ils ne peuvent de ce fait être calculés à partir des principes de base (excepté pour des modèles simples comme un puits de potentiel carré, voir plus loin.) Dans les applications courantes de la théorie de la matrice-R, ce sont uniquement des paramètres ajustables sur les données expérimentales. En fonction du choix de Bc, ils peuvent être réels et constants tout comme complexes et dépendants de l’énergie. Dans la version de Wigner-Eisenbud de la théorie de la matrice-R, les paramètres Bc choisis sont des constantes réelles (Wigner et Eisenbud 1947). Les paramètres de résonance Eλet γλc sont donc également réels et constants, et la dépendance en énergie de la matrice U est seulement due aux ϕc et Lc, toutes des fonctions connues de kcac, c’est à dire de l’énergie. Ceci fait de la version de Wigner-Eisenbud le formalisme le plus pratique pour la plupart des applications, et particulièrement en choisissant Bc = −l . Il est facile de vérifier que la matrice-R réelle donne une matrice de collision unitaire, ce qui signifie que la somme des sections efficaces partielles, équation (152), est strictement égale à la section efficace totale correcte, équation (153). Un problème réside cependant dans la nécessité d’inverser la matrice des voies 1-RL0 de l’équation (155), ou la matrice inverse des niveaux A-1 de l’équation (160). Ces deux matrices ont un rang très élevé. De manière pratique, la difficulté est contournée par diverses approximations sur la matrice inverse des niveaux, comme nous le verrons plus loin. La version de Kapur-Peierls de la théorie de la matrice-R est obtenue en effectuant le choix Bc = Lc, c’est à dire L0c = 0 (Kapur et Peierls 1938). Ceci enlève complètement la nécessité d’inverser les matrices, mais mène à des paramètres de résonance complexes qui dépendent implicitement de l’énergie d’une manière plutôt obscure du fait que la vraie solution du problème aux valeurs propres varie maintenant avec l’énergie, et donc également les valeurs propres et l’ensemble des fonctions propres. De plus, la matrice de collision n’est pas manifestement unitaire car la matrice-R est complexe. Malgré ces handicaps, les formules du type Kapur-Peierls sont utiles dans des petits intervalles d’énergie, en particulier pour la description de l’effet Doppler. Nous allons écrire les paramètres complexes et dépendants de l’énergie de Kapur-Peierls sous la forme λ , gλc afin de les distinguer des paramètres réels et constants de Wigner-Eisenbud Eλ, γλc. Ainsi G1/ 2G1/ 2 U cc ’ = e −i (ϕc + ϕc ’ ) δ cc ’ + i ∑ λc λc ’ ελ − E λ , ε (166) 70 G λ1c/ 2 = g λc 2 Pc . (167) Notons que la forme de Kapur-Peierls de la matrice de collision (et donc des expressions correspondantes de la section efficace totale) n’implique qu’une simple somme sur les niveaux alors que l’expression (158) de Wigner-Eisenbud implique une double somme. Les équations de la matrice-R passées en revue jusqu’ici représentent pratiquement tout ce qui est nécessaire pour les applications utilisant la théorie des résonances. Elles doivent cependant être pleinement comprise et l’expérience montre que ce n’est pas chose aisée pour un débutant. Il pourrait par conséquent souhaiter voir une illustration simple qui montre les étapes essentielles dans le développement de la théorie et présente la signification des différentes quantités sans les complications de l’algèbre de spin et des notations matricielles. Une telle illustration est donnée par le modèle optique sphérique, particulièrement avec un puit de potentiel carré complexe, pour lequel tout peut être calculé explicitement (voir Fröhner 1996), les résultats étant de première utilité pour le domaine des résonances non résolues. 3.3 Les approximations importantes d’un point de vue pratique Un point de départ commode pour les versions pratiques de la théorie de la matrice-R est la matrice inverse des niveaux. Nous allons considérer les représentations et approximations suivantes. Représentation de Wigner-Eisenbud (exacte) Avec Bc réel et constant : (A ) −1 λµ = (E λ − E )δ λµ − ∑ γ λc L0c γ µc (168) c (valeurs propres Eλ et amplitudes de décroissance γλc réelles et constantes, dépendance en énergie de L0c connue) Représentation de Kapur-Peierls (exacte) Avec Bc = Lc : (A ) −1 λµ = (ε λ − E )δ λµ (169) (valeurs propres ελ et amplitudes de décroissance gλc complexes, dépendances en énergie implicites, obscures) 71 Approximation de Breit et Wigner simple niveau (SLBW) Un seul niveau retenu, tous les autres sont négligés : (A ) −1 λµ → E 0 − E − ∑ L0c γ c2 ≡ E 0 + ∆ − E − iΓ/ 2 (170) c (décalage de niveau ∆ et largeur totale Γ = ΣcΓc réels, dépendances en énergie explicites, bien connues) Approximation de Breit et Wigner multiniveaux (MLBW) -1 Les éléments non diagonaux de A sont négligés : (A ) −1 λµ = E λ − E − ∑ L0c γ λ2c δ λµ ≡ ( E λ + ∆ λ − E − iΓλ / 2)δ λµ c (171) (décalage de niveau ∆λ et largeur totale Γλ = ΣcΓλc réels, dépendances en énergie explicite, bien connues) Approximation de Reich-Moore Les contributions non diagonales des voies photons, c ∈ γ , sont négligées : (A ) −1 λµ = (E λ + ∆ λγ − E − iΓλγ / 2 )δ λµ − ∑ γ λc L0c γ µc (172) c∉γ (décalage de niveau ∆λ réel des voies photon usuellement intégrées dans la valeur réelle et constante de Eλ, largeur radiative Γγλ = c∈γ Γλc réelle considérée habituellement constante ; autres ∑ dépendances en énergie explicites). Approximation de Adler-Adler La dépendance en énergie de L0c est négligée : (A ) −1 λµ = ( E λ − E )δ λµ − ∑ γ λc L0c ( E λ )L0c (E µ )γ µc (173) c Parmi ces approximations, celle de Reich-Moore est la plus précise et SLBW la moins. Avec un choix judicieux des conditions limites des paramètres, les facteurs de décalage ∆λ s’annulent au moins localement. Aux basses énergies, ceci est réalisé pour des voies neutron avec Bc = −l (voir tableau 3) comme spécifié plus haut. Le tableau 3 montre également que les pénétrabilités de la barrière centrifuge Pc = Pl pour les neutrons, et donc pour toutes les largeurs neutroniques, 72 Γλc (E ) ≡ 2 Pl (E )γ λ2c = Γλc ( E λ ) P (E ) (c ≡ {αJls}∈ n) , P (E ) l l (174) λ contiennent au moins un facteur E . Les facteurs additionnels dans les pénétrabilités p, d, … se comportent aux basses énergies en E, E2,… Il en découle que les niveaux d’onde s dominent à basse énergie alors que les niveaux d’onde p apparaissent seulement à plus haute énergie, les niveaux d’onde d à encore plus haute énergie, etc. Les valeurs absolues dans la définition conventionnelle des largeurs neutroniques (170) rendent celle-ci applicable non seulement avec les états du noyau composé dont Eλ>0, mais aussi avec les états sous le seuil (états liés, « négatifs ») dont Eλ<0 alors que, à strictement parler, les pénétrabilités Pl (E ) de la barrière centrifuge et donc les largeurs s’annulent sous le seuil de la réaction (E<0). Les largeurs neutroniques données dans les tables et les fichiers informatiques doivent être comprises comme étant Γ λc E λ . Une autre convention concerne le signe des amplitudes de largeur. Il est ( ) important dans les cas à plusieurs voies mais cette information est perdue lorsque les largeurs sont calculées. C’est pourquoi il est coutumier de tabuler les largeurs partielles avec le signe (relatif à l’amplitude de largeur neutronique) de l’amplitude de la largeur correspondante. D’un point de vue général, il serait plus approprié (et moins confus) de tabuler les amplitudes de largeur plutôt que les largeurs partielles – non seulement elles ne dépendent pas de l’énergie, mais encore elles ne s’annulent pas en dessous du seuil, et enfin le signe ne doit pas être expliqué – mais il est trop tard pour changer des habitudes fortement ancrées. Les décalages et pénétrabilités pour les voies photon et fission peuvent d’ordinaire être considérés constants. Par conséquent, ces décalages disparaissent si nous choisissons Bc = Sc, et les largeurs de fission et radiatives ne dépendent pas de l’énergie. Regardons maintenant les expressions des sections efficaces provenant des différentes représentations et approximations. 3.3.1 Expressions de Kapur-Peierls pour les sections efficaces Pour anticiper l’étude de l’élargissement Doppler, nous écrivons la matrice de collision de Kapur-Peierls (166) sous la forme U cc ’ = e −i ( ϕc + ϕ c ’ ) G λ1c/ 2 Gλ1c/ ’2 (ψ λ + iχ λ ) , δ cc ’ − ∑ Gλ / 2 λ (175) où les profils de résonance symétriques et asymétriques ou fonctions de forme ψ λ et χ λ sont définis par ( ) ~ iG λ / 2 G λ2 / 4 E − E λ Gλ / 2 ψ λ + iχ λ ≡ = +i , ~ 2 ~ 2 E −ελ E − E λ + G λ2 / 4 E − E λ + Gλ2 / 4 ~ les énergies réelles de Kapur-Peierls E λ des résonances et les largeurs Gλ par ( ε λ ) ( ~ ≡ E λ − iGλ / 2 . ) (176) (177) 73 Le profil de résonance symétrique est essentiellement (si on néglige les faibles dépendances en énergie de λ et de G λ ) une Lorentzienne, et le profil asymétrique est sa dérivée en énergie. Les expressions des sections efficaces en résultant sont ε G σ c = 4πD 2c g c sin 2 ϕ c + Re e − 2iϕc ∑ λc (ψ λ + iχ λ ) , λ Gλ ( ) (ψ G 1 / 2 G1 / 2 ∗ σ cc ’ = σ c δ cc ’ − 4πD 2c g c Re ∑ λc λc ’ Wcc ’ ε λ Gλ λ ( ) Wcc ’ ε λ ≡ δ cc ’ + i ∑ ∗ µ Gµ1c/ 2 Gµ1c/ ’2 ε −ε µ ∗ * λ + iχ λ ) , . (178) (179) (180) λ Les profils de résonance contiennent les variations rapides avec l’énergie, liées aux résonances, qui sont sensibles à l’élargissement Doppler, alors que les autres quantités varient lentement avec l’énergie. Nous insistons sur le fait que le formalisme de Kapur-Peierls est formellement exact bien que les faibles dépendances des paramètres de Kapur-Peierls avec l’énergie ne soient pas connues explicitement. 3.3.2 Expressions des sections efficaces dans le cadre de SLWB La matrice de collision pour un seul niveau, iΓc1 / 2 Γc1’/ 2 , U cc ’ = e −i (ϕc + ϕc ’ ) δ cc ’ + + ∆ − − Γ E E i / 2 0 (181) est unitaire. Les expressions des sections efficaces en découlant sont Γ σ c = 4πD 2c g c sin 2 ϕ c + c (ψ cos 2ϕ c + χ sin 2ϕ c ) , Γ σ cc’ = 4πD 2c g c Γc Γc’ ψ, Γ2 (c ≠ c’) , (182) (183) σ cc = σ c − ∑ σ cc ’ , (184) c ’≠ c avec les profils de résonance donnés par ψ + iχ ≡ (E − E 0 )Γ / 2 iΓ / 2 Γ2 / 4 = +i . 2 2 E − E 0 + iΓ / 2 ( E − E 0 ) + Γ / 4 (E − E 0 )2 + Γ 2 / 4 (185) La forme primordiale de la résonance, dans les différentes sections efficaces partielles telles que c’ ≠ c, est principalement symétrique, alors que celle des sections efficaces totales et de diffusion est 74 la somme de trois termes : la section efficace pratiquement constante de diffusion potentielle, un terme résonnant symétrique et un terme asymétrique venant de l’interférence entre la diffusion potentielle (sphère dure) et résonnante. Il est facile de déduire des équations (182) et (185) que la valeur du pic de la section efficace totale, Γ σ c (E + ) = 4πD 2c g c 1 − a cos 2 ϕ c , Γ (186) est atteinte à l’énergie E+ = E0 + Γ tan ϕ c , 2 (187) tandis que la valeur minimale dans le creux d’interférence est σ c (E − ) = 4πD 2c g c Γa Γ sin 2 ϕ c = a σ p ,c , Γ Γ (188) pour l’énergie E− = E0 − Γ cot ϕ c , 2 (189) où Γa ≡ Γ − Γn est la largeur d’absorption et σp,c la section efficace de diffusion potentielle pour la voie d’entrée c. Ces dernières expressions sont valables si les lentes dépendances en énergie de D 2c , ϕc, Γ et Γn sont négligeables. Pour une diffusion élastique pure (Γa = 0), la valeur minimale de la section efficace est zéro, la valeur au pic est égale à la limite unitaire 4πD 2c g c (par rapport à l’équation 153). Le facteur de spin, c’est-à-dire le spin J des niveaux, peut donc souvent être obtenu en mesurant juste la hauteur de 56 la résonance. Cela marche le mieux pour les noyaux légers ou des matériaux de structure tels que Fe et d’autres isotopes du fer, du nickel, et du chrome qui sont presque des diffuseurs purs, et pour de larges résonances « isolées » qui sont virtuellement insensibles à l’élargissement Doppler, aux interférences multiniveaux et observables avec une bonne résolution expérimentale. La profondeur du minimum dû à l’interférence, qui est le point le plus important pour les calculs de protection, est essentiellement donné par le rapport Γa/Γ multiplié par la section efficace de diffusion potentielle. Aux basses énergies, les réactions d’onde s dominent, la section efficace de diffusion potentielle est pratiquement constante alors que les sections efficaces de capture et de fission ont un comportement en 1/v. Ce comportement à basse énergie est vrai de manière assez générale et pas uniquement dans l’approximation SLBW. Du fait de la lente variation des sinus et cosinus en fonction de l’énergie, les résonances de la section efficace totale ne se ressemblent pas quelle que soit l’énergie : à basse énergie, elles ont la forme représentée sur la figure 11, avec le minimum (« fenêtre ») dû au terme d’interférence du côté des basses énergies des résonances. Cette forme est caractéristique du domaine résolu. À plus haute énergie, le terme symétrique devient de moins en moins important jusqu’à ce que le terme asymétrique domine. À des énergies encore supérieures, lorsque ϕc ≈ π, les résonances apparaissent comme des creux plutôt que comme des pics (un exemple bien connu est celui de la résonance de 16 O+n à 2.35 MeV) et éventuellement les fenêtres dues à l’interférence réapparaissent du côté des hautes énergies des résonances. 75 Figure 11 En pratique, on doit cependant décrire les sections efficaces par de nombreuses résonances. On peut simplement additionner les termes résonnants SLBW (et additionner la diffusion potentielle pour σc et σcc). C’est la définition SLBW du format ENDF (cf. Rose et Dunford 1990) qui est utilisée au niveau mondial pour les librairies, à but applicatif et consultable informatiquement, de données neutroniques évaluées. Puisque ce principe ad hoc n’est pas issu d’une matrice de collision unitaire, la contrainte unitaire 0 < σ c < 4πD 2c g c n’est pas garantie. En fait, cette approximation SLBW « à plusieurs niveaux » est réputée pour l’apparition de sections efficaces totale et de diffusion négatives, n’ayant aucun sens physique. La raison est simple à comprendre : à basse énergie, les contributions négatives ne peuvent venir que des profils asymétriques des résonances d’énergie supérieure. En moyenne, elles sont compensées par les contributions des résonances d’énergie inférieure, mais si les résonances d’énergie supérieure sont inhabituellement grandes ou celles d’énergie inférieure inhabituellement faibles, les sections efficaces de diffusion peuvent devenir négatives dans les minima provenant de l’interférence. L’effet opposé est moins notable mais tout aussi mauvais : les pics de section efficace dans l’approximation SLBW peuvent dépasser la limite unitaire si les résonances au dessus sont faibles ou celles en dessous sont fortes. 3.3.3 Expressions des sections efficaces dans le cadre de MLWB L’approximation MLWB est meilleure que l’approximation SLBW à plusieurs niveaux. La matrice de collision issue de l’équation (171), 76 U cc ’ = e −i ( ϕc + ϕ c ’ ) Γλ1c/ 2 Γλ1c/ ’2 , δ cc ’ + i ∑ E E i / 2 + ∆ − − Γ λ λ λ λ (190) implique une simple somme sur les résonances à l’instar de la matrice de collision de Kapur-Peierls. Il en découle que nous pouvons prendre les expressions de Kapur-Peierls en effectuant les 1/ 2 remplacements E ’λ → E λ + ∆ λ , G λ → Γλ = c Γλc , G 1/2 λc → Γλc , d’où ∑ Γ σ c = 4πD 2c g c sin 2 ϕ c + ∑ λc (ψ λ cos 2ϕ c + χ λ sin 2ϕ c ) , c Γλ ( ) (ψ Γ1 / 2 Γ1 / 2 ∗ σ cc ’ = σ c δ cc ’ − 4πD 2c g c Re ∑ λc λc ’ Wcc ’ ε λ Γλ λ ( ) Wcc ’ ε λ = δ cc ’ + i ∑ ∗ µ Γµ1c/ 2 Γµ1c/ ’2 Eµ − Eλ − i (Γ µ + Γ )/ 2 . * λ + iχ λ ) , (191) (192) (193) λ Puisque les sections efficaces partielles (192) sont issues de la matrice de collision sous forme de carrés absolus (voir équation 152), elles sont garanties d’être positives, et ce sont à nouveau des fonctions linéaires des profils de ligne ψ λ et χ λ définis exactement comme dans le cas du SLBW, d’après l’équation (185). Nous reconnaissons ensuite que σc, équation (191), n’est autre que l’approximation SLBW « à plusieurs niveaux ». Comme la matrice de collision du MLWB n’est pas unitaire, σc n’est toutefois pas la somme des sections efficaces partielles, d’après l’équation (192). L’approximation MLWB, telle que définie dans le format ENDF (cf. Rose et Dunford 1990) est même plus grossière, c’est en fait un hybride SLBW/MLBW : seule la diffusion élastique est réellement calculée dans l’approximation MLBW. Toutes les autres sections efficaces partielles sont calculées dans l’approximation SLBW (à plusieurs niveaux), et la section efficace totale comme somme de toutes les partielles. Cela évite que les sections efficaces deviennent négatives mais n’exclut nullement des pics de sections efficaces sans signification physique ni des minima, dus aux interférences, mal décrits pour des niveaux se recouvrant fortement. Pour des noyaux légers et intermédiaires et pour les actinides fissiles, l’approximation MLBW est de ce fait souvent inadéquate, alors qu’elle marche assez bien pour des noyaux composés avec des niveaux largement espacés et très 232 238 étroits tels que Th+n ou U+n. Notons que le calcul des sections efficaces dans le cadre de MLBW, d’après les équations (192) et (193), implique des doubles sommes sur les niveaux. Même avec les ordinateurs modernes, cela peut prendre du temps si des centaines de niveaux doivent être considérés, ce qui n’est pas si rare avec les fichiers d’évaluation modernes. Il est donc préférable de calculer les sections efficaces partielles directement à partir de la matrice de collision (c’est-à-dire des équations (152) et (190)) qui n’implique qu’une seule sommation sur les niveaux. Toutefois, pour l’élargissement Doppler, la représentation (192), (193) en fonction des profils de forme a des avantages ainsi que nous le verrons plus loin. 77 3.3.4 Expressions de Reich-Moore des sections efficaces Très souvent, un grand nombre de voies photon contribue à la somme ∑ c γ λc L0c γ µc intervenant dans la matrice inverse des niveaux A-1, cf. équation (160). Tandis que leurs contributions s’additionnent toutes avec le même signe dans les éléments diagonaux, elles tendent à s’annuler dans les éléments non diagonaux car si les amplitudes de décroissance ont un signe pratiquement aléatoire, elles ont des amplitudes comparables. C’est pourquoi l’erreur est assez faible si l’on néglige purement et simplement les contributions de toutes les voies photon dans les éléments non diagonaux, comme cela fut indépendamment proposé par Thomas (1955) et par Reich et Moore (1958). La matrice inverse des niveaux ainsi obtenue, l’équation (172), correspond évidemment à un problème aux valeurs propres où Eλ est remplacé par Eλ-iΓλγ/2, avec une matrice R « réduite » Rcc ’ = ∑ λ γ λc γ λc ’ , E λ − E − iΓλγ / 2 (c, c’∉ γ ) , (194) réduite dans le sens où elle est seulement définie dans un sous-espace de voies sans photon. Les seules traces des voies photons éliminées sont les largeurs radiatives totales, Γλγ, dans les dénominateurs. Une fonction R complexe semblable est rencontrée dans le traitement par la matrice-R du modèle optique (voir Fröhner 1996) qui suggère de considérer la partie imaginaire des dénominateurs de la matrice-R réduite et la partie imaginaire du potentiel complexe comme des conséquences différentes du même phénomène : l’absorption dans les états du noyau composé et la décroissance associée dans les voies exclues. De la matrice-R réduite, on obtient une matrice de collision réduite et, de là, comme d’habitude, les sections efficaces pour toutes les voies non photoniques retenues grâce aux équations (152) et (153). La matrice-R réduite est de rang faible, et donc l’inversion de 1-RL0 est aisée. En fait, le plus haut rang employé dans l’analyse des résonances neutroniques est jusqu’à présent de 3 (1 voie élastique, 2 de fission). Les cas de rang 2 impliquent 1 voie élastique plus 1 de fission ou 1 inélastique. Pour l’écrasante majorité des données de résonance neutronique, les seuls processus autorisés d’un point de vue énergétique sont la diffusion élastique et la capture radiative, pour lesquels des expressions de Reich-Moore à une voie, avec les fonctions-R plutôt que les matrices-R, 56 sont suffisantes. (L’ajustement des données de la section efficace totale de Fe, avec l’approximation de Reich-Moore à une voie, représenté sur la Figure 10 en est un exemple.) La section efficace de capture peut être obtenue à partir de [( ) −1 ] 2 Pc1 / 2 1 − RL0 Pc−’1 / 2 Γλ1c/ ’2 , σ cγ = πD g c ∑ Γλγ ∑ E λ − E − iΓλγ / 2 λ c ’∉γ 2 c (195) (cf. Reich et Moore 1958). Nous insistons sur le fait que cette approximation est exacte dans la limite de l’annulation des largeurs radiatives (plus généralement : l’annulation des largeurs pour les voies éliminées) où elle se réduit au formalisme général de Wigner-Eisenbud. Elle est également exacte pour un seul niveau puisque, dans ce cas, la matrice des niveaux A de Reich-Moore se ramène à la matrice des niveaux correspondante dans SLBW. Par ailleurs, s’il est également vrai que la matrice de collision réduite ne peut être unitaire – du fait des transitions entre les voies exclues – la matrice de collision globale peut toujours être considérée unitaire, c’est-à-dire qu’elle conserve le flux des probabilités, si bien que la section efficace de capture peut également être obtenue par la différence 78 σ cγ = σ c − ∑ σ cc ’ , (196) c ’∉γ avec σc calculée à partir des éléments de la matrice de collision réduite Ucc d’après l’équation (153). L’expérience a montré qu’avec cette approximation toutes les sections efficaces expérimentales dans le domaine des résonances pouvaient être décrites en détail, dans les fenêtres aussi bien qu’au niveau des pics, y compris les exemples d’interférences multiples entre les niveaux les plus étranges (voir figure 10). Elle marche tout aussi bien pour les noyaux légers, intermédiaires ou lourds, fissiles ou non. On croit souvent que l’approximation de Reich-Moore ne peut s’appliquer qu’aux noyaux fissiles, mais les voies conservées peuvent réellement être de tout type-voie élastique, inélastique, de fission, même des voies photon individuelles comme celles pour les transitions vers l’état fondamental ou des états métastables spécifiques. De plus, les programmes informatiques écrits pour le formalisme de Reich-Moore peuvent être utilisés pour les calculs de la matrice-R de Wigner-Eisenbud – on doit simplement mettre toutes les largeurs radiatives (largeurs de voies éliminées) égale à 0. On pourrait s’attendre à ce qu’avec tous ces avantages le formalisme de Reich-Moore soit le plus largement utilisé, mais ce n’est pas vrai. La raison principale est que les sections efficaces de Reich-Moore ne peuvent pas s’exprimer en tant que somme de profils de résonance de Breit-Wigner, tout au moins pas sans travail de préparation. C’est souvent considéré comme un désavantage pour les calculs d’élargissement Doppler. Nous verrons plus loin, toutefois, que ce n’est pas un problème aussi sérieux que certains le croient. Pour les spécialistes de l’analyse des résonances, la question de la supériorité de l’approximation de Reich-Moore sur les autres variantes simple ou multi-niveaux de la théorie de la matrice-R ne se pose pas. 3.3.5 Expressions d’Adler-Adler des sections efficaces -1 L’approximation (173) pour la matrice A est une généralisation de l’expression pour les ondes s utilisée par Adler-Adler (1970), une généralisation qui préserve la symétrie par rapport aux indices de niveau λ et µ. La diagonalisation de la matrice des niveaux A donne une matrice de collision de la forme de Kapur-Peierls, équations (172) et (173), mais avec des paramètres ελ et gλc qui ne dépendent pas de l’énergie, contrairement aux authentiques paramètres de Kapur-Peierls. Les expressions des sections efficaces correspondantes sont souvent exprimées non pas en fonction de voies particulières (c, c’, …), mais pour des types de réaction spécifique (x = f, γ,…, totale), en se limitant à l = 0 : 1 ( ) (G ψ ∑ ν E σ ≡ ∑ σc = σ p + 1 σ x ≡ ∑ ∑ σ cc ’ = 1 c∈n c∈n c ’∈x λ T λ − H λ(T ) χ λ , λ − H λ( x ) χ λ , λ 1 () (G ψ ∑ ν E λ ) λ λ x ) λ (197) (x = γ, f, …) ( où σp est la section efficace de diffusion potentielle, G λ( x ) / ν λ E (198) ) et ( H λ( x ) / ν λ E ) sont les sommes sur tous les coefficients de ψλ et χλ dans les équations (178) à (180), avec νλ ≡ Γλ/2 et E provenant de Pc(E). Les sommes sur λ se font sur les niveaux sans se soucier de la valeur de JΠ, avec les facteurs de spin inclus dans les coefficients G λ( x ) et H λ( x ) . Ces coefficients, ainsi que les énergies des niveaux µ λ ≡ E ’λ , les (demi-) largeurs νλ et les sections efficaces de diffusion potentielle σp 79 (ou un rayon effectif) sont les paramètres de Adler-Adler. En principe, on pourrait même les définir pour des mélanges isotopiques, en intégrant d’une façon similaire les abondances dans les coefficients. L’approximation (173) signifie principalement que la dépendance énergétique des décalages de niveaux et des largeurs totales sont négligées dans les dénominateurs des résonances. C’est pourquoi, l’approximation de Adler-Adler marche bien pour les noyaux fissiles, pour lesquels Γλ ≈ Γλγ + Γλf mais pas aussi bien pour les noyaux légers ou intermédiaires, pour lesquels Γλ ≈ Γλn = 2 Pc ( E )γ λ2n . 3.3.6 Conversion des paramètres de Wigner-Eisenbud en paramètres de Kapur-Peierls Les paramètres de Wigner-Eisenbud peuvent être convertis en paramètres de Kapur-Peierls de la manière suivante (Fröhner 1980). La matrice de collision doit être invariante par changement des ~ paramètres aux limites, par exemple de Bc = −l à Bc = L0c . (Nous allons utiliser la notation tilde ~ pour les quantités de Kapur-Peierls). L’équation (155) montre que cela implique que (1-RL0)-1R = R , ce qui, avec les abréviations ~ ~ K ≡ L01/2 RL01/2 K ≡ L01/2 RL01/2 , (199) donne (1 - K )−1 = 1 + K~ . (200) Les énergies de Kapur-Peierls des résonances solutions de ε ~ λ sont les pôles complexes de K , c’est à dire les det[1 - K (ε λ )] = 0 (201) car A-1 = C[A]/det(A) pour toute matrice non singulière A, où nous utilisons la notation det(A) pour le déterminant et C[A] pour la matrice des cofacteurs. Les résidus sont obtenus à partir de l’équation (200). En passant à la limite E → ε λ g λc g λc ’ = ~ ] ε ) du λ ε )]} / det[1 - K (ε )] , où le développement de Taylor det[1 - K ( E )] ≈ (E − ε ) tr{C[1 - K (ε )]K’ (ε )}. Les résidus au pôle ε côté droit, alors qu’à gauche on a {C[1 - K ( du déterminant donne sont donc [ /2 /2 , on obtient 1 + K (E ) cc ’ ≈ L01 g λc g λc ’L01 / (E − c c’ λ λ cc ’ λ λ {C[1 - K (ε λ )]}cc ’ , L0c (ε λ )L0c ’ (ε λ ) tr{C[1 - K (ε λ )]K’ (ε λ )} 1 λ λ (202) où tr réfère à la trace et K’ est la dérivée de K, K ’cc ’ (E ) = γ µc γ µc ’ ∂ 01 / 2 /2 Lc Rcc ’L01 ≈ L0c ( E )L0c ’ (E ) ∑ . c’ 2 ∂E µ (E µ − E ) (203) Nous savons donc calculer les résidus pour des pôles donnés, mais comment trouver les pôles correspondant à des paramètres de Wigner-Eisenbud donnés, c’est-à-dire comment pouvons nous résoudre l’équation (201) dont la simplicité apparente est trompeuse ? Fort heureusement, nous connaissons déjà l’approximation MLBW λ ≈ E λ + ∆ λ − iΓλ / 2 , voir l’équation (190). Nous ε 80 devons la considérer comme une proposition initiale à améliorer par itération. Pour trouver un schéma d’itération, nous écrivons le déterminant (201) sous la forme det (1 - K ) = 1 − tr K + F (K ) , (204) où-tr K + F(K) est la somme de det(-K) et de tous ces principaux mineurs (voir par exemple Korn et Korn 1968), en particulier F=0 F = det(-K) F = det(-K) + tr C[-K] pour 1 voie (élastique), pour 2 voies, pour 3 voies. Ensuite, nous extrayons le λ-ème terme de tr K, tr K (ε λ ) = ∑ µ 1 Eµ − ε λ ∑L γ 0 2 c µc c = ∆ − iΓµ / 2 ∆ λ − iΓλ / 2 +∑ µ , Eλ − ε λ Eµ − ε µ µ ≠λ (205) qui, avec l’aide de l’équation (204) nous permet de réécrire l’équation (201) sous la forme ε λ = Eλ + ∆ λ − iΓλ / 2 . ∆ µ − iΓµ / 2 1+ ∑ + F (ε λ ) Eµ − ε µ µ≠λ (206) Cette équation est pratique pour l’itération : en insérant l’approximation initiale MLBW dans le membre de droite, on obtient une valeur améliorée qui peut être réinsérée à droite, et ainsi de suite. Après quelques itérations, le résultat devient stable avec une précision raisonnable et peut être inséré dans l’équation (202) afin de donner les résidus. Une fois que tous les paramètres de Kapur-Peierls λ et gλc gλc’ sont connus, on peut les insérer dans les expressions de Kapur-Peierls des sections efficaces faisant intervenir les profils des résonances. ε La conversion des paramètres de Reich-Moore en paramètres de Kapur-Peierls fonctionne de la même manière, le seul changement étant que Eµ doit être remplacé partout par Eµ–iΓµγ/2, et Γµ par Γµ - Γµγ. La Figure 12 montre des sections efficaces calculées directement à partir des paramètres de Reich-Moore et à partir des paramètres de Kapur-Peierls après conversion. La conversion des Paramètres de Wigner-Eisenbud en ceux de Adler-Adler par inversion de matrice est possible, avec le code POLLA, par exemple (de Saussure et Perez 1969). 81 Figure 12. Vérification de la technique de conversion des paramètres expliquée dans la sous-partie 3.3.6 : les sections efficaces de Reich-Moore à 3 voies (croix) sont en accord avec les sections efficaces de Kapur-Peierls calculées à partir des paramètres de résonances convertis (ligne continue). (D’après Fröhner 1978) 3.4 Niveaux externes La théorie de la matrice-R montre que, dans un intervalle d’énergie limité, les sections efficaces ne dépendent pas seulement des niveaux « internes » de cet intervalle mais également des niveaux « externes » situés avant et après cet intervalle. Des problèmes surviennent dans l’ajustement des résonances et le travail de paramétrisation car sous le seuil de séparation du neutron ou du proton (E<0), les niveaux du noyau composé ne sont pas observables et par conséquent inconnus. Au-delà de l’intervalle analysé, les résonances peuvent encore être observables, mais elles sont de moins en moins bien résolues lorsque l’énergie augmente, car la résolution expérimentale se détériore tandis que la densité de niveaux et la largeur des résonances augmentent – tout ceci faisant que la distinction entre des résonances simple et des multiplets non identifiés devient progressivement plus difficile voire impossible. Si les niveaux externes sont omis, on ne peut ajuster les données expérimentales de manière satisfaisante. En particulier, pour les sections efficaces de diffusion et totales, on observera des effets de bord assez gênants et des problèmes au niveau de la section efficace de diffusion potentielle entre les résonances. Différentes méthodes ad hoc ont été développées par le passé afin de venir à bout des niveaux externes inconnus, allant de simulations à l’aide du « modèle de haie » ou de séquences (« échelles ») de résonances fictives échantillonnées par Monte Carlo en répétant périodiquement les niveaux internes avant et après l’intervalle de ces niveaux. Les parties suivantes présentent des méthodes plus fondées, testées avec succès et plus pratiques qui existent depuis plusieurs décennies mais ne sont pas aussi largement utilisées qu’elles le mériteraient. 82 3.4.1 Représentation statistique des niveaux externes Les librairies modernes de données nucléaires évaluées contiennent des paramètres pour des centaines de résonances par isotope. Des nombres aussi grands suggèrent de traiter statistiquement les niveaux plus éloignés si une section efficace doit être calculée à une énergie donnée. De plus, il y a toujours des nombres gigantesques de niveaux inconnus de part et d’autre du domaine des résonances résolues contribuant de manière notable à la matrice-R, en particulier à proximité des limites de ce domaine. Afin d’inclure ces niveaux au moins statistiquement, nous divisons la matrice-R (de Reich-Moore) pour une séquence de niveaux donnée (une valeur de JΠ) en une somme sur les niveaux inconnus (« éloignés » ou « externes ») et en une autre sur les niveaux connus (« locaux » ou « internes »), Λ Rcc ’ = Rcc0 ’ + ∑ λ =1 γ λc γ λc ’ , E λ − E − iΓλγ / 2 (207) et nous remplaçons les sommes sur les termes des niveaux éloignés par des intégrales, Λ γ λc γ λc ’ Rcc0 ’ = Σ − Σ λ λ =1 E λ − E − iΓλγ / 2 (208) E ’− E − i Γγ / 2 E +I / 2 ∞ dE ’ γ γ ≈ ∫ − ∫ , c c’ − ∞ E − I / 2 Dc (E ’− E )2 + Γγ2 / 4 où E et I sont la valeur centrale et la longueur de l’intervalle contenant les niveaux locaux, 1/Dc = 1/Dj est la densité des niveaux de spin J (et de parité donnée) qui est nécessaire pour l’approximation des sommes par des intégrales et Γγ est la largeur radiative moyenne. En particulier pour les noyaux lourds, la largeur radiative, somme de très nombreuses largeurs radiatives partielles, varie peu d’un niveau à l’autre, si bien que Γλγ ≈ Γγ . Puisque ( E ’−E ) >> Γγ2 / 4 , nous pouvons 2 négliger Γγ2 / 4 pour les niveaux éloignés dans la dernière expression. De plus, nous pouvons négliger les éléments non diagonaux de la matrice des moyennes γ c γ c’ du fait du signe pratiquement aléatoire des γλc. En utilisant la définition usuelle de l’intensité de pôle sc et de sa transformée de Hilbert, le paramètre des niveaux éloignés Rc∞ , sc ≡ où C ∫ +∞ −∞ γ c2 Dc , (209) +∞ s (E ’) Rc∞ ( E ) ≡ C ∫ dE ’ c , − ∞ E ’− E (210) indique une intégrale en valeur principale (de Cauchy), et en négligeant la (faible) variation de l’énergie de ces deux quantités dans l’intervalle interne, nous trouvons avec l’approximation de Reich-Moore i Γγ I / 4 E−E Rcc0 ’ (E ) = Rc∞ + 2 s c ar tanh + 2 I /2 I /4− E − E2 ( ) δ cc ’ . (211) La fonction cyclométrique ou fonction d’aire ar tanh x = (1/2) ln[(1+x)/(1-x)] (où ar signifie aire et non arc) est l’inverse de la tangente hyperbolique, également écrite de façon quelque peu abusive, 83 -1 tanh x ou arc tanh x. La contribution analogue des niveaux éloignés à la matrice-R générale de Wigner-Eisenbud est obtenue en mettant simplement partout Γλγ = 0 et Γγ = 0 : E−E Rcc0 ’ (E ) = Rc∞ + 2s c ar tanh δ cc ’ . I / 2 (212) Si l’intensité de pôle n’est pas considérée constante dans l’intervalle interne mais comme variant linéairement, la seule modification est que sc doit être interprétée comme sc( E ) et qu’un terme additionnel − s ’c E I apparaît, qui peut toutefois être incorporé dans Rc∞ . L’expérience a montré qu’il est d’ordinaire assez acceptable dans les ajustements de ne laisser varier que deux constantes, Rc∞ et sc. ( ) L’intensité de pôle sc est reliée à la fonction densité S l , couramment employée dans les études appliquées des résonances neutroniques, par 1 eV . E S l ≡ 2k c a c s c (213) Cela vient de la définition (historique) des largeurs neutroniques réduites comme étant les largeurs neutroniques à l’énergie de référence arbitraire de E r = 1 eV . Pour des résonances d’onde s, on a Γn0 = 2 P0 ( E r )γ 2n . La même convention fut utilisée par la suite également pour les résonances d’onde p, d, …, de sorte que les largeurs neutroniques réduites pour une seule voie c = {nJls} sont définies assez généralement comme étant Γnc = 2 P0 (E r )γ c2 . En moyennant et divisant par l’espacement moyen de niveaux Dc, on obtient avec P0 (E r ) = k c a c 1 eV / E la fonction densité S c = 2 P0 (E r )s c qui est le membre de droite de l’équation (213). Le modèle optique suggère, et les expériences le confirment, que l’on puisse prendre sc = sl , donc S c = S l que nous utilisons dans le membre de gauche. Le paramètre des niveaux éloignés Rc∞ (E ) est essentiellement la différence entre les contributions à la matrice-R provenant des résonances d’énergie inférieure et supérieure à E. Il est négatif si les niveaux d’énergie inférieure (y compris les niveaux liés) ont une force plus élevées que les niveaux d’énergie supérieure et positif dans le cas contraire. Autour de E, l’intégrand est pratiquement une fonction impaire de E’-E, si bien que les contributions des niveaux proches tendent à s’annuler. Par conséquent, la plupart des niveaux éloignés contribuent, d’où l’appellation, et les valeurs typiques sont faibles, Rc∞ << 1 . Dans les études appliquées des résonances neutroniques, le rayon nucléaire effectif, ( R ’c = a c 1 − Rc∞ ) (pour des voies d’ondes s), (214) est souvent utilisé à la place du paramètre des niveaux éloignés. La raison est qu’à basse énergie, la section efficace de diffusion potentielle apparaît modifiée par une contribution régulière des niveaux éloignés avec comme résultat ( σ cpot → 4πa c2 1 − R c∞ ) 2 = 4πR ’2 pour k c → 0 . 84 (215) Il fut conclu que les phases de sphère dure devaient être calculées comme des fonctions de k c R ’c plutôt que de k c a c mais ceci est faux, ne résistant pas à la première utilisation un tant soit peu rigoureuse et corrompant les formats ENDF. Le rayon effectif n’est bien défini et applicable que dans la cas limite des basses énergies et uniquement pour les ondes s. Pour des calculs précis de la section efficace totale et de diffusion au delà de l’énergie thermique, il faut utiliser le paramètre des niveaux éloignés comme le concept le plus fondamental et le plus valable d’un point de vue général. Il modifie la matrice-R et non le déphasage de sphère dure. Nous concluons que les paramètres initiaux issus des calculs du modèle optique, par exemple à partir des graphes de fonctions densité d’ondes s ou p et des rayons nucléaires effectifs donnés dans le « BNL-325 » (Mughabghab et al. 1981, 1984), peuvent être utilisés pour estimer la contribution des niveaux éloignés. Si on néglige cet aspect, on obtient des effets de bords anormaux à proximités des bornes de l’intervalle interne (avec les résonances données explicitement). 3.4.2 Représentations des termes de bord par deux larges résonances La représentation statistique des niveaux externes est assez commode pour paramétriser les sections efficaces, mais une représentation encore plus simple est obtenue en faisant l’approximation que les termes de « bord » dépendant de l’énergie (fonction d’aire) dans les équations 211 et 212 peuvent être décrits par les queues de deux résonances très larges de force égale, située symétriquement de part et d’autre de l’intervalle interne, Γγ E−E 2 s c ar tanh +i I /2 I E − E 2 1 − I / 2 −1 γ 2n γ 2n ≈ + . − − Γ / 2 − − Γ / 2 E E i E E i − γ + γ (216) Nous voulons fixer les paramètres E + − E = E − E − , γ 2n , et Γγ de manière à ce que le membre de droite deviennent semblable au membre de gauche. Un degrés de similarité suffisant est atteint, par exemple, si les deux membres ont des valeurs, des pentes (première dérivée) et des courbures (deuxièmes dérivées) égales à l’énergie centrale E . Les trois équations obtenues pour les trois inconnues peuvent être résolues rigoureusement. La solution peut ensuite être simplifiée en considérant Γγ << I , ce qui donne les approximations finales E± ≈ E ± Γn ± ≈ 3 I, 2 (217) E± 3 IS l , 2 1 eV (218) Γγ ≈ Γγ . (219) Leur insertion dans le membre de droite de l’équation (216) révèle qu’elles sont équivalentes aux ( ) ( )( ) approximations ar tan x ≈ 3 x / (3 − x ) et 1 / 1 − x 2 ≈ 3 3 + x 2 / 3 − x 2 . La figure 13 montre que les différences entre les fonctions originales et leur approximations sont faibles sur pratiquement tout 2 85 2 l’intervalle. À proximité des bornes, elles deviennent plus importantes, mais puisque les approximations restent finies, contrairement aux fonctions originales, ce n’est pas nécessairement mauvais pour nos études. L’expérience a montré que la représentation des niveaux externes par un paramètre de niveaux éloignés constant ainsi que par deux niveaux externes très larges placés symétriquement est acceptable pour les effets de bord dépendant de l’énergie et est une entrée adaptée à l’ajustement de résonance, aisément ajustable elle même (si nécessaire) avec les résonances internes. Dans le format ENDF actuel, il est trivial d’ajouter deux résonances supplémentaires, mais il n’y pas de place prévue pour le paramètre des niveaux éloignés. Il est par conséquent préférable de mettre sa valeur à zéro dans les ajustements de résonance orientés ENDF (ce qui signifie que R’c = a c à basse énergie, voir équation 214) et d’ajuster les deux grands niveaux indépendamment l’un de l’autre (en même temps que les résonances internes). Ainsi, l’un d’entre eux peut devenir plus fort que l’autre, ce qui produit le déséquilibre initialement décrit par le paramètre des niveaux éloignés. La figure 14 montre à quel point cette méthode fonctionne pour un ajustement récent de 52 données de transmission de Cr. Afin d’améliorer la rapidité du calcul des sections efficaces ponctuelles lorsqu’un très grand nombre de résonances est explicitement donné, on peut ne retenir que celles situées dans un intervalle limité autour de l’énergie considérée et laisser les autres être décrites sommairement par la partie des niveaux externes (211) de la matrice-R. L’introduction explicite de quelque chose comme 50 résonances en dessous et au dessus de l’énergie d’intérêt ( I ≈ 100 Dc ) est suffisant dans la plupart des cas. 86 Figure 13. Comparaison des fonctions décrivant les effets de bord. Lignes continues : niveaux externes moyennés statistiquement (membre de gauche de l’équation 216) ; en tirets : approximation par deux grandes résonances fictives (membre de droite de l’équation 216) 87 Figure 14. Données de transmission provenant de ORNL (Harvey 1995) ajustées par O. Bouland (1999) en utilisant le code SAMMY (Larson et Perey 1980). La prise en compte des niveaux externes par deux larges résonances fictives (avec Rc∞ = 0 ) semble suffisante pour une description correcte de la section efficace sur toute la longueur de l’intervalle interne jusqu’à la borne inférieure (et en fait également jusqu’à la borne supérieure), 45-1 400 keV 3.4.3 Niveaux liés étroits pour imposer les sections efficaces thermiques prescrites pour les niveaux liés La simulation des niveaux externes par le paramètre de niveaux éloignés ainsi que par le terme statistique de niveaux (fonction d’aire) pour les bords dans les équations (211) et (212) ou une paire fictive de larges résonances dont les paramètres sont donnés par les équations 217 à 219 est d’ordinaire insuffisante pour répondre, avec les niveaux internes connus, de la section efficace thermique qui, pour la plupart des noyaux, est connue avec une grande précision. Les sections efficaces thermiques données peuvent néanmoins être parfaitement reproduite en ajoutant juste un niveau fictif supplémentaire (Fröhner 1978, 1981). Considérons un noyau non fissile ( σ c = σ cc + σ cγ , Γ = Γn + Γγ ) pour lequel les paramètres de toutes les résonances internes sont donnés, ainsi que l’approximation statistique des niveaux Rcc0 pour la partie externe de la matrice-R. Ces paramètres, habituellement déterminés en ajustant les résonances internes sur les données, ne reproduiront pas exactement les sections efficaces thermiques, mais nous pouvons obtenir un excellent accord en ajoutant un niveau lié (négatif) ayant des paramètres appropriés. Aux énergies thermiques, seules les ondes s doivent être considérées, toutes 88 les autres résonances étant négligeables du fait des faibles facteurs de pénétrabilité Pl de la barrière centrifuge. En effectuant le choix naturel B0 = 0 , on a L0c = iϕ c = ik c a c , si bien que la fonction de collision de Reich-Moore pour chaque voie d’onde s (une pour une cible de spin nul, deux pour une cible de spin non nul) est U cc = e − 2ikc ac Γλn / 2 λ E λ − E − iΓλγ / 2 Γλn / 2 1 − i∑ λ E λ − E − iΓλγ / 2 1 + i∑ (c ∈ n) . (220) La somme se fait sur tous les niveaux d’onde s, aussi bien internes qu’externes, dont le spin et la parité est sous-entendue par c. Nous divisons maintenant la somme en trois parties à savoir la partie des niveaux internes ( λ = 1,2,...Λ ), la partie des niveaux externes Rcc0 calculée soit à partir de l’équation (211) soit à l’aide de deux résonances larges, d’après les équations (217) à (219), et enfin la partie du niveau lié supplémentaire ( λ = 0 ). Nous obtenons pour la troisième partie ( λ = 0 ) ∆ cc Λ iΓn / 2 iΓλn / 2 U cc − e −2ikc ac 0 ≡ = −∑ − ik c a c Rcc + . E 0 − E − iΓγ / 2 U cc + e − 2ik c ac λ =1 E λ − E − iΓλγ / 2 (221) Le membre de droite, identifié par ∆ cc , peut être calculé à partir des paramètres des résonances connues et des sections efficaces thermiques prescrites avec U cc σc = 1 − 2πD 2c g c σc σ cc ±i − 2 πD c g c 2πD 2c g c 2 , (222) d’après les équations basiques (152) et (153). En séparant les parties réelles et imaginaires de l’équation (221) on obtient Re ∆ cc = Im ∆ cc = − Γn Γγ / 4 (E − E 0 )2 + Γγ2 / 4 − ( E − E0 ) Γn 2 (E − E 0 )2 + Γγ2 / 4 < 0, (223) < 0 , pour E0 < 0, (224) et finalement E0 = E − Im ∆ cc Γγ , Re ∆ cc 2 (225) ∆ cc Γγ Γn =− . 2 Re ∆ cc 2 2 (226) 89 Avec seulement deux équations pour trois inconnues E0, Γn et Γγ, nous pouvons choisir l’une d’elle arbitrairement. La faible variation des largeurs radiatives d’une résonance à une autre suggère d’appliquer à Γγ la valeur de la largeur radiative moyenne des niveaux internes, Γγ = Γγ , (227) mais la reproduction exacte des sections efficaces dans le domaine thermique est également assurée avec d’autres choix. L’ambiguïté sur le signe dans l’équation (122) vient du fait que les sections 2 efficaces dépendent uniquement de Re U cc et de U cc . D’ordinaire, le signe plus peut être écarté immédiatement car il conduit à E 0 > 0 qui est contraire à l’hypothèse d’un niveau lié. Pour des noyaux fissiles par neutrons thermiques, on trouve que les équations (225) et (226), quoique n’étant plus rigoureuses, sont des approximations correctes au moins dans le cas où il n’y a pas de résonance très proche du domaine thermique, de sorte que σ c << 4πD 2c g c . Il y a maintenant une équation supplémentaire pour la largeur de fission, Γf 2 =− ∆ cf 2 Γγ Re ∆ cc 2 , (228) avec ∆ cf 2 ≡ σ cf Γλn Γnf / 4 Λ −∑ πD 2c g c λ =1 (E − E λ )2 + Γλ2 / 4 − S0 E Γ f E − E 1 − 1 eV I I / 2 −1 , (229) où σcf est la section efficace thermique de fission pour la voie d’entrée c. Pour un noyau cible de spin non nul, si les spins des résonances sont inconnus et que seul gΓn est connu pour les niveaux non liés, mais ni g ni Γn séparément, on obtient les équations E0 = E − Im ∆ nn gΓγ , Re ∆ nn 2 (230) ∆ nn gΓγ gΓn =− , 2 Re ∆ nn 2 2 gΓ f 2 =− ∆ nf 2 Re ∆ nn gΓγ 2 (231) , (232) avec Λ ∆ nn = −i ∑ λ =1 ( gΓn )λ / 2 E λ − E − iΓλγ / 2 − ikaR + 0 nn U nn − e −2ika U nn + e − 2ika 90 , (233) ( gΓn )λ Γλf / 4 − S0 2 2 λ =1 ( E λ − E ) + Γλ / 4 Λ ∆ nf = −∑ σf E , − 1 eV πD 2 (234) et U nn σ = 1 − ±i 2πD 2 (2kacoh ) σ − . 2 2πD 2 2 (235) Les sections efficaces totales et de fission directement observables à l’énergie thermique sont des sommes sur deux voies c d’onde s (avec les spins I+½ et I-½), σ c = c σ c et σ f = c c ’∈ f σ cc ’ . ∑∑ ∑ La valeur approchée des largeurs totales est prise comme étant Γλ ≈ (2 gΓn )λ + Γλγ + Γλf . Le terme 0 des niveaux externes R nn , c’est à dire les paramètres de niveaux éloignés, les fonctions densité et les largeurs radiatives moyennes sont supposés les mêmes pour les deux états de spin, et l’indice de voie de λ c et k c a été enlevé. De plus, nous utilisons la relation entre la longueur de diffusion cohérente acoh et les sections efficaces de diffusion élastique pour les deux états de spin, a coh = ∑ c g c σ cc . 4π (236) En se limitant à un état de spin (cible de spin nul, g λ = g c ) ou à un noyau non fissile ( σ f = 0, Γλf = Γ f = 0 ) on retrouve les équations précédentes. Avec les paramètres du niveau lié calculés analytiquement de cette façon, les sections efficaces ne sont pas seulement correctement reproduites à l’énergie thermique, E = 0.0253 eV, mais dans l’ensemble du domaine thermique en dessous de la première résonance. Il arrive cependant parfois que le niveau lié fictif soit plus proche du seuil de séparation du neutron que le premier niveau non lié (c’est à dire E 0 < E1 ). Bien que la courbe de la section efficace calculée de capture ou de fission passe par le point prescrit, elle ne présente un comportement normal en 1/v qu’en dessous de l’énergie « miroir » E 0 . Au niveau de cette énergie, la courbe acquiert un comportement en 1/v5 (avant que la résonance à E1 ne la fasse remonter). Les formules de Breit-Wigner simple niveau (183) et (185) permettent de l’expliquer : le comportement asymptotique à basses et hautes énergies dû à un niveau lié à E0 < 0 est le même que celui d’un niveau non lié à l’énergie miroir E 0 > 0 (voir Figure 15). Il est facile, toutefois, de rétablir une forme réellement observée en 1/v jusqu’à la première résonance non liée, sans changer pour autant les sections efficaces correctement calculées au point thermique, en augmentant tout simplement la largeur radiative (choisie arbitrairement) qui multiplie les autres paramètres de résonance, voir les équations (225), (226) et (230) à (232). Le point calculé de passage de 1/v en 1/v5 peut ainsi être décalé vers des énergies supérieures à E1 où il est sans effet car la contribution des autres résonances domine. 91 Figure 15. Section efficace de capture SLBW pour une résonance d’onde s liée et non liée, telle que décrite dans les équations (183) et (185), avec Γn ( E ) = Γn ( E 0 ) E E0 . Dans les deux cas, on observe le même comportement à basse et haute énergie 3.5 Élargissement Doppler Dans les applications pratiques, les sections efficaces sont la plupart du temps demandées sous forme élargie par effet Doppler. Il est parfois affirmé que l’élargissement Doppler peut être négligé pour les noyaux légers. Cela peut s’avérer vrai pour les larges niveaux d’onde s mais certainement pas pour les niveaux étroits d’ondes p, d, …, qui dans le cas de ce qu’on appelle matériaux de structure (fer, nickel, chrome, cobalt, manganèse, etc.) contribuent de manière significative à l’absorption résonnante et à l’activation. 3.5.1 Approximation du gaz libre L’élargissement Doppler dans les réactions nucléaires est dû à l’agitation thermique des noyaux cibles. Considérons un faisceau parallèle de particules mono-énergétiques, ayant une vitesse v dans le laboratoire, qui entre en collision avec des noyaux cibles dont les vitesses u sont distribuées de telle façon que p (u )d 3 u est la fraction des vitesses situées dans une petite région tridimensionnelle d 3 u autour de u dans l’espace des vitesses. Si ρ1 et ρ2 sont respectivement les densités des particules du faisceau et de la cible, le nombre de réactions intervenant par unité de temps et de volume est 92 ρ1ρ 2 ∫ d 3 u p (u ) v − u σ( v − u ) ≡ ρ1ρ 2 vσ(v ) , ( (237) ) où σ v − u est la section efficace non élargie pour une vitesse relative v − u entre les partenaires de la collision et σ (v ) la section efficace effective, ou élargie par effet Doppler, pour des particules incidentes de vitesse v. Il est évident, d’après cette définition, que les sections efficaces en 1/v ne sont pas affectées par l’élargissement Doppler. Supposons maintenant que les noyaux cibles aient la même distribution de vitesses que les atomes dans un gaz idéal, c’est-à-dire la distribution de Maxwell-Boltzmann u2 1 − 2 exp u π3 2 T p(u )d 3 u = d 3u 3 u T Mu T2 , ≡ kT 2 (238) où M est la masse du noyau cible et kT la température du gaz en unité d’énergie. En intégrant sur toutes les vitesses relatives possibles w ≡ v − u et en utilisant les coordonnées polaires avec l’axe polaire parallèle au faisceau, d 3 u = d 3 w = w 2 dw dµ dϕ avec µ = cos θ , on obtient facilement l’expression exacte pour la section efficace élargie par effet Doppler (Solbrig 1961) 2 w + v 2 w 2 dw w − v − exp − σ (v ) = σ(w) ∫ exp− u T v 2 π 0 u T u T ∞ 1 (239) w − v 2 w w 1 dw = ∫ exp− uT v 2 σ( w ). π 0 uT ∞ ( ) Cela signifie un élargissement Gaussien de la fonction impaire v v σ v sur une échelle de vitesse allant de -∞ à +∞, uT étant la largeur correspondant à cet élargissement. En fonction des énergies dans le laboratoire, E = mv 2 2 , on a 2 E + EE ’ 2 E ’ E − EE ’ σ (E ) = ∫ dE ’exp− ∆ / 2 − exp− ∆ / 2 E σ(E ’) , ∆ π0 1 ∞ (240) où ∆≡ 4 EkT M m (241) est appelée largeur Doppler. Pour E>>∆, ce qui est généralement vérifié au-delà de quelques eV, on peut simplifier en ne gardant dans les exponentielles que les deux premiers termes du développement EE ’ = E + ( E ’− E ) 2 + ... , en négligeant la seconde exponentielle et en changeant la limite inférieure de l’intégrale, mise à -∞. Le résultat s’écrit E ’− E 2 E σ (E ) = ∫ dE ’exp− ∆ E ’σ(E ’) , ∆ π −∞ 1 ∞ (242) qui traduit un élargissement Gaussien du taux de réaction sur l’échelle en énergie avec une largeur ∆. 93 3.5.2 Cristal cubique Lamb (1939) retrouva l’expression (241) pour la capture radiative de neutrons par des noyaux d’un cristal de Debye, dans le cas le plus important d’un point de vue pratique où Γ + ∆ > 4kTD , où TD, température de Debye, est la mesure des forces de liaison maintenant les atomes à leur position dans le cristal, fortes pour des atomes fortement liés et faibles pour des atomes faiblement liés. La seule différence entre un gaz idéal et un cristal de Debye est que l’on doit calculer la largeur Doppler non pas avec la température réelle T mais avec une température effective TL donnée par T TL = T TD 3 3 TD T 1 TD2 x ∫ dx x 3 coth = T 1 + + ... 2 0 2 20 T 2 (243) qui est habituellement-à température ambiante-plus grande de quelques pour-cents par rapport à T. Dans l’approximation de diffusion quasi-libre, on trouve le même résultat pour la diffusion et pour des cristaux cubiques en général (Fröhner 1970). La correction sous forme de fonction de TD/T est donnée graphiquement par Lamb (1939). Les problèmes avec la température de Debye pour des 238 cristaux contenant à la fois des noyaux légers et lourds-exemple : UO2 sont discutés par Lynn (1968). 3.5.3 Élargissement Gaussien avec profils de Voigt Dans la représentation de Kapur-Peierls, équations (178) à (180), toutes les résonances de sections efficaces apparaissent en tant que superpositions linéaires de profils de formes de raies symétriques et asymétriques (ainsi que d’une section efficace de diffusion potentielle lentement variable dans le cas de σc et σcc). Puisque les profils de forme contiennent les variation rapides, typiques des résonances alors que tout le reste varie lentement, nous obtenons une bonne approximation des sections efficaces élargies par effet Doppler en remplaçant simplement les formes de raies non élargies (« naturelles ») des expressions de Kapur Peierls par les profils élargis par une Gausienne introduits par Voigt (1912) ψλ = χλ = 1 ∆ π 1 ∆ π ∞ ∫ dE ’e − ( E ’− E )2 ∆2 −∞ ∞ ∫ dE ’e −∞ − ( E ’− E )2 ∆2 Gλ2 4 , ~ 2 E ’− E λ + G λ2 4 (244) (E ’− E~ )G 2 , (E ’− E~ ) + G 4 (245) ( ) λ 2 λ λ 2 λ ~ où ∆, E λ et Gλ doivent être pris à E’ = E. Cela signifie que toutes les faibles dépendances énergétiques sont localement négligées, sur l’intervalle (quelques largeurs Doppler) de la fonction de pondération Gaussienne, mais que leur effet à longue portée est totalement pris en compte. L’élargissement Doppler au moyen des profils de Voigt est populaire car il existe des sous-programmes rapides pour leur calcul (voir par exemple Bhat et Lee-Whiting 1967). Dans l’approximation de Adler-Adler, leur utilisation est directe. Dans les autres représentations, on doit d’abord convertir les paramètres de Wigner-Eisenbud en paramètres de Kapur-Peierls. Dans les ~ approximations SLBW et MLBW, c’est trivial : on a simplement E λ = E λ + ∆ λ , G λ1c2 = Γλ1c2 , G λ = Γλ (cf. équations 170-171). Dans l’approximation de Reich-Moore, on doit d’abord convertir par itération ainsi qu’expliquer dans la sous partie 3.3.6. C’est facile à programmer et n’augmente pas 94 significativement le temps de calcul, en particulier avec un algorithme rapide pour les élargissement Gaussiens. 3.5.4 Élargissement Gaussien avec la méthode de Turing Un algorithme rapide pour calculer des élargissements Gaussiens de fonctions ayant des pôles dans le plan complexe (fonctions méromorphes) fut proposé par Turing (1943). La fonction méromorphe la plus simple, avec un seul pôle, est la combinaison ψ + iχ des profils de résonance naturels que nous avons rencontrés dans les formules de résonance de la partie 3.3. La méthode de Turing est donc largement utilisée pour le calcul des profils de Voigt. Turing introduisit des pôles artificiels et équidistants le long de l’axe réel et appliqua une intégration de contour (voir par exemple Bhat et Lee-Whiting 1967) pour obtenir ψ + iχ = 1 ∆ ∞ δE e ( ∑ π − E n − E )2 ∆2 −∞ iΓ 2 En − E0 + i Γ 2 Γ e −( E − E0 +i Γ 2 ) ∆ + π P + F, ∆ 1 − e − 2 πi ( E − E0 + i Γ 2 ) δE 2 2 , (246) où δE est l’espacement (arbitraire) des pôles artificiels, E n = E + nδE est un point de la grille (pôle artificiel), et 0 P = 1 / 2 1 pour 2 E − E0 1 + F ≥ π Γ 2 2 1/ 2 > Γ 2 π∆ , = ∆ δE < 2π∆2 1 − ΓδE 2 −1 e −( π∆ δE ) (247) 2 1 − e − 2( π∆ δE ) 2 . (248) Nous reconnaissons que l’approximation de Turing consiste en (i) une approximation de l’intégrale par une simple somme avec une largeur de pas de δE, (ii) un terme impliquant l’énergie E 0 + i Γ 2 du pôle et un facteur discontinu P et (iii) un terme d’erreur F qui devient petit pour [ ] δE < ∆ du fait du facteur exp − (π∆ δE ) . Le terme polaire est une correction sur la somme, 2 seulement nécessaire au voisinage de pics étroits (pôles proche de l’axe réel) pour lesquels la longueur du pas de la somme approchée est trop grossière, mais négligeable ailleurs ainsi que le spécifie le facteur P. En choisissant δE ≈ 0.7 ∆ , on peut complètement négliger le terme d’erreur et -7 toujours obtenir une précision relative de l’ordre de 10 ou mieux (Bhat et Lee-Whiting 1967). En appliquant la méthode de Turing à chaque terme des expressions de Kapur-Peierls des sections efficaces (178) ou (179), on obtient E σ(E ) ≈ 1 N ∑ δE e ( ∆ π n=− N - E n − E )2 ∆2 E n σ( E n ) e −( E −ελ ) ∆ + π E Re∑ C λ Gλ Pλ , 1 − e −2 πi ( E −ελ ) δE λ 2 2 95 (249) où Cλ est le coefficient de ψ λ + iχ λ dans l’équation (178) (pour la section efficace totale) ou (179) (pour les sections efficaces partielles), et les facteurs Pλ sont semblables à P dans l’équation (226). Le premier terme du membre de droite est à nouveau l’approximation de l’intégrale par une somme. Dû au poids rapidement décroissant dans les ailes de la Gaussienne, seuls les termes de la somme tels que − 5 ≤ n ≤ 5 sont nécessaires pour obtenir la précision de 0.1% habituellement requise dans les applications courantes. De plus, la section efficace naturelle (non élargie) σ(E n ) peut être calculée directement, sans conversion, à partir des paramètres de Wigner-Eisenbud ou de Adler-Adler donnés dans les fichiers d’évaluation. Des doubles sommations ne sont pas nécessaires : les sections efficaces naturelles MLBW sont directement obtenues à partir de la matrice de collision (190), les sections efficaces de Reich-Moore à partir de la matrice-R réduite (194). Dans les deux cas, seules de simples sommations sur les niveaux sont nécessaires. Le temps de calcul nécessaire pour l’approximation en histogramme (première somme dans l’équation 250) est par conséquent pratiquement le même dans les quatre approximations : SLBW, MLBW, Reich-Moore et Adler-Adler. D’un autre côté, le terme polaire dans l’équation (249) demande des paramètres de Kapur-Peierls, mais uniquement pour des résonances étroites (valeurs de Pλ ne s’annulant pas) et à proximité de leur pic où les faibles dépendances en énergie peuvent être négligées. Les paramètres de Adler-Adler n’ont pas du tout besoin d’être convertis, pour ceux de SLBW et MLBW la conversion est triviale. C’est seulement dans l’approximation de Reich-Moore que l’on doit convertir par itération ainsi qu’expliqué dans la sous-partie 3.3.6, mais simplement à quelques énergies, plus précisément aux énergies formelles des résonances étroites. Le temps supplémentaire nécessaire pour cette préparation est seulement une petite fraction du temps total requis pour des calculs de vastes sections efficaces ponctuelles pour lesquels les gains de temps sont importants. La méthode de Turing peut bien évidemment s’appliquer non seulement à des élargissements Gaussiens sur l’échelle en énergie, équation (242), mais également à des élargissements Gaussiens sur l’échelle des vitesses (ou des quantités de mouvement) avec le modèle du gaz libre, voir équation (239). Dans ce dernier cas, il y a même un avantage supplémentaire : la largeur de la fonction de pondération Gaussienne ne dépend plus de l’énergie (ou de la quantité de mouvement) si bien que la pondération Gaussienne nécessaire (c’est-à-dire pour − 5 ≤ n ≤ 5 ) peut être déterminée une fois pour toutes avant même le début des calculs. Un autre avantage de la méthode de Turing est l’introduction d’une grille naturelle ne dépendant que de la température effective, qui est adaptée pour des calculs rapides de sections efficaces ponctuelles, créant automatiquement moins de points aux hautes énergies où les sections efficaces élargies sont moins structurées. Cette méthode est pratique non seulement pour l’ajustement de sections efficaces, comme on le pense parfois, mais de manière assez générale dès que des sections efficaces ponctuelles multi-niveaux élargies sont demandées. Le programme DOBRO (Fröhner 1980) a été écrit d’après ce qui précède. En employant le modèle du gaz libre exact, il génère des sections efficaces MLBW ou de Reich-Moore élargies par effet Doppler presque aussi rapidement que des sections efficaces SLBW à partir de paramètres donnés. L’idée la plus importante n’est pas les profils de Voigt par eux-mêmes, mais plutôt la meilleure méthode pour les calculer – la méthode de Turing – à appliquer directement aux expressions des sections efficaces multi-niveaux. 3.5.5 Elargissement de données ponctuelles tabulées et linéairement interpolables Une méthode largement utilisée pour générer des sections efficaces dans le domaine des résonances élargies par effet Doppler est de partir de sections efficaces naturelles σk données et d’énergies Eκ telles que pour chaque énergie intermédiaire E une interpolation est possible, 96 σ( E ) = (E − E k )σ k +1 + (E k +1 − E )σ k (E k E k +1 − E k ≤ E ≤ E k +1 ) (250) avec une certaine précision spécifiée. La variation linéaire en énergie se traduit par une variation quadratique en fonction de la vitesse, σ(v ) = a k + bk v 2 , (251) où ak et bk sont des coefficients constants. Les tables de sections efficaces ponctuelles linéairement interpôlables sont courantes dans les fichiers de données nucléaires évaluées. Par insertion dans l’équation (239), on obtient ∞ σ (v ) = ∑ ∫ k 0 [ dw w 2 −( w −v )2 e uT v 2 uT2 − e −(w+ v ) 2 uT2 ](a k ) + bk w 2 . (252) Chaque terme de la somme correspond à une portion linéaire de la représentation de la section efficace. En effectuant le changement de variable x = (w − v ) u T , nous trouvons que pour chaque terme de la somme nous avons besoin des intégrales 2 ∫ π xk +1 xk dt e −t t n = I n ( x k ) − I n ( x k +1 ) pour 2 n = 0,1,2,3,4 (253) avec I n (x ) ≡ 2 ∫ π ∞ x dt e −t t n = 2 1 π e − x x n −1 + 2 n −1 I n−2 (x) . 2 (254) I0 et I1 sont calculables facilement et ainsi les autres peuvent être obtenues à partir de la dernière relation de récursion (résultant d’une intégration partielle) : I 0 ( x ) = erfc x, I 1 (x ) = 1 π , I 2 (x ) = 1 1 − x2 erfc x + e x, 2 π 1 − x2 2 I 3 (x) = e x +1, π 3 1 − x2 3 3 I 4 ( x ) = erfc x + e x + x . 4 4 π ( (255) ) C’est l’idée de base du code SIGMA1 (Cullen et Weisbin 1976). Il faut noter qu’en dépit du titre de la publication, la méthode n’est pas exacte puisque l’interpolation linéaire entre les sections efficaces tabulées est une approximation qui introduit une erreur. (Dans les fichiers d’évaluation modernes, des écarts relatifs jusqu’à 0.5% ou dans le meilleur des cas 0.1% sont admis entre chaque portion linéaire). Il faut également réaliser que les exponentielles et les fonctions d’erreur doivent être 97 calculées pour chaque portion linéaire de la représentation de la section efficace. Si les sections efficaces σk ne sont pas données mais doivent d’abord être calculées, le code SIGMA sera définitivement plus lent et dans les cas moins précis que l’approche de Turing, et le choix d’une grille irrégulière permettant l’interpolation avec une précision voulue, avec un minimum de points de grille, peut être problématique, alors que la méthode de Turing fournit automatiquement une grille adaptée. 3.6 Analyse pratique des sections efficaces expérimentales dans le domaine des résonances Nous avons mentionné dans la partie 2 que la meilleure détermination des sections efficaces à partir de données expérimentales s’obtient par l’extraction des paramètres de résonance. En fait, toutes les sections efficaces dans le domaine des résonances résolues qui sont utilisées dans les calculs de réacteurs et autres applications sont générées à partir des paramètres de résonances. On pourrait se demander pourquoi ne pas utiliser directement les meilleures sections efficaces mesurées avec une haute résolution et ainsi éliminer la nécessité d’extraire des paramètres de résonance. Il y a plusieurs raisons pour lesquelles la détermination des paramètres de résonance ne peut être évitée si les réactions résonnantes doivent être décrites et prédites avec prédiction. 1. permet de représenter la structure souvent incroyablement détaillée des sections efficaces par comparativement peu de nombres. 238 Exemple : Le nombre de résonances actuellement analysées du système composé U+n est de l’ordre de 1 000. Si la fission sous le seuil est négligée, elles sont décrites par Les paramètres de résonance suivis de l’utilisation d’une théorie des résonances nous environ 4 000 paramètres (E0, Γn, Γγ, JΠ) alors qu’une représentation ponctuelle, ayant une précision 4 raisonnable, des sections efficaces de diffusion et de capture requerraient 5⋅10 données 5 ponctuelles soit 10 nombres. Si l’on considère également les distributions angulaires et les différentes températures, on obtient facilement plusieurs millions de données ponctuelles qui 238 seraient nécessaires pour décrire le comportement de U dans un réacteur. 2. L’élargissement Doppler des résonances pour des températures arbitraires ne peut être calculé rigoureusement qu’à partir de paramètres de résonance et non de données ponctuelles. 3. Les paramètres de résonance et le formalisme de la matrice-R garantit l’accord avec des contraintes physiques telles que limites unitaires de la section efficace dans chaque voie de réaction ( 0 ≤ σ c ≤ 4πD 2c g c ) ou limite de Wick pour la diffusion vers l’avant ( dσ cc (0 ) dΩ ≤ σ c2 (4πD c )2 ). 4. Un autre accord est plus subtil mais, d’un point de vue pratique, au moins aussi important, particulièrement pour les calculs d’auto-protection. La théorie nous dit qu’il y a une relation stricte entre les formes de raie dans une voie de réaction et la forme de raie correspondant au même niveau du noyau composé dans les autres voies. Cette relation est vérifiée si les sections efficaces sont générées de façon cohérente à partir des paramètres de résonance, alors que pour des jeux de données expérimentales, une échelle commune en énergie est toujours problématique. 98 5. Au moins tout aussi important est le fait que même les meilleures mesures sont affectées par la résolution expérimentale, l’effet Doppler et (exception faite des données de transmission) par l’auto-protection et les diffusions multiples. La seule manière rigoureuse de corriger ces effets est une paramétrisation sur tout le domaine par ajustement de courbes théoriques sur les données. Les quantités ajustées ne devront pas être un genre de données réduites ressemblant aux sections efficaces, telles que valeurs logarithmiques de la transmission, mais les observables elles-mêmes, par exemple les transmissions, les taux de capture, de fission ou de diffusion. Les élargissement dus à la résolution expérimentale ou à la température, l’auto-protection, les diffusions multiples, les impuretés dans l’échantillon et les autres effets doivent donc être inclus dans le modèle théorique. 6. L’extrapolation dans le domaine des résonances non mesurées ou non résolues par des calculs de section efficace avec le modèle statistique des niveaux (Hauser-Fesbach) requiert des paramètres statistiques tels que densités de niveaux ou fonctions densité. Ceux-ci doivent être estimés à partir des paramètres des résonances résolues. 7. Afin de comprendre la plupart des problèmes pratiques rencontrés lors de l’ajustement, passons en revue, avec quelques détails, les principaux types de données expérimentales dans le domaine des résonances qui doivent être modélisées par des algorithmes d’ajustement. Les observables sont des fonctions ou fonctionnelles plus ou moins compliquées des sections efficaces, plutôt que les sections efficaces elles-mêmes. 3.6.1 Les observables Comme nous l’avons déjà mentionné dans la partie 2.1, la mesure la plus simple est celle de la section efficace totale σ. On mesure la fraction d’un faisceau de particules d’énergie donnée qui traverse sans interaction un échantillon d’une épaisseur n (en noyaux/barn). T = e − nσ . (256) La section efficace totale est donc proportionnelle au logarithme de l’observable. Les taux de réaction (n,x) Yx (x = f, γ, n’, p, α, …), c’est-à-dire la fraction des particules du faisceau induisant une réaction (n,x) dans l’échantillon, est une somme de contributions d’événements où la réaction (n,x) est précédée de 0, 1, 2, … diffusions, Y x = Yx 0 + Y x1 + Y x 2 + ... . (257) avec 99 σx , σ σ σ Yx1 = (1 − T ) n (1 − T1 ) x1 σ1 σ Yx 0 = (1 − T ) Yx 2 = (1 − T ) σn σ , . 1 (1 − T1 ) σ n1 (1 − T2 ) σ x 2 σ1 σ2 (258) , 2 1 etc. L’indice numérique indique le nombre de collisions précédentes de sorte que 1-T1, par exemple, est la probabilité qu’après la première collision le neutron diffusé interagisse à nouveau quelque part dans l’échantillon. Les parenthèses , 2 , ... traduisent des moyennes spatiales et angulaires sur 1 toutes les premières, deuxièmes, etc. collisions possibles. À chaque collision élastique, l’énergie du projectile passe de E à E ’= E A 2 + 2 Aµ c + 1 (259) ( A + 1)2 si la particule cible est initialement au repos. Ici µc est le cosinus de l’angle de diffusion dans le centre de masse et A est le rapport de masse entre le projectile et la cible. Notons que dans le domaine des résonances, de petites variations d’énergies peuvent entraîner des variations dramatiques de la section efficace. Les taux de collisions multiples Y x1 , Y x 2 , ... sont donc des fonctions de plus en plus complexes des sections efficaces σx, σn et σ. Si la diffusion inélastique est autorisée d’un point de vue énergétique, alors les parenthèses etc. comprennent également les moyennes sur les différents 1 modes possibles de diffusion (réactions résiduelles). L’approximation d’échantillon mince, Y x = nσ x si nσ << 1 , (260) est souvent suffisamment précise pour les taux de fission puisque les échantillons fissiles doivent être extrêmement fins afin que les fragments de fission signalant la réaction (n,f) puissent en sortir. Dans l’analyse des données de capture, d’un autre côté, on doit habituellement inclure le facteur d’auto-protection (1 − T ) nσ et les contributions des diffusions multiples car la faible absorption des photons signalant des événements (n,γ) permet aux expérimentateurs d’augmenter les taux de comptage en utilisant des échantillons épais. Les effets de l’épaisseur de l’échantillon, c’est à dire auto-protection et diffusions multiples, sont également importants dans les mesures de diffusion. En analogie avec les équations (257) et (258), nous avons dYn = dYn1 + dYn 2 + dYn 3 + ... . (261) avec 100 1 − T dσ n T1 1 dΩ σ dΩ 1 − T1 dσ n1 1−T = σn T2 σ σ1 dΩ1 dYn1 = dYn 2 dYn 3 = dΩ 2 . 1 1 − T1 1 − T2 dσ n2 1−T σn σ n1 T3 σ σ1 σ 2 dΩ 2 (262) dΩ 3 2 1 etc. où dΩ est l’élément d’angle solide couvert par le détecteur. À la suite de notre discussion sur les taux de réactions, il devrait être clair que, à moins d’échantillons très minces, l’extraction des sections efficaces (n,x) à partir des taux (n,x) fait également intervenir la section efficace totale. De manière assez générale, on peut dire que les données de section efficace totale sont une condition préalable pour une bonne analyse des sections efficaces partielles. Un autre type de données, intéressantes en particulier pour des tests de statistique de niveaux dans le domaine des résonances non résolues, est obtenu par des mesures d’auto-indication. On place deux échantillons dans le faisceau, un échantillon filtre (épaisseur n1) et un échantillon détecteur (épaisseur n2), tous deux constitués de la même matière. La probabilité qu’un faisceau de particule induise une réaction (n,x) dans le second échantillon est S x (n1 , n 2 ). = T (n1 )Y x (n 2 ) . (263) De cette façon, on mesure essentiellement la transmission de l’échantillon filtre avec un système de détection dont l’efficacité est augmentée au niveau des pics des résonances (au niveau des creux de transmission). Idéalement, l’analyse des paramètres de résonance se base sur des mesurées avec des échantillons isotopiquement purs et procède plus ou moins de la manière suivante : 1) Des données de transmission, on détermine fondamentalement E 0 , Γn , Γ, g E 0 , gΓn pour l = 0 , pour l ≥ 0 . 2) Les résultats de transmission permettent de calculer les corrections d’échantillon épais pour les données de taux de réaction (n,x) à partir desquelles on obtient fondamentalement E 0 , Γx E 0 , gΓx si Γn et g sont connus, si seul gΓn est connu. 3) Si les données de transmissions ne sont pas disponibles (les niveaux d’onde p, d, … ne sont pas facilement visibles dans les mesures de transmission) on obtient uniquement E 0 , gΓn Γx Γ si seul gΓn n’est pas connu. 101 Dans les cas moins idéaux, il y a des complications provenant d’impuretés dans les échantillons, le plus souvent d’autres isotopes du même élément dans les matériaux enrichis, la présence d’oxygène dans les oxydes ou due à la corrosion, mais également de l’hydrogène provenant de vapeur d’eau absorbée. D’autres complications expérimentales inévitables sont brièvement décrites dans la sous-partie suivante. 3.6.2 Complications expérimentales Les bruits de fond sont une source principale des incertitudes dans l’analyse des résonances. Dans les mesures de temps de vol, il y a toujours deux types de bruit de fond : constant et dépendant du temps. Les bruits de fond constants peuvent être dus à la radioactivité de l’échantillon et de son environnement ou à des rayons cosmiques. Les bruits de fond dépendant du temps sont induits par les impulsions de l’accélérateur ou par des effets provenant de l’échantillon. Un exemple est le bruit de fond provoqué par des neutrons diffusés par les résonances dans les mesures de transmission ou de capture neutronique par temps de vol. Dans ce bruit de fond, la structure résonnante de la section efficace de diffusion se reflète, et par conséquent il présente des fluctuations violentes en fonction du temps de vol (ou de l’énergie). Cette influence de l’échantillon rend souvent les déterminations du bruit de fond « sans échantillon » discutables. C’est pourquoi, on utilise des écrans « noirs », des échantillons spéciaux placés devant l’échantillon étudié. L’écran noir idéal possède un petit nombre de résonances très espacées et est suffisamment épais pour qu’au niveau des creux correspondant (les pics des résonances noires) toutes les particules du faisceau soient éliminées et que seul le bruit de fond soit observé durant l’expérience en cours. Bien sûr, aucune donnée ne peut être mesurée au niveau des résonances noires, aussi utilise-t-on plusieurs écrans complémentaires. Les écrans noirs sont une amélioration par rapport à la détermination du bruit de fond sans échantillon, mais n’éliminent pas complètement les problèmes engendrés par la présence de l’échantillon. L’élargissement par la résolution expérimentale est une autre source de complications. Toutes les données expérimentales sont élargies par la résolution. Les vraies observables sont T (E ) = ∫ dE ’r (E ’, E )T ( E ) , (264) Y x (E ) = ∫ dE ’r (E ’, E )Y x (E ) , (265) etc., où dE’r(E’,E) est la probabilité qu’un événement observé à l’énergie E (ou au temps de vol correspondant) soit réellement dû à une particule du faisceau ayant une énergie E’ à dE’ près. Les principales raisons de l’écart E-E’ dans les données de temps de vol sont • Largeur finie de l’impulsion de l’accélérateur (tb). • Largeur finie du canal de temps de vol (tc). • Dérive électronique, « jitter » (td). • Incertitude sur le point de départ de la base de vol (par exemple dans le modérateur ou le « booster ») et sur le point d’arrivée (par exemple dans l’échantillon ou le scintillateur en verre au lithium) (∆L). • Résolution angulaire finie (∆θ). 102 La fonction de résolution r(E’,E) est souvent approximée par une Gaussienne, r ( E ’, E ) = 1 W π e −( E ’− E ) 2 W2 (266) avec, par exemple (Fröhner et Haddad 1965), ∆L 2 E 2 2 2 + + W = 2 E 2 t t t + b c d 3mL2 L ( ) 12 = E c1 + c 2 E . (267) En variant légèrement c1 et c2, on peut améliorer l’ajustement mais, généralement, la vraie fonction de résolution possède des queues et les Gaussiennes doivent être remplacées par d’autres fonctions asymétriques telles que fonctions χ2 (Fröhner 1978) ou des Gaussiennes avec des queues. L’efficacité des détecteurs et le flux sont une troisième source importante d’incertitudes pour les mesures de sections efficaces partielles où les observables sont des taux de comptages, c = ϕYx ε (≈ ϕnσ x ε si nσ << 1) . (268) La détermination absolue du flux ϕ et de l’efficacité ε est difficile et est donc évitée dès que possible. Souvent, on mesure relativement à un échantillon de référence (indice r) dans le même flux afin d’obtenir Yε c = x c r Yr ε r nσ x ε ≈ nσ << 1, n r σ r << 1 , nr σ r ε r (269) où Yr est connu avec une bonne précision. Cela enlève la nécessité de connaître le flux mais on peut toujours avoir des problèmes avec n/nr et ε/εr comme le montre l’approximation d’échantillon mince. Si la dépendance en énergie de ε/εr est connue, on peut calibrer en se normalisant sur une valeur de section efficace connue avec précision, par exemple une section efficace au point thermique. Si aucune valeur n’est suffisamment connue, on peut souvent utiliser la technique de la résonance saturée (« échantillon noir »). On utilise un échantillon spécial qui est suffisamment épais pour qu’une résonance bien connue ait une transmission très faible. De manière assez générale, on a (1 − T ) σx < Yx < 1 − T . σ (270) Du fait que c = ϕY x ε , on obtient au pic de la résonance, E = E0, où l’échantillon est noir, T ≈ 0 , c < εϕ < c σ( E 0 ) . σ x (E 0 ) (271) Si σ(E 0 ) ≈ σ x (E 0 ) (c’est à dire Γ ≈ Γx ) ceci définit, sans autre calcul, une valeur assez précise de εϕ. La résonance à 4.91 eV de Au+n , par exemple, a fréquemment été utilisée de cette manière pour la normalisation par résonance saturée des données de capture. De sérieux problèmes sont rencontrés si l’efficacité du détecteur varie d’un isotope à l’autre, ou même pire, d’une résonance à 197 103 l’autre. Cela a été une source persistante de difficultés pour les mesures de capture. Ici, la réponse du détecteur dépend du spectre gamma (énergie de liaison, intensité de transition vers les niveaux peu liés, etc.) qui fluctue d’un niveau à l’autre de manière imprévisible, particulièrement dans le cas des noyaux légers et intermédiaires. Le problème ne peut être surmonté qu’à l’aide d’imposants scintillateurs liquides ou cristallins qui entourent l’échantillon dans une géométrie 4π et absorbe la plupart des rayons gamma de capture. L’auto-protection et les diffusions multiples affectent principalement les données de capture et de diffusion neutroniques. Comme le montrent les équations (257)-(258) et (261)-(262), les deux effets sont interdépendants et ne peuvent être traités séparément. Ils sont tous deux considérés comme des effets d’épaisseur d’échantillon. Un traitement analytique n’est pas possible dans le domaine des résonances résolues du fait des brusques variations des sections efficaces de diffusion et de capture ainsi que de la nécessité de décrire les données en détail et non pas en terme de moyennes. Le seul moyen valable est la simulation Monte Carlo de l’histoire des collisions multiples des neutrons basée sur une description détaillée des résonances des sections efficaces, sur les distributions de probabilité appropriées pour les libres parcours et les angles de diffusion, et sur la géométrie exacte de l’échantillon (cf. Fröhner 1989 pour plus de détails). La faisabilité de simulations Monte Carlo directes des effets d’épaisseur d’échantillon dans l’ajustement des résonances de capture fut démontrée avec le code FANAC (Fröhner 1978). 3.6.3 Attribution de spin et de parité L’algorithme conventionnel d’ajustement par moindres carrés utilise des dérivées (sensibilités), et donc n’est directement applicable qu’à des distributions de probabilités continues. Par conséquent, la détermination des paramètres de résonance par des ajustements par moindres carrés non linéaires ne peut s’effectuer que pour les énergies et largeurs des résonances pour lesquelles existe un continuum de valeurs possibles tel que les dérivées pour itérations de Newton-Raphson puissent être calculées. Les spins et les parités ayant des valeurs discrètes ne disposent pas de dérivées. On pourrait imaginer une généralisation combinant la méthode des moindres carrés avec des distributions de probabilité discrètes, mais dans des analyses de résonances impliquant des dizaines ou mêmes des centaines de niveaux, le nombre possible de combinaisons spin-parité, pour lesquelles les moindres carrés doivent être entrepris, est rebutant. C’est pourquoi, une première attribution des spins et des parités est d’ordinaire basée sur l’étude des données de transmission. La plupart des résonances d’onde s sont facilement reconnaissables car les importantes interférences entre les diffusions résonnantes et potentielles les rendent relativement asymétriques (voir figure 11), alors que les résonances d’ondes p et d tendent à être plus étroites et symétriques du fait de la faible valeur des sections efficaces de diffusion potentielle et des pénétrabilités de la barrière centrifuge aux basses énergies. Un premier rangement grossier par catégorie de ces niveaux étroits, dont on ne connaît que gΓn par l’analyse de la transmission, peut se baser sur la valeur moyenne attendue des largeurs neutroniques. Si les valeurs attendues gΓn lJ pour les combinaisons possibles (l, J ) sont données, on peut calculer les probabilités correspondantes pour (l, J ) au moyen du théorème de Bayes (Bollinger et Thomas 1968). L’a priori est proportionnel à la densité des niveaux de spin J et parité Π = (− ) qui peut être l considérée comme indépendante de la parité : ρ lJ = ρ J . Avec l’approximation grossière ρ J ∝ 2 J + 1 , on obtient, par exemple, des densités de niveaux d’ondes s, p, d dans les proportions 1 :3 :5 si le spin de 104 ∑g la cible est nul (voir la colonne dans le tableau 2). La fonction de vraisemblance est donnée par J la distribution de Porter et Thomas (voir Chapitre 4, ci dessous) e − x x ν 2 dx p(gΓn l, J )d ( gΓn ) = , ν x Γ 2 lJ () où Γ ( ) est une fonction gamma et ν ν 2 lJ 0 < x lJ ≡ ν lJ gΓn < ∞, 2 gΓn lJ (272) le nombre de spins de voie (1 ou 2) qui peuvent être combinés avec l pour donner J (cf. équations 139-140 et le tableau 2). Puisque dx/x ne dépend pas de l ou J, la probabilité a posteriori en résultant est P(l, J gΓn ) = [ ρ J e−x xν 2 ∑ ρ [e J l, J −x x ] lJ ν 2 ] , l = 0,1,2,..., l − I −1 2 ≤ J ≤ l + I +1 2 , (273) lJ où I est le spin de la cible. Les largeurs moyennes font intervenir des produits entre les espacements de niveaux D J = 1 ρ J et les fonctions densités S l , gΓn lJ = g J ν lJ D J S l E 1 eV v l ( E ) . (274) Les estimations des largeurs moyennes peuvent donc être basées sur les espacements moyens observés et sur les fonctions densités S l observées ou du modèle optique. Les fonctions v l ≡ Pl / P0 (avec P0 = ka ) sont les pénétrabilités relatives de la barrière centrifuge, égale à 1 pour l’onde s. Pour les autres ondes partielles, on a v l ≈ (ka ) 2l [(2l − 1)!!]2 si ka << l(l + 1) (c’est-à-dire à basse énergie). Cela signifie que dans le domaine des résonances, seules les ondes partielles avec l = 0, 1, 2 et (au plus) 3 doivent être considérées. Les autres sont effectivement supprimées par des barrières centrifuges élevées. Une attribution de spin et parité, fondée purement et simplement sur la comparaison de la largeur observée par rapport aux largeurs moyennes estimées est, bien entendu, purement probabiliste, à réviser si de nouveaux éléments apparaissent tels que des minima caractéristiques des interférences d’onde s dans la section efficace totale. L’information réelle sur le couple spin-parité est fournie par les données de diffusion puisque les distributions angulaires diffèrent de façon marquée pour les niveaux s, p et d. Habituellement, on compare des distributions angulaires calculées par avance pour des résonances isolées avec celles observées. En pratique, les résonances sont toutefois rarement isolées et interfèrent avec les autres niveaux de même spin et parité. De plus, les distributions angulaires présentent des interférences même entre des ondes partielles différentes, par exemple entre les amplitudes d’onde s et p. Un certain nombre d’essais et d’erreurs sur les spins et les parités ne peut donc être évité durant la phase initiale d’ajustement des résonances, même dans le cas idéal où existent des données doublement différentielles de haute résolution. Les effets des interférences deviennent de plus en plus gênants lorsque l’énergie augmente et l’analyse des résonances résolues doit éventuellement être remplacée par l’analyse de la section efficace moyenne ainsi que nous allons en discuter dans le chapitre suivant. 105 4. THÉORIE STATISTIQUE DES RÉSONANCES POUR LE DOMAINE NON RÉSOLU Nous avons déjà commencé à utiliser la statistique des résonances lorsque nous avons estimé la contribution des niveaux externes (« éloignés ») à la matrice-R dans la sous-partie 3.4.7. Nous allons maintenant l’appliquer de manière systématique au domaine des résonances non résolues, ainsi qu’on l’appelle, où la résolution expérimentale limitée ne permet que d’observer des moyennes de résonances, ressemblant à des sections efficaces lisses alors que des résonances existent et se font sentir au travers de phénomènes tels qu’absorption dépendant de la température et auto-protection. Les sections efficaces moyennes, les carrés des fluctuations moyennes (variances) et autres fonctions des sections efficaces, telles qu’atténuation du faisceau ou auto-protection dépendant de la température, peuvent être prédites au moins par les probabilités si on connaît la statistique des résonances non résolues, en particulier les distributions de probabilité de leurs espacements et de leurs largeurs partielles. Le Modèle Statistique des réactions nucléaires (et atomique), avec résonances, apparût dans les années 50 (voir Porter 1965, pour les publications majeures). Il est basé sur la théorie des probabilités des matrices hamiltoniennes, c’est-à-dire sur les distributions de probabilité conjointe (« ensembles ») de leurs éléments de matrice ayant pour contrainte leurs symétries et autres caractéristiques globales. Il a été établi que l’Ensemble Gaussien Orthogonal des matrices symétriques réelles introduit des distributions théoriques de largeurs partielles et d’espacements de niveaux, en accord avec celles observées. Les expressions analytiques des sections efficaces, en terme d’espacements moyens des niveaux et de largeurs partielles moyennes, pourraient être d’abord déduites pour les sections efficaces totales moyennes tandis que les expressions trouvées pour les sections efficaces partielles sont approximatives, valables uniquement pour des résonances bien séparées, ne se recouvrant que faiblement. Le cas des recouvrements importants entre les niveaux, appelé problème de Hauser-Feshbach, ne fut résolu qu’en 1985. 4.1 Statistique des niveaux Nous commençons par les bases de la statistique des niveaux, en particulier par les distributions (locales) des paramètres de résonance de la matrice-R, les énergies Eλ des niveaux et les amplitudes de voie γλc. 4.1.1 Hypothèse de Porter et Thomas Les amplitudes de décroissance γλc de la théorie de la matrice-R sont essentiellement des valeurs des fonctions propres radiales internes pour la voie d’entrée, représentant le recouvrement de la λ−ème fonction propre et de la fonction d’onde externe (« voie ») pour la même valeur du rayon rc = ac (voir Lane et Thomas 1958, Lynn 1968). Pour un système composé ayant A + 1 nucléons, ce sont des intégrales à (3A + 2) dimensions sur la surface de la région interne dans l’espace des configuations. Les intégrands oscillent rapidement, si bien que les contributions positives et négatives tendent à s’annuler. Les intégrales sont donc attendues proches de zéro avec la même probabilité d’être positives ou négatives, dépendant des particularités inconnues de la λ−ème fonction propre. 107 Dans ces circonstances, une distribution Gaussienne de moyenne nulle des γλc semble être une proposition raisonnable. En effet, le principe du maximum d’entropie de la théorie des probabilités (voir partie 1.7) nous dit que, si nous savons seulement que la distribution possède une moyenne nulle et une variance finie γ c2 , la distribution de probabilité la plus raisonnable et objective pour toutes les nouvelles inférences est la Gaussienne, ( ) p γ c γ c2 dγ c = 1 π e − x dx −∞< x≡ 2 ( ) ( γc 2 γ c2 < ∞. (275) ) Avec dγ c2 = 2 γ c dγ c et p γ c γ c2 dγ c ≡ p γ c2 γ c2 dγ c2 , cela devient la distribution supposée par Porter et Thomas (1956), ( ) p γ c2 γ c2 dγ c2 = e−y πy dy 0< y≡ γ c2 2 γ c2 <∞, (276) pour les largeurs partielles Γλc = 2 Pc γ λ2 c de voie unique (et à une énergie donnée). Des exemples de largeurs de voie unique sont les largeurs neutroniques pour I = 0 ou l = 0 (voir Tableau 2) ou les largeurs radiatives pour une seule transition radiative, non seulement en spectroscopie nucléaire mais également atomique et moléculaire. Les distributions de Porter et Thomas d’une seule voie sont en bon accord avec les distributions observées pour les largeurs neutroniques réduites de voie unique et pour les largeurs radiatives de simple transition. Il faut toutefois réaliser que les niveaux les plus faibles – ceux ayant les largeurs de voie d’entrée les plus petites – tendent à être perdus dans les bruits de fond expérimentaux. D’après l’hypothèse de Porter et Thomas, ce sont les plus fréquents. Les distributions empiriques des largeurs et en particulier les valeurs empiriques des densités de niveaux doivent donc être invariablement corrigées des niveaux manquants. La figure 16 montre un exemple du bon accord entre les distributions des largeurs observées et théoriques au dessus du seuil de détection des faibles niveaux. D’un autre côté, on peut voir que plus de 20% des niveaux sont 238 manquants. (L’échantillon comprenait des résonances de U+n comprises dans l’intervalle d’énergie 0–3 keV, d’onde s avec une probabilité estimée de 99% ou plus.) 108 Figure 16. Distribution de Porter et Thomas. Histogramme : nombre de résonances d’onde s de 238 U+n d’énergie inférieure à 3 keV dont la largeur neutronique réduite est plus grande que la valeur en abscisse. Courbes continues : distribution cumulative de Porter et Thomas avec sa bande de confiance, valeur estimée par le maximum de vraisemblance Beaucoup de largeurs observables sont cependant la somme de largeurs de plusieurs voies, par exemple des largeurs neutroniques avec pour I>0 et l > 0 (voir tableau 2), des largeurs radiatives totales ou des largeurs de fission. Si les moyennes γ c2 sont les mêmes pour les ν voies intervenant, une telle largeur observée suivra la distribution généralisée de Porter et Thomas, c’est-à-dire une distribution du χ2 à ν degrés de liberté, ( ) p γ 2x γ 2x dγ 2x = où Γ e − y y ν 2 dy , Γ ν2 y () 0< y≡ ν γ 2x < ∞, 2 γ 2x (277) ( ) est une fonction Gamma (non une largeur), et ν 2 γ 2x ≡ ∑ γ c2 , c∈x (278) γ 2x = ν γ c2 . (279) La distribution de Porter et Thomas généralisée s’applique aux largeurs neutroniques à deux voies (ν = 2, distribution exponentielle) et, avec un nombre ν effectif (pas nécessairement entier) de voies de fission, aux largeurs de fission (ν petit) et aux largeurs radiatives totales (ν grand, distribution proche d’une fonction delta : les largeurs radiatives ne fluctuent que faiblement d’un niveau à l’autre). De grandes valeurs effectives de ν ne sont pas rares du fait du nombre habituellement grand des transitions radiatives permises vers les états moins liés du système composé. Que ν soit petit pour les largeurs totales de fission fut par contre une surprise. Les centaines de paires possibles de fragments de fission, chacun avec de nombreux états excités possibles, semblaient 109 impliquer également beaucoup de largeurs partielles de fission et une grande valeur correspondante pour ν. L’énigme fut résolue par A. Bohr (1955). Il montra qu’avant que la fission puisse avoir lieu, le noyau composé doit passer le point selle de la surface d’énergie potentielle (dans l’espace des paramètres de déformation) au delà duquel la répulsion coulombienne prévaut sur la cohésion nucléaire. Au point selle, la plupart de l’énergie d’excitation est sous forme d’énergie de déformation, et donc seule reste une faible partie pour les autres modes d’excitation dont le spectre ressemble à celui des états peu liés observés pour les déformations de l’état fondamental. La conservation de l’énergie, du moment angulaire et de la parité ne permet d’accéder qu’à peu de ces états de transition, indépendamment de la multitude des fragmentations finales. C’est pourquoi les voies de fission sont corrélées de telle manière que la largeur de fission peut être considérée approximativement comme une somme sur un petit nombre de termes, un pour chaque état de transition (« voie au point de selle »). Pour la fission, ν est par conséquent le nombre effectif de voies ouvertes au point selle plutôt que le nombre de voies de réaction au sens habituel. Ceci illustre que les « lois » de statistique des niveaux ne sont pas aussi rigides que le formalisme des résonances discuté au Chapitre 3. Elles s’appliquent principalement pour des états hautement excités du système composé pour lesquels les modèles à particules indépendantes, collectifs ou autres simplicités ne peuvent être utilisés. Reflétant plus notre ignorance que des phénomènes réellement aléatoires, ces lois ne sont pas réellement applicable là où les états considérés sont simples et bien compris. La connaissance du rôle joué par les états collectifs de transition d’un noyau fissile, par exemple, nous permet de modifier et, en fait, de simplifier la description statistique des résonances de fission. Dans le cas d’école des interactions neutroniques avec un puits de potentiel carré complexe, où tout peut se calculer explicitement, rien n’est aléatoire ou non spécifié, et les largeurs neutroniques réduites (à peu de chose près le carré des amplitudes de décroissance) apparaissent être toutes égales plutôt que de suivre une distribution de Porter et Thomas (voir Fröhner 1998a). 4.1.2 Loi de Wigner et l’ensemble Gaussien orthogonal Il s’avéra bien plus difficile de trouver la distribution des espacements de niveaux dans une famille de niveaux de JΠ donné que de déterminer les distributions des largeurs partielles. Dès le début, Wigner (1957) tenta une hypothèse hardie. Il tira une conclusion, avec la distribution de Poisson essayée par d’autres, selon laquelle la probabilité de trouver un espacement de niveaux Eλ+1-Eλ dans un intervalle dD autour de D est seulement proportionnel à dD et est indépendant de la distance du niveau précédent. Il montra que les énergies des niveaux sont des valeurs propres de matrices hamiltoniennes, et que les ensembles de matrices présentent toujours une répulsion des valeurs propres (la probabilité devient négligeable si l’espacement de niveaux tend vers zéro) si bien qu’au moins pour les faibles espacements, la probabilité devrait être proportionnelle à DdD. En faisant l’hypothèse que la proportionnalité est également vérifiée pour les grandes valeurs de D, il obtint immédiatement ce qui est connu aujourd’hui sous le nom de loi de Wigner, D 2 p (D D )dD = exp − c ∫ D’dD’cDdD = ce − cD 2 DdD , 0 < D < ∞ , 0 110 (280) où la constante de proportionnalité est liée à l’espacement moyen des niveaux ( c=π 2 D 2 ). D par La théorie des ensembles de matrices hamiltoniennes (soit des distributions de probabilité des matrices hamiltoniennes) fut développé par la suite par Wigner, Porter, Dyson, Mehta et d’autres (voir Porter 1965, Brody et al. 1981, Mehta 1991). Les matrices hamiltoniennes nucléaires sont, bien entendu, hermitiennes mais également, du fait de l’invariance pratique des interactions nucléaires par inversion du temps, symétriques et donc réelles. Si nous connaissons une distribution de probabilité de telles matrices, nous pouvons en déduire la distribution de probabilité correspondante des valeurs propres. L’ensemble le plus simple est obtenu si nous ne supposons rien d’autre qu’une dispersion finie du spectre des valeurs propres, ce qui est très bien réalisé par des distributions de valeurs propres similaires à des Gaussiennes issues des calculs du modèle en couche (voir Brody et al. 1981). En maximisant l’entropie de la distribution avec la condition d’une dispersion finie (voir par exemple Fröhner 1990, 1991a), on trouve comme choix le plus objectif ( ) ( ) ( ) 2 2 p H σ 2 d (H ) ∝ ∏ exp − λH µµ dH µµ ∏ exp − 2λH µν dH µν , λ = µ µ<ν où N est le rang de la matrice H (le nombre de valeurs propres), d (H ) = N +1 , 4σ 2 ∏ µ≤ν (281) dH µν l’élément de volume dans l’espace des éléments de matrices indépendants, et σ la dispersion du spectre des valeurs propres (autour de son centre E = 0). Ayant l’entropie maximale (contenu minimal en information) parmi toutes les distributions de matrices réelles symétriques avec un écart-type σ donné, cet ensemble joue un rôle similaire pour ces matrices à celui que joue les distributions Gaussiennes pour les distributions scalaires de dispersion donnée. Il est appelé l’Ensemble Gaussien Orthogonal (EGO) car il est invariant par transformation orthogonale et parce que les éléments de matrice ont des distributions Gaussiennes indépendantes. En réalité, Wigner l’obtint à partir des exigences de l’invariance par rotation (toutes les bases orthogonales doivent être équivalentes en mécanique quantique) et d’éléments de matrice distribués indépendamment, mais la condition d’indépendance requise fut jugée comme non physique, en conflit avec la caractéristique des forces nucléaires à faire intervenir deux corps de façon prédominante. Dans l’approche du maximum d’entropie, l’indépendance est une conséquence naturelle de l’information limitée à l’entrée. En tous cas, la suggestion de Wigner que l’EGO fournit un modèle mathématiquement simple de la statistique des niveaux a été parfaitement confirmée. Porter et Rosenzweig (1960) démontrèrent que pour des très grandes matrices (un très grand nombre d’états du système composé), l’EGO aboutit à la distribution de Porter et Thomas des largeurs partielles. La distribution des espacements de niveaux de l’EGO pour des matrices 2 × 2 est exactement la loi de Wigner, tandis que pour des matrices plus grandes elle en est très proche comme le montrèrent Mehta (1960) et Gaudin (1961), voir figure 17. 111 Figure 17. Distribution des espacements entre les niveaux voisins pour l’Ensemble Gaussien Orthogonal des matrices réelles symétriques. Ligne continue : grandes matrices N × N, avec N → ∞ (Gaudin 1961). En pointillé : matrices 2×2 (Distribution de Wigner, équation 280) Les espacement de niveaux sont corrélés de telle façon qu’un espacement relativement important aura plutôt tendance à être suivi d’un espacement faible, et vice versa. Le coefficient de corrélation en résultant est ρ( Dλ , Dλ +1 ) ≡ cov(Dλ , Dλ +1 ) var(Dλ ) var(Dλ +1 ) ≈ −0.27 (282) pour de grandes matrices. L’ensemble des valeurs propres est par conséquent remarquablement régulier (« rigide »), avec des positions de niveaux presque équidistantes, ce qui le différencie notablement d’un ensemble aléatoire avec une distribution de Poisson pour les intervalles. Tout ceci est en excellent accord avec la statistique observée des niveaux nucléaires (ou atomiques), au moins dans des intervalles d’énergie limités où les lentes variations de l’espacement moyen des niveaux et des largeurs partielles moyennes peuvent être négligées. Les écarts apparents par rapport aux prédictions de l’EGO disparaissent habituellement si les lentes variations sur un grand intervalle (« variations séculaires ») des paramètres statistiques de niveaux sont correctement prises en compte. On ne peut s’attendre à ce que l’ensemble Gaussien orthogonal, ayant comme seule condition une dispersion finie du spectre des valeurs propres, reproduise des caractéristiques nucléaires plus spécifiques telles que densités de niveaux d’un gaz de fermions, effets de couches, résonances dipolaires géantes ou barrières de fission. En fait, la densité de niveaux semi-circulaire de l’EGO obtenue par Wigner (1957) diffère des densités similaires à des Gaussiennes obtenues dans des calculs du modèle en couche, plus réaliste (voir Brody et al. 1981). Alors que les distributions des énergies et des largeurs partielles des niveaux peuvent localement être prises comme celles de l’EGO, leurs paramètres (densité de niveaux, largeurs moyennes) varient lentement avec l’énergie. Ces variations séculaires sont décrites par des modèles macroscopiques du noyau, la densité de niveaux, par exemple, l’est par le modèle du gaz de Fermi ou, à plus haute énergie, par le modèle en couche avec interaction résiduelle ; les fonctions densités des neutrons, protons et particules alpha par le 112 modèle optique ; les fonctions densités des rayons gamma par le modèle de la résonance dipolaire géante ; les fonctions densité de fission par les modèles de barrière de fission. 4.1.3 Coefficients de transmission La théorie appropriée pour le domaine des résonances non résolues est la théorie de Hauser-Feshbach avec correction des fluctuations des largeurs. Elle est obtenue si on moyenne les expressions des sections efficaces de la matrice-R sur l’EGO. Les paramètres essentiels sont les fonctions densités ou les coefficients de transmission qui leur sont intimement liés. Pour des voies de particules (neutron, proton, particule alpha), ces derniers sont définis par 2 Tc ≡ 1 − U cc = 4πs c Pc 0 2 c 1 − Rcc L . (283) Le dénominateur, avec Rcc ≡ Rc∞ + iπs c , (284) rend compte des recouvrements et effets d’interférence dus au niveaux voisins et éloignés, s c et Rc∞ étant les intensités de pôle et le paramètre des niveaux éloignés déjà rencontré dans le contexte des niveaux externes, voir les équations 209 et 210. Le coefficient de transmission est donc essentiellement 2π fois le rapport entre les largeurs effectives de particule (par exemple neutronique) et l’espacement moyen des niveaux. Pour les voies photons ou fission, on utilise de façon analogue Tγ = 2 π Γγ Dc , T f = 2π (285) Γf Dc . (286) Les coefficients de transmission pour les voies de particule peuvent être obtenus à partir du modèle optique qui décrit l’interaction entre une particule incidente et le noyau cible par un potentiel complexe, en analogie avec la diffraction et l’absorption de la lumière par la proverbiale boule de cristal opaque. Le potentiel complexe est ajusté de manière à ce que la section efficace totale moyenne soit bien reproduite sur tout le domaine des résonances non résolues et bien au-delà. Pour des noyaux de dimension 235 238 239 similaires, par exemples les actinides tels que U, U et Pu, on s’attend à avoir des barrières potentielles semblables et donc des sections efficaces totales moyenne similaires. Et c’est en fait ce que nous observons-voir par exemple les mesures de transmission neutronique et les ajustements avec le modèle optique effectués par Poenitz et al. (1981) sur toute une série de noyaux lourds. Le modèle optique a par conséquent un pouvoir prédictif et systématisant considérable. Il faut toutefois garder en mémoire que c’est essentiellement un modèle à particules indépendantes ou la diffusion ne définit que la diffusion directe (potentielle), alors que l’absorption signifie qu’il y a formation du noyau composé et inclut non seulement des captures radiatives ou des fissions, mais également des diffusions résonnantes, c’est-à-dire la réémission de la particule incidente (ou d’une particule indiscernable de celle-ci) à partir du noyau composé. De plus, les distributions angulaires calculées avec un potentiel complexe qui reproduit correctement la section efficace totale ne sont pas exactement égales aux diffusions doublement différentielles moyennes dérivées du formalisme de la matrice-R. Le seul type de section efficace observable directement obtenu avec le modèle optique est donc la section efficace totale (moyenne). Les ajustements sur les 113 données de diffusion ou d’autres sections efficaces partielles demandent une prise en compte convenable des diffusions résonnantes excepté loin au-delà du domaine des résonances non résolues où les processus par formation du noyau composé sont négligeables. La principale information obtenue par les études à l’aide du modèle optique sur les réactions induites par neutrons est que les fonctions densité et les paramètres des niveaux éloignés ne varient que faiblement sur le domaine relativement étroit des résonances résolues ainsi que d’un noyau à l’autre. De plus, ils peuvent habituellement être considérés comme ne dépendant que du moment orbital angulaire, ainsi que cela fut mentionné dans le contexte de l’équation (213). Les coefficients de transmission pour les voies inélastiques, par exemple (n,n’) ou (p,p’), peuvent être calculés avec les mêmes expressions que pour les voies élastiques (n,n) ou (p,p) mais avec l’énergie E de la particule remplacée par E – Ec, où Ec est l’énergie d’excitation transférée au noyau rédiduel. Le coefficient de transmission total des photons pour les familles JΠ de résonances est dominé par les transitions dipolaires électriques et magnétiques, TγJΠ = ∑ [T c ’∈γ , JΠ E1 c’ ] + TcM’ 1 , (287) où les sommes portent sur toutes les voies de sorties accessibles c’, c’est-à-dire toutes les transitions dipolaires permises d’un état de spin J et parité Π du noyau composé vers un niveau moins lié. Les contributions dipolaires électriques sont communément considérées comme ayant la forme Lorentzienne classique des résonances dipolaires géantes, E1 c’ T ∝ (E E γ4 2 γ − E 02 ) + (ΓE ) 2 2 , (288) γ où Eγ est l’énergie des photons de la transition, E0 et Γ sont l’énergie et la largeur de la résonance dipolaire géante où tous les protons vibrent contre tous les neutrons. De manière empirique, on trouva que pour un noyau composé sphérique ayant A nucléons, on a E 0 ≈ MeV / A1 / 6 , Γ ≈ 33 MeV / A1 / 3 . Pour des noyaux magiques, Γ est plus petit d’un facteur 0.6, pour un noyau presque magique avec Z ou N différent d’un nombre magique de 1 ou 2, le facteur est environ de 0.8, et pour des noyaux déformés il vaut environ 1.2 (voir Holmes, Woosley, Fowler et Zimmerman 1976). Les contributions dipolaires magnétiques sont plus petites. Elles sont souvent approchées par l’estimation simple de Weisskopf TcM 1 ∝ E γ3 , (289) ou sont toutes négligées. La somme (287) sur les niveaux finaux, pour une énergie d’excitation arbitraire U, peut être calculée comme une intégrale ∫ U 0 dE γ ρ J (U − E γ )... , avec par exemple une densité de niveau de Gilbert-Cameron ρ J , et normalisée sur la fonction densité gamma 2πρ J ΓγJΠ dans le domaine des résonances résolues (obtenue empiriquement, au moins pour les résonances d’onde s, à partir de leurs largeurs radiatives et espacements, déduites pour les autres via les distributions théoriques de spin discutées ci-dessous). Les coefficients de transmission de fission sont dus à Hill et Wheeler (1939). Pour des barrières de fission à simple bosse de forme parabolique identique pour tous les états de transitions, ils s’écrivent 114 1 , c ’∈γ , JΠ 1 + exp[2 π( E c − E ) / hω] ∑ T fJΠ = (290) où E est l’énergie de la particule incidente, Ec la hauteur de la barrière sur la même échelle d’énergie, hω est proportionnel à l’inverse de la courbure de la parabole, et la somme se fait sur tous les états de transition (voies au point selle) en accord avec J et Π. Pour des barrières à double bosse, il est souvent suffisant de combiner les coefficients de transmission TA pour la première barrière et TB pour la seconde en additionnant les inverses, 1 T JΠ f = 1 T + JΠ A 1 TBJΠ , (291) en analogie avec les résistances en série. Des expressions plus générales sont données par exemple par Vandenbosch et Huizenga (1973). Là encore, la somme (290) doit être calculée comme une intégrale sur une densité convable d’états de transition, voir Lynn (1974). Les espacements moyens de niveaux ou leurs inverses, les densités des niveaux nucléaires, apparaissent devoir jouer le rôle de facteurs d’échelle dans la théorie. Leur dépendance en spin et en énergie a une forte influence sur le comportement des sections efficaces moyennes et va être discuté dans la suite. 4.1.4 Densités des niveaux nucléaires Les niveaux du noyau composé peuvent être observés dans deux domaines d’énergie – à proximité de l’état fondamental jusqu’à quelques MeV (par exemple, à l’aide de spectroscopie de rayons gamma de capture neutronique ou d’excitation coulombienne), et au niveau de l’énergie de séparation du neutron d’environ 7 MeV (par l’observation des résonances dans les réactions induites par neutrons et protons). À ces énergies d’excitation plus élevées, la densité de niveaux se trouve être supérieure de plusieurs ordres de grandeur par rapport à l’état fondamental. Une explication d’une augmentation si rapide des densités de niveaux en fonction de l’énergie d’excitation doit s’appuyer sur les caractéristiques fondamentales du noyau que contient le modèle en couche nucléaire : les nucléons, obéissant à la statistique de Fermi-Dirac et donc au principe d’exclusion de Pauli, se déplacent pour la plupart indépendamment dans le puits de potentiel généré par leurs interactions mutuelles. Notons εν la ν-ème valeur propres de l’énergie du puits, et niν le nombre d’occupation (0 ou 1 pour des fermions) du ν-ème niveau dans le i-ème état nucléaire. Pour des nucléons indépendants, le nombre total de nucléons et l’énergie totale du i-ème état nucléaire sont donc N i = ∑ niν , ν E i = ∑ niν ε ν , ν niν = 0, 1 . (292) εν > 0 . (293) La densité réelle à deux dimensions des états du noyau composé, ρ( N , E ) = ∑ δ( N − N i )δ(E − E i ) , (294) i 115 n’admet que des valeurs discrètes. Une densité continue peut être obtenue si nous imposons des valeurs arbitraires non négatives de N et E en tant que moyennes pondérées N = ∑ pi N i , (295) i E = ∑ pi Ei . (296) i Le principe du maximum d’entropie nous dit comment choisir les poids pi avec ces deux conditions. Le choix le plus raisonnable, assurant un minimum d’information factice, est l’ensemble grand-canonique (introduit pour la première fois par Gibbs en thermodynamique), pi = 1 αN i −β E i e , Z (297) Z = ∑ e αN i − β E i , (298) i avec les multiplicateurs de Lagrange α et β. En remarquant que la fonction de partition Z est la transformée de Laplace de la densité de niveaux ρ, de l’équation (294), nous concluons que la densité de niveaux doit être reliée à la fonction de partition par une transformation de Laplace inverse, ∞ ∞ Z (α, β ) = ∫ dN ∫ dE ρ( N,E ) e αN −βE , 0 (299) 0 i∞ i∞ 1 ρ( N , E ) = dα ∫ dβ Z (α, β ) e −αN +βE ∫ 2πi −i∞ −i∞ i∞ (300) i∞ 1 = dα ∫ dβ e S , ∫ 2πi −i∞ −i∞ où S est l’information entropie pour les paramètres de Lagrange arbitraires α et β, S = −∑ p i ln p i = ln Z − αN + β E . (301) i L’intégration au point selle, c’est-à-dire le développement de S autour de son maximum pour α = αˆ , β = βˆ et la troncation après les termes quadratiques, donne la relation remarquable entre la densité de niveaux et l’entropie ρ( N , E ) ≈ ˆ ( eS det 2π∇∇ Sˆ T ) , (302) ( ) T ˆ ∂ ∂βˆ . Les paramètres de où nous introduisons l’opérateur de dérivée vectorielle ∇ ≡ ∂ ∂α Lagrange α̂ , β̂ pour le maximum sont justement ceux provenant de l’algorithme de l’entropie ( ) ˆ , βˆ est l’entropie thermodynamique des maximale, et l’information entropie maximale Sˆ ≡ S α physiciens divisée par la constante de Bolzmann. Considérons la fonction de partition. Nous remarquons que la somme sur tous les états du noyau composé revient à la somme sur toutes les séries possibles des nombres d’occupation des fermions, 116 ( ) Z = ∑ e αN i −βEi = ∏ 1 + e α −βε ν . ν i (303) En développant le dernier produit, on remarque en fait que chaque état est représenté par un terme de somme, chaque terme de somme étant un produit d’exponentielles pour tous les niveaux occupés avec un facteur unité pour les niveaux vides, ainsi que le demandent les équations (292) et (293). En passant au logarithme et en faisant l’approximation de la somme par une intégrale, on obtient ( ) ∞ ( ) ln Z = ∑ ln 1 + e α −βε ν ≈ ∫ dε g (ε ) ln 1 + e α −βε , ν (304) 0 où g(ε) est la densité des niveaux à une particule. Dans l’état fondamental, avec l’énergie totale E0, tous les niveaux sont occupés jusqu’à celui qu’on appelle niveau de Fermi εF, de sorte que εF εF N = ∫ dε g (ε ) , (305) 0 E 0 = ∫ dε g (ε )ε . (306) 0 Le noyau est ainsi décrit comme un gaz condensé (« dégénéré ») de fermions. La condensation diminue lorsque l’excitation augmente et de plus en plus de niveaux vides sont créés sous le niveau de Fermi alors que des niveaux situés au-delà se remplissent. Tant que seul un intervalle relativement faible autour du niveau de Fermi est affecté, où la variation de g(ε) est négligeable, on peut utiliser l’approximation 2 g (ε F ) (α − βε F ) π2 ln Z ≈ αN − β E 0 + + β 2 6 (307) (voir par exemple Bohr et Mottelson 1969). La maximisation de l’entropie avec la fonction de partition donne deux équations couplées pour α̂ et β̂ , αˆ = βˆ ε F , (308) E − E0 = π 2 g (ε F ) , 6 βˆ 2 (309) et finalement la formule de la densité de niveau pour un gaz de fermion ρ( N , E ) ≈ exp 4aU 48U , (310) ( ) où U ≡ E − E0 est l’énergie d’excitation et a ≡ π 2 6 g (ε F ) , appelé paramètre de densité de niveaux du gaz de fermions, dépend de N du fait de l’équation (305). Van Lier et Uhlenbeck mirent en lumière, en suivant un conseil de Goudsmit, que dans le cas particulier de niveaux à particule unique équidistants, soit pour un potentiel décrit par un oscillateur harmonique, la densité de niveaux d’un gaz de fermion peut être calculée de manière exacte (voir Ericson 1960). Les énergies d’excitation possibles sont des multiples entiers de l’espacement d ≡ 1 g . Pour U d = 1, 2, 3, 4,... on a 1, 2, 3, 5 … états différents (arrangements d’occupation). Comme on peut le voir sur la figure 18 (en haut), le nombre d’états est égal au nombre des différentes 117 partitions de l’entier U/d, la partition étant ici définie au sens de la théorie des nombres comme une décomposition en terme de somme d’entiers naturels. Le nombre de partition peut être calculé par une formule récursive venant d’Euler (1753). L’histogramme de densité de niveaux rigoureuse en résultant est tracé avec la courbe approximative du gaz de fermions sur la figure 18 (en bas). L’accord est bon sauf aux plus faibles énergies d’excitation. L’augmentation rapide, pratiquement exponentielle, de la densité de niveaux avec l’énergie est évidente. Figure 18. Fermions occupant des niveaux à particule unique équidistants. En haut : état fondamental et premiers état excités. En bas : densité exacte des niveaux d’après la théorie des nombres (courbe en escalier) et approximation par la maximisation de l’entropie (courbe lisse) 118 Jusque ici nous avons négligé la différence entre protons et neutrons et leurs spins. Il convient de généraliser à des noyaux à des noyaux ayant Z protons, N neutrons et un nombre quantique de direction de spin M. Le résultat est la fameuse formule de Bethe (1937) pour la densité de niveaux (voir également Gilbert et Cameron 1965) ρ(Z , N , E , M ) ≈ [ ( )] [U − M (2 g m )] exp 4a U − M 2 2 g m 2 12 2 g m 2 2 2 32 (311) avec g ≡ g p + gn , g m 2 ≡ g p m 2p + g n m n2 , (312) (313) où gp et gn sont les densités des niveaux à particule unique pour les protons et les neutrons, mp et mn leurs nombres quantiques d’orientation de spin. (Le puits de potentiel et donc les niveaux à particule unique des protons diffèrent de ceux des neutrons du fait de l’interaction coulombienne.) ( Habituellement M 2 2 g m 2 ) est bien plus petit que U. Cela mène à une factorisation approchée de ρ(Z , N , E , M ) ≡ ω M (U ) ≈ ω(U ) e −M 2 2σ2 (314) 2πσ 2 en un produit de la densité d’état totale ∞ 2π e 4 aU ω(U ) = ∑ ω M (U ) = a, 3 (4aU )5 4 M = −∞ (315) avec une distribution Gaussienne sur tous les nombres quantiques d’orientation de spin M, de variance σ2 = g m2 U . a (316) La Gaussienne est correctement normalisée à 1 puisque la formule de somme d’Euler-MacLaurin donne ∑ ∞ e −M M = −∞ 2 2σ 2 ∞ = ∫ dM e − M −∞ 2 2σ 2 = 2πσ 2 pour des valeurs de M entières, mais également demi-entières. L’écart-type σ est souvent appelé facteur de coupure de spin. Les valeurs typiques sont de σ ~ 3 pour des noyaux intermédiaires tels que les matériaux de structure Fe, Ni, Cr et σ ~ 4.5 pour des actinides tels que Th, U, Pu. Il faut toutefois réaliser qu’en l’absence de champs extérieurs, on ne peut distinguer et identifier comme résonances séparées que les états nucléaires J , M de moment angulaire total J (spin du niveau) différent. Les états ayant pour seule différence la direction du spin, M = -J, -J+1, … J, sont dégénérés et donc indiscernables. Cela signifie que nous devons compter qu’une seule de ces alternatives, par exemple uniquement les états avec M = J, J , J , si nous voulons la densité ρJ des niveaux ayant un J donné. Les états contribuant à ωJ et ωJ+1 peuvent alors être rangés en deux colonnes de la manière suivante, 119 J, J J + 1, J J + 1, J + 1 J + 2, J J + 2, J + 1 les états sur la même ligne, par exemple J + 1, J et ... ... J + 1, J + 1 , étant dégénérés. Si nous effectuons la différence à ωJ-ωJ+1 , toutes les contributions de la première colonne sont par conséquent annulées par celles de la seconde, exception faite de la contributions des états J , J qui est égale à la densité des niveaux ρJ voulue (Bethe 1937). On a ainsi, avec l’approximation par factorisation (314), ρ J = ω J − ω J +1 ≈ J2 exp − 2 2πσ 2 2σ ω 2ω 1 = exp − 2 8σ 2πσ 2 ( J + 1)2 − exp − 2σ 2 ( J + 1 2 )2 J +1 2 − − sinh exp 2σ 2 2σ 2 (317) . C’est la densité de tous les niveaux de spin J, sans considérations sur la parité. La densité de niveaux pour telle ou telle parité (+ ou -) peut normalement être prise simplement comme la moitié (voir Ericson 1960, Gilbert et Cameron 1965). Des approximations largement utilisées consistent à remplacer le sinus hyperbolique par son argument, ou de manière plus drastique, en écrivant ρ J ∝ 2 J + 1 ∝ g c , ce qui n’est toutefois vérifié correctement que si J<<σ, c’est-à-dire pour les deux ou trois plus faibles valeurs possibles de spin. La figure 19 montre la distribution exacte [ ] [ ] f J = exp − J 2 2σ 2 − exp − ( J + 1) 2σ 2 pour σ = 3.0 et σ = 4.5, valeurs qui s’appliquent, 2 grossièrement, dans le domaine des résonances résolues aux matériaux de structure tels que Fe, Ni, Cr et aux actinides tels que Th, U, Pu, respectivement. Remarquons que la distribution est normalisée à un, exactement pour les spins entiers et pratiquement pour les spins demi-entier ( e −1 / 8 σ ≈ 1 ). 2 120 Figure 19. Distribution de fj pour σ = 3 (correspondant grossièrement aux noyaux intermédiaires tels que Fe, Ni, Cr) et σ = 4.5 (correspondant grossièrement aux actinides tels que Th, U, Pu). Points : spins entiers, croix : spins demi-entiers Bien que l’approche des densités de niveaux nucléaires par la théorie des nombres apparaisse également prometteuse pour les systèmes de niveaux à particule unique réalistes (non équidistants) (Anzaldo 1995), la plupart des théories actuelles de la densité de niveaux qui contiennent explicitement les niveaux du modèle en couche, les interactions résiduelles, la déformation, les mouvements collectifs rotationnels et vibrationnels et la superfluidité de la matière nucléaire à basse énergie d’excitation, sont fondées sur l’approche thermodynamique (entropie maximale) de Bethe. Un exemple est la formule composite largement employée de la densité des niveaux de Gilbert et Cameron (1965). Elle explique de manière heuristique les effets d’appariement des nucléons et le comportement empiriquement observé des densités de niveaux à proximité de l’état fondamental où les modes collectifs interdisent un traitement purement statistique des états composés. Elle est constituée de deux parties, une partie constante en fonction de la température valable aux basses énergies d’excitation à laquelle se rattache en continuité une partie se comportant comme un gaz de fermions (Bethe) valable aux grandes énergies, avec une systématique des paramètres déduites d’un grand ensemble de données sur la structure nucléaire près de l’état fondamental et de données des résonances au dessus des énergies de séparation des neutrons ou protons. La densité des niveaux de spin J et de parité quelconque est décrite par l’équation (317) avec 121 ω = 2 2πσ 2 exp 4aU a 32 3 (4aU ) c A1 3 2 exp 4aU x a U −U x exp 32 13 3 (4aU x ) cA T si U ≥ U x , (318) si U ≤ U x , dont la partie à haute énergie est obtenue en appliquant, d’après Jensen et Luttinger (1952), m 2 = cA 2 3 avec A = Z + N et c = 0.146. L’énergie d’excitation effective, U = B + E − P (Z ) − P ( N ) , (319) est prise comme la somme de l’énergie de liaison B et de l’énergie cinétique E du neutron, corrigée des énergies P(Z) et P(N) nécessaires pour briser les paires si tous les protons ou tous les neutrons sont appariés, c’est-à-dire si le nombre Z de protons ou le nombre N de neutrons est pair. En dessous de l’énergie de raccordement, le facteur de coupure de spin est souvent pris comme une fonction linéaire de U, s’annulant à l’état fondamental, de sorte que cA 2 3 4aU , U + P(Z ) + P( N ) 2σ = 2 3 4aU x cA U x + P (Z ) + P ( N ) 2 si U ≥ U x , si U ≤ U x , (318) la formule pour le gaz de fermions de Bethe à haute énergie et celle à température constante à basse énergie doivent se rejoindre en continuité à l’énergie de raccordement Ux. La température T (en unité d’énergie) découlant de la condition de continuité est donnée par J min 3 + T = 1 − 23 aU cA 4 aU 4 x x −1 pour A pair 0 Ux , J = 1 a 2 pour A impair (321) où le troisième terme est habituellement négligeable. Les valeurs typiques dans le domaine des résonances résolues sont T ~ 1.4 MeV pour les matériaux de structures tels que Fe, Ni, Cr et T ~ 0.4 MeV pour les actinides tels que U et Pu. Gilbert et Cameron donnent les paramètres empiriques a, Ux, P(Z) et P(N) pour un nombre important de noyaux composés, ainsi que des formules analytiques pour leur systématique, par exemple 150 U x = 2 .5 + MeV , A (322) si bien que les densités de niveaux peuvent être estimées même en l’absence de données de structure nucléaire (schémas de niveaux) pour les niveaux inférieurs ou les données de résonances (sections efficaces) au-delà de l’énergie de liaison du neutron. C’est particulièrement important, par exemple, si les sections efficaces de fission doivent être calculées, pour lesquelles on a besoin des densités des états de transition au point selle de déformation. Celles-ci ne sont pas directement observables, mais sont attendues similaires aux densités des états pour la déformation au voisinage de l’état fondamental et, par conséquent, descriptibles, au moins grossièrement, par la partie constante en fonction de la température de la formule composite de densité de niveaux. D’autres exemples sont les noyaux dans des états métastables ou les radionucléides de courte durée de vie, dont les données sont difficiles à mesurer mais sont nécessaires pour les calculs d’incinération et de transmutation en technologie nucléaire ou pour les études de nucléosynthèse en astrophysique. 122 Comme nous l’avons déjà mentionné, l’Ensemble Gaussien Orthogonal a une distribution des valeurs propres selon la loi du demi-cercle, et des ensembles plus physiques tels que le modèle en couche avec les interactions résiduelles traitées statistiquement ont des spectres de valeurs propres ressemblant à des Gaussiennes. Est-ce en conflit avec l’augmentation quasi exponentielle de la densité de niveaux dans la formule de Bethe ? La réponse est que la formule de Bethe est valable pour des excitations modestes, où seul un petit nombre de niveaux à particule unique autour du niveau de Fermi est affecté, et que ni la profondeur du potentiel des particules indépendantes ni les états non liés du continuum n’ont ici d’effets. Toutefois, lorsque l’énergie d’excitation augmente, de plus en plus de nucléons sont déplacés de niveaux situés sous le niveau de Fermi vers des niveaux situés au-dessus et même vers des états du continuum qui ne font plus intervenir seulement le noyau composé. La densité de niveaux d’un noyau composé donné augmente donc jusqu’à un maximum mais décroît ensuite à nouveau, de manière Gaussienne, du fait de l’augmentation de la compétition des états non liés représentant la transmutation et la destruction nucléaires. La formule de Bethe apparaît ainsi comme une approximation de la queue à basse énergie d’une fonction de densité pratiquement Gaussienne (voir Grimes 1980), certainement applicable dans le domaine des résonances non résolues mais pas à des énergies d’excitation de l’ordre du GeV. 4.1.5 Information provenant des résonances résolues L’information globale sur les fonctions densité ou les coefficients de transmission peut être obtenue à partir des systématiques du modèle optique. Une information a priori plus spécifique pour un système composé donné provient toutefois des résonances résolues. Le coefficient de transmission pour une voie d’entrée c = {αJls} est relié à la largeur partielle moyenne correspondante par Tc = 2πΓc Dc (nous intégrons le dénominateur de la correction multi-niveaux de l’équation 283 dans la largeur partielle) mais les largeurs neutroniques observables (« globales ») sont des sommes de largeurs partielles pour toutes les voies compatibles avec les caractéristiques J et Π des niveaux. En négligeant la faible dépendance des coefficients de transmission en fonction du spin des voies prédite par le modèle optique, on obtient pour la largeur neutronique moyenne Γn lJ = ν lJ D J S l E 1 eV υ l ( E ) , (323) où ν lJ est le nombre de spins des voies (1 ou 2) qui peut être combiné avec l pour donner J. C’est essentiellement l’équation (274) que nous employons pour trouver la probabilité Bayesienne des caractéristiques J et l (ou plus exactement Π) d’une résonance ayant une valeur de gΓn donnée. On peut alors introduire la définition usuelle de la largeur neutronique réduite, Γnl ≡ Γn E 1 eV υ l (E ) , (324) remplacer la moyenne sur l’ensemble par la moyenne sur l’échantillon, g J Γnl ≈ 1 N ∑ (gΓ ) N λ =1 l n λ , (325) multiplier les deux membres par g J ρ J et sommer sur tous les J compatibles avec l . Avec ∑ J g J ν lJ = 2l + 1 et N ∑ J ρ J ≈ ∆E , on trouve en fin de compte la formule largement utilisée 123 pour estimer les fonctions densités neutroniques à partir de toutes les valeurs de gΓnl trouvées dans un intervalle d’énergie ∆E, ∑ (gΓ ) N Sl ≈ λ =1 l n λ (2l + 1)∆E . (326) Elle présente l’avantage que ni les spins des résonances ni les densité de niveaux ne doivent être connus. Seuls les produits gΓnl sont nécessaires, ce qui est souvent tout ce que nous connaissons pour les plus petites résonances. De plus, l’estimateur est passablement insensible aux niveaux manquants puisque ceux-ci possèdent de faibles largeurs neutroniques réduites et contribuent peu de ce fait à la somme, et est de façon similaire insensible aux mauvaises attributions de l qui, encore une fois, affectent surtout les petits niveaux. Le problème des niveaux manquant est crucial si la densité de niveaux doit être calculée. Bien souvent, les petites résonances ne sont pas du tout vues dans les mesures de transmission alors qu’au moins quelques unes d’entre elles apparaissent dans les données de taux de capture ou de fission. Un simple comptage des niveaux observés dans certains intervalles d’énergie ∆E est donc rarement suffisant. Un ajustement sur la distribution de Wigner n’est pas beaucoup plus utile car les niveaux manquants tendent à déformer la distribution des espacements de niveaux observés. Une meilleure solution pour estimer la fraction de niveaux manquants consiste à regarder la distribution des largeurs neutroniques où seule une portion située sous un seuil de détection est affectée. Sans seuil, nous avons la distribution complète de Porter et Thomas (277) que nous écrivons maintenant, avec les abréviations G ≡ gΓnl , Θ ≡ gΓnl , et n ≡ ν lJ 2 , comme P(G Θ, n )dG = e − x x n dx , Γ(n ) x 0< x≡n Avec la fonction de vraisemblance ∏ p(G j j G <∞. Θ (327) ) Θ, n pour un échantillon G1, G2, …GN de largeurs réduites et avec l’a priori de Jeffreys dΘ Θ pour le paramètre d’échelle Θ , on obtient l’a posteriori P(Θ G1 ,..., G n , n )dΘ = e − y y nN dy , Γ(nN ) y 0 < y ≡ nN G ,. Θ (328) où G ≡ (G1 + ... + G N ) N est la moyenne sur l’échantillon. Avec cette distribution gamma, il est facile de calculer les valeurs attendues y −1 = 1 (nN − 1) et y −2 = 1 [(nN − 1)(nN − 2 )] et donc les estimations par perte quadratique, Θ = nN G, nN − 1 (329) ∆Θ 1 = , Θ nN − 2 (330) avec n = 1/2 pour les largeurs neutroniques à une seule voie ( l = 0 et I = 0) et n = 1 pour les largeurs neutroniques à deux voies ( l > 1 et I>0). Notons à quel point l’incertitude est importante même pour de grands échantillons-10% pour un échantillon de 204 résonances d’onde s, par exemple. 124 Le cas d’un seuil de détection donné Gc > 0 peut être traité de manière strictement analogue. La distribution d’échantillonnage est cette fois une distribution de Porter et Thomas de G tronquée (distribution gamma de x), P(G Θ, n, G c )dG = e − x x n dx , Γ(n, x c ) x xc ≡ n Gc G < x ≡ n < ∞, Θ Θ (331) normalisée par la fonction gamma incomplète, ∞ Γ(n, x c ) = ∫ e − x x n −1 dx , (332) xc que nous reconnaissons comme la probabilité pour un niveau d’être observable. Elle dépend des paramètres estimés, contrairement à la fonction gamma Γ(n) que nous avions précédemment. L’a posteriori pour l’échantillon G1, G2, …GN est alors P(Θ G1 ,..., G n , n )dΘ = où c ≡ G c 1 e − y y nN dy , Z Γ(n, cy ) N y 0 < y ≡ nN G ,. Θ (333) (NG ), et donc cy = x . La normalisation est donnée par c ∞ e − y y nN dy . Z =∫ N y 0 Γ(n, cy ) (334) Les valeurs attendues nécessaires y −1 et y −2 y −k 1 = Z impliquent des intégrales similaires, ∞ e − y y nN − k dy ∫0 Γ(n, cy )N y , k = 1, 2, (335) et c’est également vrai pour la fraction attendue de niveaux inobservables (manquants), 1 − Γ(n, cy ) avec Γ(n, cy ) = 1 Z ∞ e − y y nN ∫ Γ(n, cy ) 0 N −1 dy , y (336) Les fonctions gamma incomplètes particulières requises pour les largeurs neutroniques (et protoniques) sont ( ) Γ 12 , x c = π erfc x x , (337) Γ(1, x c ) = exp(− x c ) . (338) Ceci montre qu’au moins pour n = 1, c’est-à-dire pour deux spins de voie possibles, les intégrales peuvent être calculées analytiquement : la largeur estimée par perte quadratique est 125 Θ = NG y −1 = ∆Θ = Θ N (G + Gc ) , (339) N −1 1 N −2 , (340) tandis que la fraction des niveaux observées est attendue comme étant Gc Γ(1, cy ) = 1 + ( ) N G G − c −N . (341) Pour n = 1/2 on doit intégrer numériquement, ou utiliser l’approximation de Laplace qui donne la même estimation de Θ que la méthode du maximum de vraisemblance. Pour une discussion plus générale des estimateurs de niveaux manquants, comprenant des seuils inconnus, dépendants de l’énergie et diffus ainsi que des multiplets non résolus, voir Fröhner (1983). 4.2 Sections efficaces résonnantes moyennes Le travail habituel dans le domaine des résonances non résolues consiste à calculer des sections efficaces moyennes ou des fonctions de sections efficaces telles que la transmission moyenne, la moyenne s’effectuant sur un intervalle suffisamment large pour contenir plusieurs résonances mais suffisamment étroit pour que les variations séculaires de la statistique des niveaux et les autres faibles dépendances en énergie puissent être négligées. Nous pouvons donc simplifier nos équations en choisissant des conditions limites telles que L0c = iPc , et en incorporant Pc dans les amplitudes de décroissance γλc. En outre, nous allons noter la matrice-S S plutôt que U, comme le veut la coutume dans la littérature sur les sections efficaces moyennes. La matrice moyenne de collision est alors à comparer avec les équations (155-160, 209-210, 284) [ ] S ab = e −i (ϕa −ϕb ) (1 − iR ) (1 + iR ) ab −1 = e −i (ϕ a −ϕb ) δ ab + 2i ∑ γ λa Aλµ γ λb , λ ,µ avec (A ) −1 λµ (342) = (E λ − E )δ λµ − i ∑ γ λc γ µc . (343) c 4.2.1 Section efficace totale moyenne Afin d’obtenir la moyenne de la section efficace totale, nous devons déterminer la moyenne des éléments Scc de la matrice de collision sur des intervalles d’énergies, des profils de faisceau ou des fonctions de résolution appropriés. Avec une fonction de pondération Lorentzienne, la chose est aisée S (E ) = ∞ I π ∫ dE ’ (E ’− E ) −∞ 2 + I2 S( E ’) ∞ 1 1 1 = dE ’ − S( E ’), ∫ 2πi −∞ E ’− E − iI E ’− E + iI 126 (344) où 2I est la largeur à mi-hauteur de la Lorentzienne. Du fait de la causalité, la matrice de collision n’a pas de pôles au dessus de l’axe réel (voir Lane et Thomas, 1958) et donc si nous fermons le contour par un grand demi-cercle supérieur (dont la contribution est nulle), il ne contient que le pôle à E + iI de la Lorentzienne, d’où le résidu S ( E ) = S(E + iI ) (345) Comme nous pouvons négliger les faibles dépendances en énergie, nous avons seulement besoin de remplacer R(E) par R(E + iI), avec Rab ( E + iI ) = ∑ λ γ λa γ λb Eλ − E − iI ∞ dE ’ γ a γ b = ∫ ≈ Ra∞ + iπs a δ ab . Dc E ’− E − iI −∞ ( ) (346) Dan la dernière approximation, nous exploitons le fait qu’à cause du signe des γλc, la matrice des moyennes γ a γ b est pratiquement diagonale. En outre, nous avons introduit les définitions d’intensité de pôle et de paramètre des niveaux éloignés, équations (209)-(210), et négligé la variation de l’intensité des pôles autour du pic de la Lorentzienne, exactement comme lors du traitement des niveaux externes (sous-partie 3.4.1). Le résultat final est σ c = 2πD 2c g c (1 − Re S cc ) , S cc = e − 2 iϕ c ( ( (347) ) ) 1 + i Rc∞ + iπs c . 1 − i Rc∞ + iπs c (348) La section efficace totale moyenne s’exprime ainsi en fonction de l’intensité du pôle et du paramètre des niveaux éloignés, des quantités qui peuvent être obtenues soit par l’analyse statistique des résonances résolues, soit à partir des décalages de phase dans le modèle optique (après spécification d’un rayon de voie). 4.2.2 Sections efficaces partielles moyennes : Formules heuristiques Contrairement à la section efficace totale, les sections efficaces partielles moyennes σ ab = πD 2a g a δ ab − S ab , 2 (349) ne sont pas des fonctions linéaires de S mais leur moyenne doit être calculée à partir de termes * quadratiques tels que S ab S cd . Elles ont des pôles aussi bien au dessus qu’en dessous de l’axe réel ce qui empêche l’intégration de contour avec une fonction de pondération Lorentzienne. Sous les conditions habituelles d’ergodicité et de constance d’une bonne statistique – grand nombre de résonances et variation négligeable des distributions des paramètres dans l’intervalle où se calcule la moyenne – on peut remplacer la moyenne sur l’énergie par une moyenne d’ensemble (c’est-à-dire une valeur attendue) sur l’EGO, donc sur la distribution conjointe des énergies des niveaux et des amplitudes de décroissance. La moyenne d’ensemble est facilement obtenue dans le cas limite de 127 résonances très espacées (« isolées ») qui se recouvrent si faiblement que les effets multi-niveaux et les corrélations des valeurs propres peuvent être négligés. En supposant que les largeurs partielles suivent des distributions de Porter et Thomas généralisées (χ2), on obtient dans l’approximation SLBW à niveaux multiples σ ab = σ p , a δ ab TT + πD g a a b T 2 a ∞ 2T 2 1 + δ ab ∫ dx∏ 1 + c x νa ν cT c 0 − δ ac − δ bc − ν c 2 (350) (Dresner 1957, Lane et Lynn 1957), où σp,a est la section efficace de diffusion potentielle, Tc ≡ 1 − S cc 2 est le coefficient de transmission pour la voie c, T ≡ ∑T c c , et νc le degré de liberté pour les largeurs partielles Γλc = 2 γ λ2 c (gardons en mémoire que Pc est inclus dans γ λ2c ). L’approximation Tc ≈ 2π Γc Dc , valable pour de très faibles recouvrements entre niveaux, a été utilisée pour écrire le résultat en fonction de Tc. C’est la formule de Hauser-Feshbach avec renforcement élastique (premières parenthèses) et correction des fluctuations des largeurs (l’intégrale), voir Moldauer (1975). Nous rappelons que νc = 1 pour des voies simples mais que, dans les applications pratiques, on utilise souvent des voies groupées, avec un ν c effectif différent de un, afin de représenter par exemple toutes les voies de fission ou de capture ou toutes les voies de particules ayant le même moment angulaire total et la même parité et qui font ainsi intervenir les mêmes niveaux du noyau composé. Le nombre de voies photon est d’ordinaire si important (sauf pour les noyaux légers ou magiques) qu’il est possible de considérer 2T 1 + c ∏ ν cT c∈γ où Tγ ≡ ∑ c∈γ x −ν c 2 2Tγ ≈ lim 1 + ν γ →∞ ν γT x − νγ 2 =e − xTγ T , (351) Tc . Les nombreuses voies photon peuvent ainsi être représentées approximativement par un facteur exponentiel dans l’intégrale (« facteur de Dresner ») de l’équation (331). La généralisation de la formule de Hauser-Fesbach à des recouvrements quelconques entre les niveaux s’avère être extrêmement difficile. Bien entendu, on pourrait toujours avoir recours à l’échantillonage des espacements de niveaux et des amplitudes de décroissance par calculs Monte Carlo à partir de leurs distributions de probabilité, avec des calculs de sections efficaces ponctuelles et de moyennes qui suivraient. La section efficace moyenne désirée est ainsi obtenue, bien qu’avec l’incertitude statistique et avec le manque de transparence analytique typique des méthodes Monte Carlo. À partir de telles études numériques par Monte Carlo, deux formules analytiques importantes d’un point de vue pratique furent déduites de manière heuristique, par essai et erreur et avec des hypothèses pertinentes. La première formule, due à Moldauer (1980), consiste à étendre l’utilisation de la formule de Hauser-Feshbach, strictement valable que pour les faibles recouvrements entre niveaux, aux forts recouvrements, mais avec σp,a interprétée comme section efficace « directe » ou « de forme élastique », 2 σ p ,a = πD 2a g a 1 − S aa , (352) et avec l’expression exacte pour les coefficients de transmission de voie de particule, 128 Ta = 4πs a 1 − iRaa 2 . (353) De plus, les νc sont considérés comme dépendant de Tc. La dépendance est choisie de façon à ajuster un grand ensemble de résultats par Monte Carlo tout en donnant la limite correcte pour les petits recouvrements entre niveaux (petits coefficients de transmission). La recommandation heuristique de Moldauer est [ ( ) ] ν c = 1.78 + Tc1.218 − 0.78 e −0.228T ν c . (354) La deuxième prescription importante pratiquement est due à Hofmann, Richert, Tepel et Weidenmüller (1975) qui, en conservant l’esprit du modèle original du noyau composé de Bohr (pas de mémoire de la formation du noyau composé), considérèrent les sections efficaces partielles factorisables, σ ab = σ p ,a δ ab + πD 2a g a avec V ≡ ∑V c c V a Vb [1 + (ω a − 1)δ ab ] , V (355) . Les facteurs de renforcement élastique ωc sont attendus comme valant à peu près 3 pour des recouvrements nuls et 2 pour des forts recouvrements entre les niveaux (Satchler 1963). Les auteurs trouvèrent leurs résultats par Monte Carlo reproduits de manière adéquate par ωa = 1 + 2 2 1 + Ta0.3+1.5Ta T 1 T + 2 a − , T n (356) où n est le nombre de voies ouvertes. Avec ces valeurs heuristiques de ωa, on peut calculer les Va à partir de Va = Ta . 1 + (ω a − 1)Va V (357) par itération, en commençant avec Vc = Tc. La dernière équation provient de l’unitarité de S. Les deux prescriptions mènent à des résultats similaires pour les absorptions intermédiaires et fortes (recouvrements moyens et importants entre les niveaux). La formule de Moldauer est commode pour les voies groupées et, par construction, elle donne la limite correcte pour les recouvrements nuls et pour les petits nombres de voies (non photoniques) à basse énergie où l’approximation par factorisation n’est pas applicable. D’autres expressions analytiques approchées furent obtenus à partir de modèles de haie (par exemple Janeva et al. 1985) et de modèles de haie désordonnés (Müller et Harney 1987). 4.2.3 Sections efficaces partielles moyennes : moyenne exacte sur l’EGO Des dizaines d’années durant, toutes les tentatives pour résoudre le problème de Hauser-Feshbach échouèrent. Dans cette situation, le principe d’entropie maximale de l’information théorique semblait offrir la possibilité de contourner tous les détails « microscopiques » des résonances en les traitant comme un sorte de bruit superposé au comportement moyen 129 « macroscopique » décrit par le modèle optique. Les distributions de probabilité des éléments de matrice-S et-R furent obtenue par la maximisation de l’entropie avec des contraintes imposées par des moyennes S et R données (modèle optique) (Mello 1979, Mello et al. 1985, Fröhner 1986) qui offrait en principe la possibilité d’obtenir les expressions moyennes des sections efficaces sur ces distributions plutôt que sur l’EGO. En pratique, pour de nombreuses voies, cela semblait toujours très difficile. Seulement quelques mois après que les distributions d’entropie maximale des matrices-S et –R furent publiées, Verbaarschot, Weidenmüller et Zirnbauer (1985) présentèrent une solution directe au problème de Hauser-Feshbach pour trouver une expression analytique des sections efficaces partielles moyennes, c’est-à-dire pour calculer analytiquement la moyenne sur les distributions de paramètres de résonance de l’EGO, avec des coefficients de transmission connus. Ces auteurs partirent d’une expression faisant intervenir un hamiltonien de l’EGO couplé avec les voies. Avec nos notations cela se traduit par 2 S ab = δ ab + i ∑ ~γ λa Aλµ ~γ µb , 2 (A ) −1 (358) λ ,µ λµ = H λµ − Eδ λµ − i ∑ ~γ λµ ~γ µc , (359) c 2 qui est une généralisation de ce que donnent les équations (158)-(160) pour S ab . Le tilde indique γ λa remplacent que l’hamiltonien est sous sa forme générale, non diagonale, si bien que H λµ et ~ E λ δ λµ et γ λa dans l’équation (160). Avec une formidable démonstration de talent d’analyse, les auteurs réussirent, à l’aide de nouveaux outils venant des systèmes désordonnés de la théorie à plusieurs corps, à réduire la moyenne d’ensemble (valeur attendue) de S ab 2 sur l’EGO à une intégrale triple. En utilisant complètement les propriétés symétriques de l’EGO, d’une fonction génératrice impliquant à la fois des variables commutables et anti-commutables (grassmannienne), des transformations de Hubbard-Stratonovitch pour simplifier les intégrations, puis en passant au cas limite d’un nombre infini de niveaux ( n → ∞ pour le rang de H) par la méthode de la plus grande pente, ils aboutirent sur l’impressionnante expression à trois intégrales S ab 2 = S ab × ∏ c 2 ∞ 1 λ(1 − λ ) λ 1 − λ 2 Ta Tb ∞ + λ λ λ d d d 1 2 ∫0 ∫0 λ (1 + λ ) λ (1 + λ )(λ + λ )2 (λ + λ )2 8 ∫0 1 1 2 2 1 2 2 λ1 λ2 2λ δ ab (1 − Ta ) + + + λ + λ − λ T T T 1 1 1 a 1 a 2 a 1 − Tc λ λ 1 (1 + λ 1 ) λ 2 (1 + λ 2 ) + 1 + Tc λ 1 1 + Tc λ 2 (1 + Ta λ 1 )(1 + Tb λ 1 ) (1 + Ta λ 2 )(1 + Tb λ 2 ) + (1 + δ ab ) 2λ(1 − λ ) + ( )( ) − λ − λ 1 T 1 T a b (360) pour le carré de la valeur absolue de l’élément de la matrice de collision qui pose problème avec ses pôles situés en dessous et au dessus de l’axe réel dans le plan d’énergie complexe. Le produit des 130 voies permet un traitement similaire à la formule de Hauser-Feshbach pour les nombreuses voies de photons faiblement absorbantes : 1 − Tc λ ∏ 1 + Tc λ 1 1 + Tc λ 2 c avec Tγ ≡ ∑ c∈γ ≈e − ( λ1 + λ 2 + 2 λ )Tγ 2 ∏ c∉γ 1 − Tc λ 1 + Tc λ 1 1 + Tc λ 2 , (361) Tc comme dans l’équation (351). Verbaarshot (1986) vérifia que pour la limite de faibles recouvrements entre niveaux, la triple intégrale sur l’EGO (360) se ramène à la formule de Hauser-Feshbach (350) avec renforcement élastique et correction des fluctuations des largeurs. Ainsi, la triple intégrale sur l’EGO est la solution rigoureuse, longtemps recherchée, au problème de Hauser-Feshbach, éliminant toutes les incertitudes associées au modèle de haie ou aux formules analytiques heuristiques inférées à partir des résultats obtenus par méthode Monte Carlo. Ces incertitudes ont toujours été gênantes car les corrections des fluctuations des largeurs sont souvent assez importantes (voir par exemple Lynn 1968, Gruppelaar et Reffo 1977). Un point important est que, au dessus de quelques eV, les sections efficaces moyennes sont pratiquement indépendantes de la température : les moyennes sur l’énergie font essentiellement intervenir les sommes sur les aires des pics, et puisque celles-ci sont invariantes par élargissement Doppler (dans les formalismes de Kapur-Peierls, Adler-Adler, MLBW et SLBW nous avons ∫ dE ψ λ = πΓλ 2 et ∫ dE χ λ = 0 , indépendamment de la température, voir annexe B), il en va de même pour les sections efficaces moyennes. Ainsi, la triple intégrale sur l’EGO, valable pour des résonances non élargies, donne également des moyennes correctes pour des résonances élargies par effet Doppler. 4.2.4 Analyse de données moyennes Les figures 20 à 22 montrent des données de section efficace totale, de capture et de diffusion 238 élastique moyennes pour U et des courbes théoriques ajustées simultanément sur toutes ces données. L’ajustement a été réalisé par moindres carrés sur les paramètres de résonance moyens, à savoir les fonctions densités neutroniques pour les ondes s, p, d et f (qui sont essentiellement les coefficients de transmission dans le cas des voies neutroniques) et les largeurs radiatives pondérées par l’espacement moyen (coefficients de transmission pour les voies groupées photoniques) avec le code FITACS (Fröhner et al. 1982). Les principales dépendances en énergie sont introduites, pour les largeurs neutroniques, par le facteur de pénétration de la barrière centrifuge Pc et par l’emploi de la formule composite de Gilbert et Cameron (1965) de la densité de niveaux, alors que les fonctions densités et les largeurs radiatives ne varient que faiblement dans l’intervalle d’énergie considéré. La section efficace totale a été calculée avec les équations (347)-(348), les sections efficaces partielles avec la formule de Hauser-Feshbach sous la forme proposée par Moldauer (1980), équations (350)-(354), et contrôlée par la triple intégrale sur l’EGO, équations (360) et (361). Des ajustements 238 similaires sur bien plus de données de U définirent en fin de compte une nouvelle évaluation de 238 U dans le domaine des résonances non résolues qui fut adoptée dans les librairies de données évaluées JEF-2 et ENDF/B-VI (Fröhner 1989). Les paramètres de résonances moyens ajustés sont parfaitement en accord avec les paramètres des résonances résolues déterminés à basse énergie, et également avec les calculs du modèle optique à plus haute énergie, jusqu’à 10 MeV. L’estimation de l’erreur venant des ajustements par moindres carrés indique que, après des décennies d’efforts à 238 l’échelle mondiale, les sections efficaces totales et de capture de U dans le domaine des résonances résolues sont finalement connues avec à peu près la précision requise pour les applications en 131 technologie nucléaire (1-3%). Pour les diffusions inélastiques, ce but n’est pas encore atteint, les incertitudes étant encore de l’ordre de 5-15%. Figure 20. Ajustement simultané de Hauser-Feshbach sur les données 238 neutroniques de U dans le domaine des résonances non-résolues : section efficace totale (pour les références, voir Fröhner 1989) Figure 21. justement simultané de Hauser-Feshbach sur les données neutroniques 238 de U dans le domaine des résonances non-résolues : section efficace de capture (pour les références, voir Fröhner 1989). La discontinuité (pointe de Wigner) à 45 keV est due au démarrage de la diffusion inélastique à cette énergie. Les seuils inélastiques sont indiqués par les caractéristiques spin-parité des niveaux résiduels 132 Figure 22. Ajustement simultané de Hauser-Feshbach sur les données neutroniques de 238 U dans le domaine des résonances non-résolues : section efficace de diffusion inélastique (pour les références, voir Fröhner 1989). Les seuils inélastiques sont indiqués par les caractéristiques spin-parité des niveaux résiduels Avoir des sections efficaces moyennes précises n’est toutefois qu’une partie de l’histoire. L’autre partie concerne la structure résonnante, c’est-à-dire les fluctuations dues aux résonances autour des courbes de sections efficaces moyennes. Elles sont implicitement données par le modèle statistique des niveaux, en particulier par les distributions EGO des espacements de niveaux et des largeurs partielles en même temps que la valeur moyenne paramétrisant ces distributions. La présence de structures résonnantes non résolues se manifeste dans les effets liés à l’épaisseur de l’échantillon et d’auto-protection. Comme exemple le plus simple, considérons la relation entre la transmission moyenne d’une couche de matière d’épaisseur n (atomes/barn) et la section efficace moyenne σ , e − nσ = e −n σ e − n (σ − σ ) =e −n σ n2 1 + var σ − +... . 2 (362) Les dernières parenthèses représentent une correction pour les effets des résonances, contenant la variance de la section efficace (moyenne du carré des fluctuations) et des moments plus élevés de la distribution de la section efficace qui quantifient la structure résonnante. Pour la section efficace moyenne, on obtient σ = 1 1 n2 ln e −nσ + ln1 + var σ − +... . 2 n n (363) Souvent, le premier terme du membre de droite est présenté par les expérimentateurs comme étant la section efficace totale, mais la véritable moyenne apparaît être toujours supérieure. Alors que la correction est faible pour les données résolues, elle devient importante pour les données moyennes. 133 Il est dangereux de calculer la transmission d’un écran à partir des sections efficace moyennes, par exemple les sections efficaces multigroupes pour une dilution infinie, sans la correction pour les fluctuations de la section efficace. La correction est importante pour des échantillons épais et pour des sections efficaces très fluctuantes comme celles dans le domaine des résonances non résolues. Des mesures de transmission d’échantillons épais peuvent par conséquent fournir une information sur la structure résonnante. Si nous voulons comparer les expériences avec les calculs, nous devons toutefois calculer la moyenne de la transmission sur les résonances. À la vue de l’expérience sur le calcul de la moyenne dans l’EGO des sections efficaces partielles, nous nous attendons à des problèmes encore plus graves pour la transmission moyenne. La difficulté d’avoir affaire à des sections efficaces élargies par effet Doppler rend la difficulté insurmontable tant qu’une solution analytique est envisagée. Seule la variance de la section efficace peut être calculée théoriquement dans le cas où l’élargissement Doppler n’est pas trop important (comme pour les noyaux légers et les matériaux de structures tels que le fer ou le nickel). En calculant la moyenne avec une fonction de pondération Lorentzienne et en utilisant la causalité, comme dans la dérivation de l’expression de la section efficace, on trouve S cc2 = S cc et ( ) var σ = 2πD 2 ∑ g c σ CN − σ cnon , c ( c où σ CN = πD 2 g c 1 − S cc2 c modèle optique et (364) ) est la section efficace habituelle de formation du noyau composé dans le ( σ cnon = πD 2 g c 1 − S cc 2 ) la section efficace moyenne non élastique de la théorie de Hauser-Feshbach qui doit être calculée à partir des coefficients de transmission du modèle optique, soit dans l’approximation SLBW à plusieurs niveaux, équation (350), soit plus rigoureusement avec la triple intégrale sur l’EGO, équation (360). La Figure 23 montre les 56 fluctuations quadratiques moyennes relatives calculées de cette manière pour Fe ainsi que les valeurs obtenues directement de récentes données de transmission à haute résolution. L’accord est raisonnable si l’on tient compte du fait que l’équation (364) n’est exacte que pour des réactions purement par noyau composé et pour des élargissements par effet de Doppler ou par résolution négligeables, chacun d’eux tendant à réduire les fluctuations dues aux résonances. 134 Figure 23. Fluctuations quadratiques moyennes relatives de la section efficace totale du fer ( ∆σ = var σ ). Ligne continue : calcul avec l’équation (364). Ligne en tirets : calcul avec les processus non élastiques négligés. Cercles vides : valeurs obtenues directement de données prises avec une très haute résolution (Berthold et al. 1994). D’après Fröhner (1994) Alors que les expressions analytiques générales pour des fonctions de sections efficaces moyennes ne sont pas disponibles, il est parfaitement possible de les calculer par des méthodes de Monte Carlo. Un exemple est montré sur la figure 24, où des données de transmission d’un échantillon épais mesurées à température ambiante sont comparées avec les courbes calculées par Monte Carlo. Des « échelles » de résonances furent définies en échantillonnant les espacements entre résonances à partir des distributions de Wigner et les largeurs partielles à partir des distributions de Porter et Thomas, avec des paramètres de résonance moyens pris dans l’évaluation JEF-2. La section efficace totale correspondante a été calculée, élargie par effet Doppler, mise sous forme exponentielle et sa valeur moyenne a été prise. De cette façon 100 000 valeurs de transmission ont été échantillonnées et leur moyenne a été calculée pour chaque donnée ponctuelle, si bien que l’erreur statistique des résultats par Monte Carlo est négligeable comparée à l’incertitude sur les données. Le bon accord entre l’expérience et le calcul dans la figure 24 indique que l’évaluation JEF-2 décrit bien non seulement la section efficace totale (voir figure 20) mais également sa structure résonnante, par exemple le rapport des sections efficaces résonnantes (réactions par noyau composé) sur celles de diffusion potentielle (réactions directes), et les « fenêtres ». 135 Figure 24. Données de transmission d’un échantillon épais de Bokhovko et al. (1988) (points) et courbes générées avec les techniques de Monte Carlo à partir des paramètres de résonance moyens de JEF-2 (lignes continues). Les courbes de transmission obtenues sans correction de structure résonnante sont également représentées (lignes en tirets). D’après Fröhner (1991) Plus d’informations sur la structure des sections efficaces sont obtenues des mesures d’auto-indication. Celles-ci diffèrent des mesures de transmission seulement par le fait que le détecteur mesurant la fraction transmise des neutrons du faisceau est un échantillon mince (« émetteur »), constitué de la même matière que l’échantillon épais (« filtre ») de transmission, et regardé par des détecteurs de rayonnements gamma. Des expériences « avec filtre » et « sans filtre », on obtient le taux d’auto-indication e −nσ σ γ σγ cov(σ, σ γ ) = e − nσ 1 − n + −... σγ (365) qui fait intervenir la covariance entre la structure des sections efficaces totales et de capture, ( cov(σ, σ γ ) ≡ (σ − σ ) σ γ − σ γ )= σσ γ − σ σ γ . (366) (Pour une covariance positive, les deux arguments tendent à varier dans le même sens – si l’un augmente, l’autre va également vraisemblablement augmenter – pour une covariance négative, ils tendent à varier dans des sens opposés). En pratique, les émetteurs ne sont pas idéalement fins, si bien que la section efficace de capture σγ doit être remplacée par le taux de capture yγ qui tient compte de l’auto-protection et des captures après collisions multiples. Les deux effets nécessitent des techniques de Monte Carlo, on doit, en plus de l’échantillonnage d’échelle, simuler maintenant des événements de collisions multiples dans l’émetteur (pour plus de détails voir Fröhner 1989a). La figure 25 montre que les données mesurées et les résultats par Monte Carlo sont à nouveau en bon accord, indiquant que la structure de la section efficace de capture est également correctement représentée par les paramètres de résonance moyens de l’évaluation JEF-2. 136 Figure 25. Rapports d’auto-indication mesurés par Bokhovko et al. (1988) (points) et courbes générées avec les techniques de Monte Carlo à partir des paramètres de résonance moyens de JEF-2 (lignes continues). Les rapports obtenus sans tenir compte de l’auto-protection des résonances et des diffusions multiples sont également représentés (lignes en tirets). D’après Fröhner (1991) 4.3 Constantes de groupes Nous avons vu que pour une section efficace totale moyenne donnée, la transmission moyenne (dans un intervalle d’énergie fini contenant un grand nombre de résonances) d’un échantillon épais est plus grande si la section efficace fluctue que si elle est lisse (voir équation 362). Cela signifie que l’échantillon devient moins transparent à mesure que la température augmente, dû à l’effet lissant de l’élargissement Doppler. (L’expansion thermique de l’échantillon contrecarrant cet effet dans une certaine mesure). Dans une région du réacteur remplie d’un mélange d’éléments, une augmentation de 238 la température fait que les réactions (n,x), par exemple les réactions (n,γ) dans U, deviennent plus probables car le creusement du flux au niveau des résonances (cf. Figure 9) devient plus faible à mesure que la structure résonnante est lissée. Afin de calculer ces effets complexes, il est plus simple d’utiliser des constantes multigroupes, c’est-à-dire des sections efficaces moyennes judicieusement choisies. Le taux de réaction (n,x) pour un noyau donné, dont la moyenne est calculée sur la région et sur un intervalle d’énergie fini (de groupe) ∆E, peut être écrit comme ϕσ x = f x σ x ϕ avec ... ≡ ∫ ∆E dE ... ∆E (367) Les bornes des groupes sont généralement prises équidistantes sur une échelle d’énergie logarithmique, c’est à dire une échelle linéaire en léthargie, si bien qu’il y a toujours le même nombre de groupes par décade d’énergie. La section efficace σx est considérée élargie par effet Doppler. Puisque σ x ne dépend pas de la température (à part les effets de bords aux extrémités des groupes qui deviennent négligeables si l’intervalle de groupe contient beaucoup de résonances), la principale 137 dépendance en énergie, pour un flux donné, est contenue dans ce qu’on appelle le facteur d’auto-protection ou de Bondarenko fx. 4.3.1 Facteurs de Bondarenko Le facteur d’auto-protection dépend non seulement de la température mais aussi des sections efficaces de tous les autres noyaux du mélange, ce qu’on appelle la dilution. Les données contenues dans les jeux de constantes de groupe pour les applications technologiques sont (cf. par exemple Bondarenko et al. 1964) • Les sections efficaces pour une dilution infinie • Les facteurs d’auto-protection σx , fx = ϕσ x ϕ σx , classées pour chaque noyau sur une grille de températures et de sections efficaces de dilution σd, par exemple T = 300, 900, 1 500, 3 100 K, σd = 0, 1, 10, 100, 1 000, 10 000, 100 000, 1 000 000 b. La section efficace de groupe auto-protégée σx ≡ f x σ x (368) est définie afin que la multiplication avec le flux moyen ϕ sur le groupe donne le taux de réaction correct. Avec la définition de la covariance, on peut écrire ϕ σx f x = 1 + cov , ϕ σx (369) Le flux étant faible lorsque la section efficace est grande, les deux grandeurs sont anticorrellées, la covariance est négative, et donc fx<1. D’un autre côté, fx doit être positive car autrement le taux de réaction moyen deviendrait négatif. Il s’ensuit (au moins dans le cas d’un grand nombre de niveaux compris dans l’intervalle de groupe) qu’on a 0<fx<1. Nous pouvons être plus explicite en invoquant l’approximation de résonance étroite, valable dans le cas important où les résonances sont étroites comparativement à l’énergie moyenne perdue par les neutrons diffusés. Avec cette approximation, le flux est proportionnel à l’inverse de la section efficace totale macroscopique, ϕ ∝ 1 (σ + σ d ) , où σ = ∑ x σ x est la section efficace totale du noyau considéré. Nous avons donc dans le cadre de l’approximation de résonance étroite fx = σ x (σ + σ d ) σ x 1 (σ + σ d ) ∫ = ∞ 0 dn e − nσ d e − nσ σ x ∫ ∞ 0 dn e − nσ d e − nσ 138 σx , (370) Puisque σd est une constante dans le modèle de Bondarenko, on remarque que f x → 1 si T → ∞ (section efficace totale lisse) ou σ d → ∞ (dilution infinie). C’est pourquoi σ x est appelée section efficace de groupe en dilution infinie (ou section efficace de groupe non protégée). Pour les groupes contenant de nombreuses résonances, c’est la section efficace moyenne au sens habituel. La dernière expression montre de quelle façon les facteurs d’auto-protection sont reliés aux rapports d’auto-indication, équation (365) et aux transmissions moyennes, équation (362). Si ces dernières quantités peuvent être prédites précisément pour les échantillons épais, le facteur d’auto-protection peut également l’être. Avec les résultats présentés sur les figures 15 et 16, et du fait de la corrélation positive entre le numérateur et le dénominateur dans la dernière équation, on en 238 conclut que les facteurs d’auto-protection pour le domaine des résonances non résolues de U peuvent être calculés avec une précision de 1-2% à partir des paramètres de résonance moyens de JEF-2. 4.3.2 Méthodes analytiques et de Monte Carlo pour la génération de constantes de groupe La technique de génération des constantes de groupe la plus importante pratiquement est la méthode analytique (Fröhlich 1965, Hwang 1965). Les moyennes dans la dernière expression sont calculées en se fondant sur la statistiques des niveaux dans l’approximation des résonances étroites. La version la plus simple comprend les approximations supplémentaires suivantes : • Les sections efficaces sont écrites sous forme de sommes de termes SLBW (approximation de Breit et Wigner à « plusieurs niveaux »). • L’élargissement Doppler est décrit par les profils de Voigt symétriques et asymétriques ψet χ. • L’interférence entre les diffusions résonnante et potentielle (termes avec χ) est négligée. • Les moyennes de la statistique des niveaux sont calculées pour chaque séquence de niveaux avec les autres séquences représentées approximativement par une section efficace lisse incluse dans σd. Le résultat peut s’écrire sous la forme σx = f x σ x ΓJ = (σ p + σ d )1 − ∑ Ds s s −1 ∑D s Γx J s s cos 2ϕ s , où σp est la section efficace de diffusion potentielle du noyau considéré, ... (371) s réfère à une moyenne sur toutes les largeurs partielles pour la séquence du s-ème niveau, les sommations se font sur toutes les séquences, et J est l’intégrale ∞ J (κ, β) ≡ ∫ dx 0 ψ ( x, β ) , ψ ( x, β ) + κ (372) introduite par Dresner (1960). Elle fait intervenir les profils symétriques de Voigt (comparer l’équation 244 et l’annexe B) 139 x − y 2 dy , ψ ( x, β ) = 2 ∫ exp− β π −∞ β 1 + y ∞ 1 (373) où β ≡ 2 ∆ Γ est la largeur Doppler avec comme unité la demi-largeur à mi-hauteur, Γ/2, et x ≡ 2 ( E − E 0 ) Γ est la distance par rapport au pic de la résonance à E0 avec la même unité. En outre, κ= σd + r , σˆ (374) σˆ = 4πD 2 g Γn cos 2ϕ , Γ (375) avec r décrivant approximativement la répulsion des valeurs propres. C’est la méthode la plus rapide existante pour la génération de constante de groupe. Elle est employée dans de nombreux codes d’utilisation répandue, tels que ETOX (Schenter et al. 1969), MIGROS (Broeders et Krieg 1977), NJOY (MacFarlane et al. 1982), et GRUCON (Sinitsa 1983). La méthode du ralentissement utilise des mailles de résonances échantillonnées par Monte Carlo de sorte que le calcul des taux de réaction moyens peut se réduire au cas des résonances résolues. Le code TIMS (Takano et al.) en est un exemple. Les mailles de résonances échantillonnées par Monte Carlo sont également utilisées dans les méthodes de sous-groupes/multibandes dont Nikolaiev et al. (1970) et Cullen (1974) furent les pionniers (voir également Ribon et Maillard 1986). On classe, pour chacun des quelques (par exemple 4) sous-groupes/bandes, les poids αi et les moyennes sur les bandes σi, σxi représentant de manière grossière la distribution des sections efficaces dans le groupe en énergie. Ils doivent être déterminés en ajustant les moyennes obtenues à partir des sections efficaces dans les groupes de la manière suivante σ x = ∑ α i σ xi , (376) i σx σ + σd =∑ i σ = ∑ α i σi , (377) i α i σ xi , σi + σ d (378) 1 σ + σd =∑ i αi . σi + σ d (379) La méthode des sous-groupes/multibandes est essentiellement une variante grossière mais efficace de la méthode des tables de probabilité (Levitt 1972) où l’on génère, à partir des mailles de résonances échantillonnées, la densité complète de probabilité à plusieurs variables p(σ, σ n , σ γ ,...) = p(σ ) p(σ n σ ) p(σ γ σ, σ n )... . (380) La distribution de la section efficace totale, p(σ), est enregistrée avec les probabilités conditionnelles p σ n σ , p σ γ σ, σ n etc. sous une forme discrète judicieuse, de manière à ce que ce ( ) ( ) soient les sections efficaces macroscopiques (pondérées par l’abondance isotopique, élargies par effet Doppler), plutôt que les paramètres de résonance, qui puissent être directement échantillonnées. 140 5. CONCLUSIONS La première partie de cette vue générale est dédiée aux outils probabilistes des évaluateurs de données, avec l’objectif de faire prendre conscience aux lecteurs à quel point la théorie moderne des probabilités a fait avancer et simplifier le traitement des incertitudes des données, en particulier par rapport à l’utilisation de la connaissance a priori, à l’attribution de probabilités représentant une information vague ou globale, et au traitement des erreurs systématiques et des corrélations qu’elles induisent – des domaines où la stastique conventionnelle n’apporte pas grand-chose. Le principe Bayésien, consistant à apprendre à partir des observations, est illustré à l’aide d’applications typiques de statistiques de comptage, d’évaluation de données et d’ajustement par des modèles. L’estimation de paramètre Bayesienne ne laisse aucune place pour des suppositions à propos des « estimateurs » et de leurs propriétés plus ou moins désirables (absence de biais, suffisance, efficacité, admissibilité, etc.), une fois que l’a priori, le modèle statistique et la fonction de perte sont spécifiés. L’estimation optimale par perte quadratique consiste en la valeur moyenne et le carré de l’erreur quadratique moyenne (a posteriori) (ou pour des problèmes à plusieurs variables, le vecteur de moyenne et la matrice de covariance) plutôt que les modes ou médianes et les intervalles de confiance fréquencistes. La méthode des moindres carrés apparaît comme une conséquence naturelle du principe du maximum d’entropie de l’information théorique dans les cas pratiques les plus importants, où ce que nous avons en entrée sont des données avec des erreurs types (erreurs quadratiques moyennes) et, peut être, des corrélations. La généralisation à des modèles non linéaires est directe. Il y a eu également quelques progrès par rapport aux données incompatibles mais il est toujours nécessaire d’approfondir ce point. Le format ENDF utilisé mondialement pour les données évaluées de réactions nucléaires n’est pas encore satisfaisant pour l’enregistrement de l’information incertitude. L’enregistrement, plus évident intuitivement, des erreurs types et des coefficients de corrélation plutôt que des variances et covariances, difficiles à utiliser et sources d’erreurs, devrait être admise et encouragée. Le reste de l’ouvrage est dédié spécifiquement à l’évaluation des données dans le domaine des résonances résolues et non résolues. Les relations intimes entre la théorie de la matrice-R, le modèle statistique des réactions résonnantes, la théorie de Hauser-Feshbach avec corrections des fluctuations des largeurs et le modèle optique sont expliquées. L’élargissement Doppler est traité de manière assez détaillée pour le cas important des formalismes pratiques des résonances et pour les sections efficaces tabulées. Des effets expérimentaux tels qu’élargissement par la résolution expérimentale, autoprotection et diffusions multiples, bruit de fond et impuretés sont également discutées. L’exposé entier est bref par nécessité, mais il est espéré que suffisamment de matière et de références sont présentées pour offrir aux nouveaux venus et non spécialistes un point de départ adéquat pour des études plus poussées et un travail de spécialiste. Il y a un besoin considérable, plus particulièrement dans le domaine des résonances non résolues, de développement de méthodes et de programmes aussi bien pour les réacteurs à fission qu’à fusion. L’estimation des niveaux manquants est toujours essentiellement basée sur l’approximation du maximum de vraisemblance telle que décrite par Fröhner (1983). Une approche Bayesienne plus rigoureuse semble faisable et utile, mais doit être menée à bien. Ceux qui sont particulièrement intéressés par l’analyse et l’évaluation des résonances ou dans un traitement rigoureux par la matrice-R du modèle optique sphérique trouverons des informations supplémentaires dans les comptes rendus de l’ITCP 1988 (Fröhner 1989a). Les 141 méthodes et procédures d’évaluation des données nucléaires ont également été discutées de manière très approfondies, en insistant sur l’expérience pratique, par Poenitz (1981) et Bhat (1981). Remerciements J’adresse mes plus sincères remerciements à P. Finck (maintenant à l’ANL) qui m’invita à Cadarache, à J. Jacqmin (CEA Cadarache) et C. Nordborg (NEADB) qui organisèrent une visite de quatre mois, à P. Bioux (EDF) qui m’empressa d’écrire ce papier, et à O. Bouland et E. Fort ainsi qu’aux autres collègues qui rendirent ma visite à Cadarache scientifiquement utile, gratifiante et généralement agréable. 142 Annexe A Distributions de probabilités d’importance pratique Dans cette annexe, nous passons rapidement en revue les distributions de probabilité qui sont les plus importantes dans l’évaluation et l’analyse des données nucléaires, avec leurs estimations de paramètres par perte quadratique (moyennes et variances). Les notations sont les suivantes : P( A I ) probabilité de A connaissant l’information I p(x I )dx probabilité infinitésimale de x dans dx sachant I, avec la densité de probabilité p (x I ) . Distributions à une seule variable x moyenne (valeur attendue) ( var x ≡ x − x 2 )= x2 − x 2 ∆x ≡ var x variance (carré de l’erreur quadratique moyenne) écart type (erreur quadratique moyenne ou erreur type) Distributions à plusieurs variables x vecteur de moyenne d (x ) = ∏ν dxν C ≡ (x − x )(x − x élément de volume dans l’espace des x ) T matrice de covariance C µν = ∆xµ ρ µν ∆xν élément de la matrice de covariance ρ µν = ρ νµ coefficient de corrélation ( − 1 ≤ ρ µν ≤ +1, 143 ρ νν = 1 ) Le T indique la transposée (conjugaison hermitique des vecteurs et matrices réels). Les valeurs attendues sont notées par des parenthèses angulaires, x , les moyennes sur l’échantillon par une barre, x . A.1 Distributions binomiale et bêta Applications : Schéma de Bernouilli avec deux solutions possibles (réussite ou échec, parité positive ou négative, niveau de fermion occupé ou non, …). Distribution d’échantillonnage (probabilité de succès, en une tentative) : P(11, θ) = θ . (A1) Fonction de vraisemblance pour s succès en n tentatives (distribution binomiale) : n n−s P(s n, θ) = θ s (1 − θ) s s = 0,1,2,...n ≥ 1 . (A2) Cas 1 : Ignorance totale à propos du paramètre θ, admettant même la possibilité qu’il n’y ait qu’une seule alternative, θ = 0 ou 1. A priori le moins informatif (théorie des groupes) (règle de Haldane, voir Jaynes 1968) : p(θ)dθ ∝ dθ , θ(1 − θ) 0 ≤ θ ≤ 1. (A3) A posteriori (distribution bêta) : p(θ s, n )dθ = B(s, n − s ) θ s −1 (1 − θ) −1 n − s −1 dθ 0 ≤ θ ≤ 1, (A4) avec B ( x, y ) ≡ Γ( x ) Γ( y ) Γ( x + y ) (fonction bêta) et, pour x = n entier, Γ(n ) = (n − 1)! (fonction gamma). Estimations des paramètres par perte quadratique : θ= s , n (A5) var θ = 1 s s 1 − . n +1 n n (A6) Tant qu’il n’y a que des succès ou que des échecs, la probabilité reste strictement concentrée à θ = 1 ou θ = 0, avec une variance nulle. Dès qu’il y a au moins un succès (s≥1) et un échec (n - s ≥1), d’autres valeurs attendues sont obtenues et la variance devient finie. 144 Cas 2 : S’il n’y a pas de doute a priori, qu’on ait affaire à un pur schéma de Bernouilli à deux alternatives, l’a priori approprié est égal à ce que donnerait l’équation (A4) après l’observation d’un succès et d’un échec (règle de Bayes-Laplace) : p(θ)dθ = dθ , 0 ≤ θ ≤ 1. (A7) A posteriori (distribution bêta) : p (θ s, n )dθ = (n + 1)! θ s (1 − θ)n− s dθ , (n − s )!s! 0 ≤ θ ≤ 1. (A8) Estimation par perte quadratique : θ= s +1 , n+2 (A9) var θ = 1 s +1 s +1 1 − . n +3 n+ 2 n+ 2 (A10) (A9) est la règle de succession de Laplace. A.2 Distributions gamma et de Poisson Applications : Décroissance radioactive, statistique de comptage, événements rares avec un taux d’occurrence moyen constant. Intervalle de temps moyen t =τ (A11) Distribution d’entropie maximale avec cette contrainte et paramètre de Lagrange λ : p(t τ )dt = e λt λdt , 0<t <∞ (A12) (distribution exponentielle d’intervalles) avec t = τ = 1 λ = ∆t . (A13) Probabilité pour n événements entre 0 et t, dans des intervalles arbitraires mais ordonnés en temps dt1, dt2,…dtn (distribution de Poisson) : 145 P(n λ, t ) = e − λt tn t λ n ∫ dt ∫ dt n 0 = e −λt λn t2 n −1 0 t ...∫ dt1 0 t t 1 dt n ∫ dt n −1 ...∫ dt1 n! ∫0 0 0 e −λt (λt ) = , n! (A14) n n = 0,1,2,... , avec les valeurs attendues n = λt , (A15) var n = λt . (A16) A priori pour le taux λ (a priori de Jeffreys pour les paramètres d’échelle) p (λ )dλ ∝ d ln λ = dλ , λ 0<λ <∞. (A17) La fonction de vraisemblance de n événements durant un temps d’observation t est la distribution de Poisson (A14). A posteriori (distribution gamma) : p(λ t , n )dλ = e − λt (λt ) dλ , Γ(n ) λ n 0<λ <∞. (A18) Estimation par perte quadratique : λ = var λ = n , t (A19) ∆λ 1 . = λ n (A20) Remarque : A posteriori et estimation sont identiques si le nombre d’événements n et le temps d’observation t ont été accumulés durant plusieurs mesures distinctes (runs). A.3 Gaussienne à une variable Applications : Erreurs inconnues, fluctuations incontrôlables, propagation d’erreur, combinaison de données d’origines diverses, etc., valable si un grand nombre de composantes indépendantes agissent ensemble (théorème de la limite centrale) ou si seuls les moyennes et les écarts-types sont connus (principe du maximum d’entropie) avec des erreurs ou des écarts possibles compris entre –∞ et +∞. La distribution d’échantillonnage (probabilité des écarts ou des erreurs x – µ possibles, connaissant la valeur réelle µ et l’écart-type σ) : 146 1 x − µ 2 exp − dx , 2πσ 2 2 σ p(x µ, σ )dλ = 1 −∞ < x < ∞. (A21) Fonction de vraisemblance des valeurs x dans dx1, … dxn à x1,…xn : p (x1 ,...x n µ, σ )dx1 ...dx n = = 1 (2πσ ) 2 n2 1 (2πσ ) 2 n2 1 exp − 2 2σ ∑ (x ns ’2 exp− 2 2σ x − µ 2 dx1 ...dx n . 1 + s ’ n j =1 j 2 − µ ) dx1 ...dx n (A22) Ceci dépend de l’échantillon uniquement au travers de la moyenne de l’échantillon et de la variance de l’échantillon, x≡ 1 n ∑xj , n j =1 s ’2 ≡ (A23) 1 n (x j − x )2 = x 2 − x 2 . ∑ n j =1 (A24) Cas 1 : Paramètre de position µ et paramètre d’échelle σ tous deux inconnus. A priori le moins informatif (théorie des groupes) : p(µ, σ )dµdσ ∝ dµdσ , σ −∞ <µ <∞, 0<σ<∞ . (A25) A posteriori p (µ ,σ x , s’ , n ) = p (u v , n )du p (v n )dv = ( exp − vu 2 π [( ) v du ) ][( exp(− v )v (n −1) 2 dv Γ n2−1 v ( ) )] exp − 1 + u 2 v 1 + u 2 v = p (v u , n )dv p (u n )du = Γ n2 µ−x −∞ <u ≡ <∞, s’ () ns ’2 0<v≡ <∞ . 2σ 2 n2 dv du 1 n 1 − v B , 1+ u2 2 2 ( )( ) n2 , (A26) Les deux factorisations correspondent aux deux formes de la règle fondamentale de multiplication pour les probabilités conjointes. La distribution marginale de u ( distribution t de Student avec t = u n − 1 , n – 1 degrés de liberté) : p(u n )du = ( du )( B 12 , n2−1 1 + u 2 ) n2 , −∞<u < ∞ . 147 (A27) et de v (distribution gamma ou du χ2 avec χ 2 = 2v , n – 1 degrés de liberté) : ( n −1 ) 2 e −v v p(v n )dv = Γ n2−1 ( ) dv , v 0<v<∞ . (A28) Estimation de paramètre par perte quadratique : avec les distributions marginales on trouve facilement u , v , var u , var v et les estimations µ = x, (A29) n − 1 −2 s’ , n σ −2 = var µ = (A31) s ’2 , n−3 var σ − 2 = 2 (A30) n − 1 −4 s’ . n2 (A32) Les paramètres estimés ne sont pas corrélés, cov(u , v ) = uv − u v = 0 entraînant que ( ) cov µ, σ −2 = 0 . (A33) Cas 2 : Si σ est connu, l’a priori est simplement p(µ σ, n )dµ = (µ − x )2 exp − dµ , 2 2πσ 2 n 2σ n 1 −∞ <µ <∞. (A34) σ2 . n (A36) Estimation par perte quadratique : µ = x, (A35) var µ = Cas 3 : Mesures de m répétées, sans corrélations entre elles, dont les résultats sont donnés sous la forme x1 ± σ1 ,...x n ± σ n . Distribution d’échantillonnage d’entropie maximale : ( ) p x j σ j dx j = 1 x − µ 2 j dx j , exp − 2 2 σ 2πσ j j 1 − ∞ < xj < ∞ . (A37) Fonction de vraisemblance : 1 n x − µ 2 j dx1 ...dx n . p(x1 ,...x n µ, σ1 ,..., σ n )dx1 ...dx n ∝ exp − ∑ 2 j =1 σ j 148 (A38) A posteriori : ( ) p µ {x j , σ j } dµ = (µ − x )2 exp − dµ , 2 2 πσ 2 n 2σ n 1 −∞ <µ <∞, (A39) où les barres supérieures réfèrent aux moyennes pondérées sur l’échantillon (sur les mesures), ∑σ x x≡ ∑σ −2 j j j j −2 j , σ (A40) 2 ∑σ σ ≡ ∑σ −2 j j j 2 j −2 j = n . −2 σ ∑j j (A41) Estimation par perte quadratique : µ = x, var µ = (A42) σ2 . n (A43) A.4 Gaussienne à plusieurs variables Applications : Propagation des erreurs corrélées, ajustement par moindres carrés dans les espaces multidimensionnels des échantillons et des paramètres. Les dérivations suivent étroitement celles de la Gaussienne à une variable, donnant lieu à des expressions vectorielles et matricielles de formes similaires. Les indices en Roman (j,k) indiquent les essais ou les membres de l’échantillon, les indices en Grec (ν, κ) indiquent les paramètres (coordonnées cartésiennes dans l’espace des paramètres). Distribution d’échantillonnage (probabilités des écarts ou erreurs vectoriels possibles x – µ, connaissant le vrai vecteur µ et la matrice de covariance C) : p (x µ, C)d (x ) = 1 T exp − (x − µ ) C −1 (x − µ ) d (x ) , det (2πC) 2 1 − ∞ < xν < ∞ . (A44) Vraisemblance des vecteurs x dans d(x1),…d(xn) à x1,…xn : p(x1 ,...x n µ, C)d (x1 )...d (x n ) = = 1 det (2πC) n2 1 n2 det (2πC) 1 n T exp − ∑ (x j − µ ) C −1 (x j − µ ) d (x1 )...d (x n ) 2 j =1 n T exp − tr C C -1 + (x − µ ) C −1 (x − µ ) d (x1 )...d (x n ) 2 [( (A45) ] ) Ceci ne dépend de l’échantillon qu’au travers du vecteur de moyenne de l’échantillon et de la matrice de covariance de l’échantillon, x= 1 n ∑x j , n j =1 (A46) C≡ 1 n (x j − x )(x j − x )T = xxT − xxT . ∑ n j =1 149 (A47) Cas 1 : Paramètres de position µν et éléments de matrice de covariance Cνν’ = σνρνν’σν’ inconnus. A priori le moins informatif (théorie des groupes) dans l’espace des paramètres à m dimensions (ν = 1, …m) : p(µ, C)d (µ )d (C) ∝ − ∞ < µν < ∞ , ( ) d (µ )d (C) d (µ )d C −1 = , det C ( m+1) 2 det C −( m+1) 2 0 < σ ν2 ≡ C νν < ∞ , C νν ’ − 1 < ρ νν ’ ≡ C νν C ν ’ν ’ < +1 (A48) 2 A posteriori : avec les égalités exp(-tr V) = det{exp(-V)} et det(1 + uuT) = 1 + uTu = 1 + u , on trouve ( p µ , C x, C , n ) = p(u V, n )d (u ) p(V n )d (V ) = ( ) { } ( ) d (V ) det V ( m +1) 2 ) ][( ) ] exp − u T Vu d (u ) det exp(− V )V (n −1) 2 ( det πV -1 ) π m ( m −1) 4 ∏ = p(u n )d (u )d (u ) p (V u, n )d (V ) (1 + u ) = 2 −n 2 ∏ m ν =1 B { [ m Γ ν =1 ( n −ν 2 d (u ) det exp − 1 + uu T V 1 + uu T V ( ) π m( m −1) 4 ∏ν =1 Γ 1 n −1 , 2 2 m ( ) n2 (A49) } n +1− ν 2 d (V ) det V (m +1) 2 où, par analogie avec le cas à une variable, nous définissons le vecteur u ≡ S’−1 (µ − x ) , − ∞ < uν < ∞ , (A50) et la matrice réelle symétrique définie positive (valeurs propres réelles positives) V≡ n S’C −1S’ , 2 0 < det V < ∞ , (A51) avec la matrice réelle symétrique définie positive S’ définie par C = S’2 (A52) (dans le système des axes principaux de C ). Les deux factorisations correspondent aux deux formes de la règle fondamentale de multiplication pour les probabilités conjointes. La distribution marginale pour u (distribution t à plusieurs variables) (1 + u ) p (u n )d (u ) = 2 −n 2 ∏ m B ν =1 d (u ) ( ) (A53) 1 n −1 , 2 2 et pour V (distribution gamma à plusieurs variables ou distribution de Wishart) 150 p(V n )d (V ) = { det exp(− V )V (n −1) 2 π m( m −1) 4 ∏ν =1 Γ m } ( ) n −ν 2 d (V ) . det V ( m +1) 2 (A54) Estimation des paramètres par perte quadratique : avec la distribution marginale, on trouve u , uu T , V et finalement µ = x, C −1 = (µ − x )(µ − x )T (A55) = C , n−m−2 n − 1 −1 C . n (A56) (A57) Cas 2 Si C est connue, l’a posteriori est simplement n T exp − (µ − x ) C −1 (µ − x ) d (µ ) , − ∞ < µ ν < ∞ . det (2π C n ) 2 p (µ C, n )d (µ ) = 1 (A58) Estimation par perte quadratique : µ = x, (µ − µ )(µ − µ ) T (A59) = C . n (A60) Cas 3 : Mesures répétées de µ, sans corrélations entre elles, dont les résultats sont donnés sous la forme des vecteurs xj et des matrices de covariance Cjk (j,k = 1,…n). Définitions : x1 x x ≡ 2 , M x n C11 C C ≡ 12 M C 1n (A61) C12 C 22 M C 2n L C1n L C 2n . O M L C nn (A62) Vraisemblance : p(x µ, C)d (x ) ∝ e −Q 2 d (x ) , (A63) où ( ) (x Q = ∑ (x j − µ ) C −1 T j ,k [( ) = ∑ tr C −1 j ,k [( jk jk k − µ) (µ − x k )(µ − x j )T ] ) ] (A64) = n tr xx T − xx C −1 + n(µ − x ) C −1 (µ − x ). T T 151 Les barres supérieures indiquent des moyennes pondérées sur l’échantillon (sur les mesures), x ≡ ∑ C −1 j ,k ( ) jk xx ≡ ∑ C −1 j ,k ( ) T C ≡ ∑ C −1 j ,k ( ) −1 ∑ (C ) −1 jk jk jk xk , (A65) j ,k −1 −1 ∑ (C ) −1 jk x k x Tj , (A66) j ,k ∑ (C ) (C ) −1 −1 jk j ,k jk C jk = n ∑ C −1 j ,k ( ) jk −1 (A67) A posteriori : p(µ x, C)d (µ ) = n T exp − (µ − x ) C −1 (µ − x ) d (µ ) , − ∞ < µ ν < ∞ . 2 det (2π C n ) 1 Estimation par perte quadratique : µ = x, (A69) (µ − µ )(µ − µ ) T 152 = C . n (A70) (A68) Annexe B Propriétés mathématiques des profils de Voigt ψ et χ Les formes élargies par effet Doppler des résonances isolées peuvent être décrites par les profils de Voigt ψ(x,β) et χ(x, β). Les arguments x≡ E − E0 , Γ2 β≡ (B1) ∆ Γ2 (B2) dépendent de l’énergie de la résonance E0, de la largeur totale Γ, de la largeur Doppler ∆ (voir équation 110) et de l’énergie incidente E (toutes dans le système du laboratoire). Définition ψ ( x, β ) = χ ( x, β ) = ∞ 1 − ( x − x ’)2 β 2 dx’ = ψ (− x, β ) 1 + x’2 (B3) − ( x − x ’)2 β 2 x’dx’ = −χ(− x, β) 1 + x’2 (B4) ∫e β π −∞ 1 β π ∞ ∫e −∞ Cas d’arguments particuliers À l’énergie de la résonance, E = E0 ψ(0, β ) = 1 π 1 β2 e erfc , β β χ(0, β) = 0 (B5) (B6) à la température nulle, T = 0 ψ(0, β ) = 1 , 1+ x2 χ(0, β ) = (B7) x 1+ x2 (B8) Séries convergentes ∞ 2 2 1 1 x ψ( x, β ) = e (1− x ) β ∑ 2 β n = 0 n! β 2n 1 1 Γ − n + , 2 2 β 153 (B9) ∞ 2 2 1 1 x χ( x, β) = e (1− x ) β ∑ 2 β n = 0 n! β 2 n +1 1 1 Γ − n − , 2 2 β (B10) où Γ(a,t) est la fonction gamma incomplète, avec ∞ Γ(a + 1, t ) = aΓ(a, t ) + e t = ∫ dt ’e −t ’t ’a (B11) 1 Γ , t = π erfc t 2 (B12) t a t Séries asymptotiques pour les basses températures (β faible) ∞ ψ ( x, β ) = ∑ n =0 ∞ χ ( x, β ) = ∑ n=0 (2n + 1)!! − β 2 2n + 1 1 2 1+ x2 (2n + 1)!! − β 2 2n + 1 n n 1 2 1+ x2 n +1 2 n +1 2 cos[(2n + 1) arctan x ] (B13) sin [(2n + 1) arctan x] (B14) d’où ∞ ψ ( x , β ) + iχ ( x , β ) = ∑ n =0 (2n + 1)!! − β 2 2n + 1 n ix 1 + 2 2 1+ x 1+ x2 n +1 2 (B15) Relation avec l’intégrale de probabilité complexe ψ ( x , β ) + iχ ( x , β ) = π x+i W , β β (B16) où ∞ z 1 e −t 2i z2 −t 2 , = + 1 W (z ) = dt e e dt ∫ πi −∫∞ t − z π 0 2 (B17) Dérivées ∂ψ 2 = 2 (χ − xψ ) , ∂x β (B18) ∂χ 2 = 2 (1 − ψ − xχ ) ∂x β (B19) Intégrales ∞ ∫ ψ(x, β)dx = π , −∞ ∞ (B20) ∫ χ(x, β)dx = 0 −∞ 154 (B21) RÉFÉRENCES V.M. Adamov, Conf. on Nucl. Cross Sections and Technol., NBS SP 594, p. 995, Knoxville (1979). F.T. Adler and D.B. Adler, Nucl. Data for Reactors, IAEA Vienna (1970) p. 777. Anzaldo-Meneses, Z. Physik A 353 (1995) 295. R. Arlt et al., 6-th All Union Conf. on Neutron Physics, Kiev, vol. 2, p. 129 (1983). T. Bayes, Phil. Trans. Roy. Soc. 53 (1763) 370; reprinted in E.S. Pearson and M.G. Kendall, Studies in the History of Statistics and Probability, Hafner, Darien, Conn. (1970). J.O. Berger, Statistical Decision Theory and Bayesian Analysis, Springer, New York (1985). J. Bernoulli, Ars Conjectandi, Thurnisiorum, Basel (1713) ; reprinted in Die Werke von Jakob Bernoulli, Birkhäuser, Basel (1975). K. Berthold, C. Nazareth, G. Rohr and H. Weigmann, Proc. Int. Conf. on Nucl. Data for Sci. and Technol., J.K. Dickens (ed.), ANS, La Grange Park (1994) p. 218. H.A. Bethe, Rev. Mod. Phys. 9 (1937) 69. M.R. Bhat, Proc. Conf. Nucl. Data Eval. Mth. and Proc., B.A. Magurno and S. Pearlstein (eds.), Brookhaven report BNL-NCS-51363, (1981) vol. I, p. 291. M.R. Bhat and G.E. Lee-Whiting, Nucl. Instr. Meth. 47 (1967) 277. L.C. Biedenharn, Oak Ridge report ORNL-1501 (1953). J.M. Blatt and L.C. Biedenharn, Rev. Mod. Phys. 24 (1952) 258. Bloch, Nucl. Phys. A112 (1968) 257, 273. Å. Bohr, Conf. on Peaceful Uses of Atomic Energy, Geneva (1955) vol. 2, p. 151. M.V. Bokhovko, V.N. Kononov, G.N. Manturov, E.D. Poletaev, V.V. Sinitsa, A.A. Voevodskij, Yad. Konst. 3 (1988) 11; Engl. transl. : IAEA report INDC(CCP)-322 (1990) p. 5. L.M. Bollinger and G.E. Thomas, Phys. Rev. 171 (1968) 1293. I.I. Bondarenko et al., Group Constants for Nuclear Reactor Calculations, Consultant Bureau Enterprises Inc., New York (1964). 155 O. Bouland, Private Communication, C. E. Cadarache (1999). M. Born, Optik, Springer, Berlin (1933). T.A. Brody, J. Flores, J.B. French, P.A. Mello, A. Pandey and S.S. Wong, Rev. Mod. Phys. 53 (1981) 385. Brusegan et al., IRMM Geel, Private Communication (1992). Broeders and B. Krieg, Karlsruhe report KfK 2388 (1977). A.G.W. Cameron and R.M. Elgin, Can. J. Phys. 43 (1965) 1288. M. Cancé and G. Grenier, Nucl. Sci. Eng. 68 (1978) 197. E.R. Cohen, K.M. Crowe, J.W.M. DuMond, Fundamental Constants of Physics, Interscience, New York (1957) ; see also E.R. Cohen and B.N. Taylor, Phys. Today BG9 (Aug. 1992). R.T. Cox, Am. J. Physics 14 (1946) 1. C.E. Cullen and C.R. Weisbin, Nucl. Sci. Eng. 60 (1976) 199. C.E. Cullen, Nucl. Sci. Eng. 55 (1974) 387. M.H. DeGroot, Optimal Statistical Decisions, McGraw-Hill, New York (1970). H. Derrien, G. de Saussure, N.M. Larson, L.C. Leal and R.B. Perez, Nucl. Data for Sci. and Technol., S. Igarasi (ed.), JAERI (1988) p. 83. G. de Saussure and R.B. Perez, Oak Ridge report ORNL-TM-2599 (1969). de-Shalit and I. Talmi, Nuclear Shell Theory, Acad. Press, New York-London (1963) ch. 15 and Appendix. L. Dresner, Proc. Int. Conf. on Neutron Reactions with the Nucleus, Columbia U. 1957, Report CU-157 (1957) p. 71. L. Dresner, Resonance Absorption in Nuclear Reactors, Pergamon, Oxford (1960). F.G. Dunnington, Rev. Mod. Phys. 11 (1939) 65. Efron and C. Morris, J. Roy. Statist. Soc. B 35 (1973) 379. C.A. Engelbrecht and H.A. Weidenmüller, Phys. Rev. C8 (1973) 859; N. Nishioka and H.A. Weidenmüller, Phys. Letters 157B (1985) 101. T. Ericson, Adv. Phys. 9 (1960) 425. U. Fano and G. Racah, Irreducible Tensor Sets, Acad. Press, New York (1959). 156 R.A. Fisher, Annals of Eugenics 6 (1935) 391; reprinted in R.A. Fisher, Contributions to Mathematical Statistics, J. Tukey (ed.), J. Wiley & Sons, New York (1950). R. Frölich, Karlsruhe report KfK 367 (1965). F.H. Fröhner, unpublished (1970). F.H. Fröhner, Karlsruhe report KfK 2145 (1977). F.H. Fröhner, Conf. on Neutron Phys. and Nucl. Data, Harwell (1978) p. 306. F.H. Fröhner, Karlsruhe Report KfK-2669 (1978); reprinted in Nuclear Theory for Applications, Report IAEA-SMR-43, ICTP Trieste (1980) p. 59. F.H. Fröhner, B. Goel, U. Fischer, Proc. Meet. on Fast-Neutron Capture Cross Sections, Argonne, ANL-83-4 (1982) p. 116. F.H. Fröhner, Nucl. Data for Sci. and Technol., K.H. Böckhoff (ed.), Reidel, Dordrecht (1983) p. 623; cf. also Karlsruhe report KfK 3553 (1983). F.H. Fröhner, Proc Int. Conf. Nucl. Data for Basic and Appl. Sci., Santa Fe 1985, New York (1986) p. 1541; reprinted in Rad. Effects 96 (1986) 199. F.H. Fröhner, Nucl. Sci. Eng. 103 (1989) 119. F.H. Fröhner, Applied Nuclear Theory and Nuclear Model Calculations for Nuclear Technology Applications, M.K. Mehta and J.J. Schmidt (eds.), World Scientific, Singapore etc. (1989a) p. 170. F.H. Fröhner, Nuclear Physics, Neutron Physics and Nuclear Energy, W. Andrejtscheff and D. Elenkov (eds.), World Scientific, Singapore (1990) p. 333; separately available as Karlsruhe report KfK 4655 (1990). F.H. Fröhner, Karlsruhe report KfK 4911 (1991) ; Nucl. Sci. Eng. 111 (1992) 404. F.H. Fröhner, in Maximum Entropy and Bayesian Methods, W.T. Grandy Jr. and L.H. Schick (eds.), Kluwer, Dordrecht (1991a) p. 93. F.H. Fröhner, Karlsruhe report KfK 5073 (1992). F.H. Fröhner, Proc. Int. Conf. on Nucl. Data for Sci. and Technol., J.K. Dickens (ed.), ANS, La Grange Park (1994) p. 597. F.H. Fröhner, Nucl. Sci. Eng. 126 (1997) 1. F.H. Fröhner, Z. Naturforsch. 53 a (1998) 637. F.H. Fröhner, Nucl. Reaction Data and Nuclear Reactors, A. Gandini and G. Reffo (eds.), World Scient., Singapore etc. (1998a), vol. 1, p. 54. M. Gaudin, Nucl. Phys. 25 (1961) 447 ; reprinted in Porter (1965). 157 Gilbert and A.G.W. Cameron, Can. J. Phys. 43 (1965) 1446. I.J. Good, The Estimation of Probabilities, Cambridge, Mass. (1965). S.M. Grimes, Conf. on Moment Methods in Many Fermion Systems, B.J. Dalton et al. (eds.), Plenum Press, New York (1980), p. 17. H. Gruppelaar and G. Reffo, Nucl. Sci. Eng. 62 (1977) 756. J.A. Harvey, Private Communication, Oak Ridge National Laboratory (1995). H.M. Hofmann, J. Richert, J.W. Tepel, H.A. Weidenmüller, Ann. Phys. 90 (1975) 403. L.K. Hua, Harmonic Analysis of Functions of Several Complex Variables in the Classical Domains, Am. Math. Soc., Providence, R.I. (1963). H.H. Hummel and D. Okrent, Reactivity Coefficients in Large Fast Power Reactors, Monogr. Ser. Nucl. Sci. Technol., Am. Nucl. Soc., Hindsdale, Ill. (1970). R.N. Hwang, Nucl. Sci. Eng. 21 (1965) 523; 52 (1973) 157. N. Janeva, N. Koyumdjieva, A. Lukyanov, S. Toshkov, Proc. Int. Conf. Nucl. Data for Basic and Appl. Sci., Santa Fe 1985, New York (1986) p. 1615. N. Koyumdjieva, N. Savova, N. Janeva, A.A. Lukyanov, Bulg. J. Phys. 16 (1989) 1. E.T. Jaynes, IEEE Trans. Syst. Cybern. SSC-4 (1968) 227 ; reprinted in Jaynes (1983) p. 114. E.T. Jaynes, Found. Phys. 3 (1973) 477 ; reprinted in Jaynes (1983) p. 131. E.T. Jaynes, Statistical Inference and Statistical Theories of Science, W.L. Harper and C.A. Hooker (eds.), Reidel, Dordrecht (1976) ; reprinted in Jaynes (1983) p. 151. E.T. Jaynes, The Maximum Entropy Formalism, R.D. Levine and M. Tribus (eds.), M.I.T. Press, Cambridge, Mass. (1978) ; reprinted in Jaynes (1983) p. 210. E.T. Jaynes, Bayesian Analysis in Econometrics and Statistics, A. Zellner (ed.), North-Holland, Amsterdam (1980) ; reprinted in Jaynes (1983) p. 337. E.T. Jaynes, Papers on Probability, Statistics and Statistical Physics, R.D. Rosenkrantz (ed.), Reidel, Dordrecht (1983). H. Jeffreys, Theory of Probability, Clarendon Press, Oxford (1939). J.H.D. Jensen and J.M. Luttinger. Phys. Rev. 86 (1952) 907. K. Kari, Karlsruhe report KfK 2673 (1978). P.L. Kapur and R.E. Peierls, Proc. Roy. Soc. (London) A166 (1938) 277. R.A. Knief, Nuclear Energy Technology, McGraw-Hill, New York (1981). 158 G.A. Korn and T.M. Korn, Math. Handbook for Scientists and Engineers, McGraw-Hill, New York (1968). W.E. Lamb, Phys. Rev. 55 (1939) 750. A.M. Lane and J.E. Lynn, Proc. Phys. Soc. A70 (1957) 557. A.M. Lane and R.G. Thomas, Rev. Mod. Phys. 30 (1958) 257. K. Lange, Numerical Analysis for Statisticians, New York (1999). P.S. Laplace, Théorie analytique des probabilités, Courcier, Paris (1812) ; reprinted in Œuvres complètes, Gauthiers-Villars, Paris (1878-1912). N.M. Larson, Conf. on Nucl. Data for Basic and Appl. Sci., Gordon & Breach, New York (1986) p. 1593. N.M. Larson and F.G. Perey, Oak Ridge report ORNL/TM-7485 (1980). N.M. Larson, ORNL/TM-9179 (1984) with revisions ORNL/TM-9179/R1 (1985), /R2 (1989), /R3 (1996), /R4 (1998). C.M. Lederer, V.S. Shirley (eds.), Table of Isotopes, 7th ed., Wiley, New York (1978). H.D. Lemmel, Conf. on Nucl. Cross Sections and Technol., NBS SP 425, Washington (1975) vol. 1, p. 286. L.B. Levitt, Nucl. Sci. Eng. 49 (1972) 450. Li Jingwen et al., Conf. on Nucl. Data for Sci. and Technol., K.H. Böckhoff (ed.), Reidel, Dordrecht (1982) p. 55. J.E. Lynn, The Theory of Neutron Resonance Reactions, Clarendon Press, Oxford (1968). J.E. Lynn, Harwell report AERE-R7468 (1974). R.E. MacFarlane, D.W. Muir, R.M. Boicourt, Los Alamos report LA-9303-MS, vols. I and II (1982). R.E. MacFarlane and D.W. Muir, vol. III (1987). D.W. Muir and R.E. MacFarlane, vol. IV (1985). M. Mahdawi and G.F. Knoll, Conf. on Nucl. Data for Sci. and Technol., K.H. Böckhoff (ed.), Reidel, Dordrecht (1982) p. 58. M.L. Mehta, Nucl. Phys. 18 (1960) 395; reprinted in Porter (1965). M.L. Mehta, Random Matrices, 2nd ed., Acad. Press, Boston (1991) P.A. Mello, Phys. Lett. B82 (1979) 103 ; cf. also P.A. Mello and T.H. Seligman, Nucl. Phys. A344 (1980) 489. P.A. Mello, P. Pereyra, T.H. Seligman, Ann. Phys. 161 (1985) 254. 159 P.A. Moldauer, Phys. Rev. C11 (1975) 426; C12 (1975) 744. P.A. Moldauer, Nucl. Phys. A344 (1980) 185. S.F. Mughabghab, M. Divadeenam, N.E. Holden, Neutron Cross Sections, Neutron Resonance Parameters and Thermal Cross Sections, Vol. A : Z = 1-60, Acad. Press, New York (1981). S.F. Mughabghab, Neutron Cross Sections, Neutron Resonance Parameters and Thermal Cross Sections, Vol. B : Z = 61-100, Acad. Press, New York (1984). Müller and H.L. Harney, Phys. Rev. C35 (1987) 1231. M.N. Nikolaev et al., At. Energiya 29 (1970) 11. William of Ockham (Occam, 1285-1349) propounded the principle of parsimony « entia non multiplicanda praeter necessitatem' » (do not introduce more entities than necessary). F.G. Perey, Int. Conf. on Neutron Physics and Nucl. Data, Harwell (1978) p. 104. C.M. Perey, F.G. Perey, J.A. Harvey, N.W. Hill, N.M. Larson, 56Fe Resonance Parameters for Neutron Energies up to 850 keV, Oak Ridge National Laboratory, ORNL/TM-11742 (1990). W.P. Poenitz, Proc. Conf. Nucl. Data Eval. Mth. and Proc., B.A. Magurno and S. Pearlstein (eds.), Brookhaven report BNL-NCS-51363, (1981) vol. I, p. 249. W.P. Poenitz, J.F. Whalen, A.B. Smith, Nucl. Sci. Eng. 78 (1981) 333. C.E. Porter and R.G. Thomas, Phys. Rev. 104 (1956) 483 ; reprinted in Porter (1965). C.E. Porter (ed.) Statistical Theory of Spectra: Fluctuations, Acad. Press, New York-London (1965). C.E. Porter and N. Rosenzweig, Suomal. Tiedeakad. Toimit. (Ann. Acad. Sci. Fenn.) AVI 44 (1960); reprinted in Porter (1965). C.W. Reich and M.S. Moore, Phys. Rev. 111 (1958) 929. A. Rényi, Valoszinüsegszamitas (= Probability Calculus), Budapest (1954); slightly generalised proof by J. Aczel, Lectures on Functional Equations and Their Applications, Academic Press, New York (1978) p. 104. P. Ribon and J.M. Maillard, Proc. ANS Meeting on Adv. in Reactor Physics and Safety, Saratoga Springs 1986, NUREG/CP-0080 (1986) vol. 2, p. 280. P.F. Rose and C.L. Dunford (eds.), Report ENDF-102, NNDC Brookhaven (1990). G.R. Satchler, Phys. Letters 7 (1963) 55. R.E. Schenter, J.L. Baker, R.B. Kidman, Batelle North West report BNWL-1002 (1969). E. Schrödinger, Proc. R. Irish Acad. 51 A (1947) 51, 51 A (1947) 141 ; reprinted in Gesammelte Abhandlungen, Wien (1984) vol. 1, p. 463 and p. 479. 160 C.E. Shannon, Bell Syst. Tech. J. 27 (1948) 379 and 623 ; cf. also C.E. Shannon and W. Weaver, The Mathematical Theory of Communication, U. of Illinois Press, Urbana (1949). V.V. Sinitsa, Yad. Konst. 5(54) (1983) ; Engl. transl. IAEA report INDC(CCP)-225/G (1985). A.B. Smith, D.L. Smith, R.J. Howerton, Argonne report ARNL/NDM-88 (1985). A.W. Solbrig, Nucl. Sci. Eng. 10 (1961) 167. Stein, Third Berkeley Symp. on Math. Statistics and Probab., U. of Calif. Press, vol. I, p. 197 (1956); see also W. James and E. Stein, Fourth Berkeley Symp. on Math. Statistics and Probab., U. of Calif. Press, vol. I, p. 361 (1961). H. Takano, Y. Ishiguro, Y. Matsui, report JAERI-1267 (1980). R.G. Thomas, Phys. Rev. 97 (1955) 224. A.M. Turing, Proc. London Math. Soc., Ser. 2, 48 (1943) 180. R. Vandenbosch and J.R. Huizenga, Nuclear Fission, Acad. Press, New York (1973). J.M. Verbaarschot, H.A. Weidenmüller, M.R. Zirnbauer, Phys. Reports 129 (1985) 367. J.M. Verbaarschot, Ann. Phys. 168 (1986) 368. E. Voigt, Sitz.-Ber. Bayer. Akad. Wiss. (1912) p. 603. Wald, Statistical Decision Functions, Wiley, New York (1950). A.E. Waltar and A.B. Reynolds, Fast Breeder Reactors, Pergamon, New York (1981). C.H. Westcott, K. Ekberg, G.C. Hanna, N.S. Pattenden and S. Sanatani, At. En. Rev. 3 (1965), Issue 2, p. 3. E.P. Wigner and L. Eisenbud, Phys. Rev.72 (1947) 29 ; E.P. Wigner, J. Am. Phys. Soc. 17 (1947) 99. E.P. Wigner, Can. Math. Congr. Proc., Toronto (1957) p. 174; Ann. Math. 67 (1958) 325; both reprinted in Porter (1965). E.P. Wigner, Conf. on Neutron Phys. by Time-of-Flight, Gatlinburg 1956, Oak Ridge report ORNL-2309 (1957) p. 59; reprinted in Porter (1965). 161 ÉGALEMENT DISPONIBLE Publications de l’AEN d’intérêt général Rapport annuel 1999 (2000) Disponible sur le Web. AEN Infos ISSN 1605-959X Abonnement annuel : FF 240 US$ 45 DM 75 £ 26 ¥ 4 800 Le Point sur les rayonnements – Applications, risques et protection (1997) ISBN 92-64-25483-8 Prix : FF 135 US$ 27 DM 40 £ 17 ¥ 2 850 Le Point sur la gestion des déchets radioactifs (1996) ISBN 92-64-24692-4 Prix : FF 310 US$ 63 DM 89 £ 44 Programmes de gestion des déchets radioactifs des pays Membres de l’AEN/OCDE (1998) ISBN 92-64-26033-1 Prix : FF 195 US$ 33 DM 58 £ 20 ¥ 4 150 Banque de données Light Water Reactor (LWR) Pin Cell Benchmark Intercomparisons – JEFF Report 15 (1999) Gratuit sur demande Intercomparisons of Calculations Made for GODIVA and JEZEBEL – JEFF Report 16 (1999) Gratuit sur demande The JEF-2.2 Nuclear Data Library – JEFF Report 17 Gratuit sur demande (2000) Bon de commande au dos. BON DE COMMANDE Agence de l’OCDE pour l’énergie nucléaire, 12 boulevard des Iles, F-92130 Issy-les-Moulineaux, France Tel. 33 (0)1 45 24 10 15, Fax 33 (0)1 45 24 11 10, E-mail: [email protected], Internet:www.nea.fr Qté Titre ISBN Prix Total Frais d’envoi* Total *Union européenne : FF 15 – Autres pays : FF 20 ❑ Paiement inclus (chèque ou mandat à l’ordre des Éditions de l’OCDE). Débitez ma carte de crédit ❑ VISA ❑ Mastercard ❑ Eurocard ❑ American Express (N.B.: Vou serez débité(e) en francs français). Numéro de carte Date d’expiration Nom Adresse Pays Téléphone Fax Mél Signature