Évaluation et analyse des données relatives aux résonances

publicité
Rapport JEFF 18
ÉVALUATION ET ANALYSE
DES DONNÉES RELATIVES
AUX RÉSONANCES NUCLÉAIRES
F.H. Fröhner
Forschungszentrum Karlsruhe
Institut für Neutronenphysik und Reaktortechnik
D-76021 Karlsruhe, Allemagne
Avec la contribution de
Électricité de France
et du
Commissariat à l’énergie atomique
AGENCE POUR L’ÉNERGIE NUCLÉAIRE
ORGANISATION DE COOPÉRATION ET DE DÉVELOPPEMENT ÉCONOMIQUES
ORGANISATION DE COOPÉRATION ET
DE DÉVELOPPEMENT ÉCONOMIQUES
En vertu de l‘article 1er de la Convention signée le 14 décembre 1960, à Paris, et entrée en vigueur le 30 septembre
1961, l’Organisation de coopération et de développement économiques (OCDE) a pour objectif de promouvoir des politiques
visant :
• à réaliser la plus forte expansion de l’économie et de l’emploi et une progression du niveau de vie dans les pays
Membres, tout en maintenant la stabilité financière, et à contribuer ainsi au développement de l’économie
mondiale ;
•
à contribuer à une saine expansion économique dans les pays Membres, ainsi que les pays non membres, en voie de
développement économique ;
•
à contribuer à l’expansion du commerce mondial sur une base multilatérale et non discriminatoire conformément
aux obligations internationales.
Les pays Membres originaires de l’OCDE sont : l’Allemagne, l’Autriche, la Belgique, le Canada, le Danemark,
l’Espagne, les États-Unis, la France, la Grèce, l’Irlande, l’Islande, l’Italie, le Luxembourg, la Norvège, les Pays-Bas, le
Portugal, le Royaume-Uni, la Suède, la Suisse et la Turquie. Les pays suivants sont ultérieurement devenus Membres par
adhésion aux dates indiquées ci-après : le Japon (28 avril 1964), la Finlande (28 janvier 1969), l’Australie (7 juin 1971), la
Nouvelle-Zélande (29 mai 1973), le Mexique (18 mai 1994), la République tchèque (21 décembre 1995), la Hongrie (7 mai
1996), la Pologne (22 novembre 1996) et la Corée (12 décembre 1996). La Commission des Communautés européennes
participe aux travaux de l’OCDE (article 13 de la Convention de l’OCDE).
L’AGENCE DE L’OCDE POUR L’ÉNERGIE NUCLÉAIRE
L’Agence de l’OCDE pour l’énergie nucléaire (AEN) a été créée le 1er février 1958 sous le nom d’Agence européenne
pour l’énergie nucléaire de l’OECE. Elle a pris sa dénomination actuelle le 20 avril 1972, lorsque le Japon est devenu son
premier pays Membre de plein exercice non européen. L’Agence compte actuellement 27 pays Membres de l’OCDE :
l’Allemagne, l’Australie, l’Autriche, la Belgique, le Canada, le Danemark, l’Espagne, les États-Unis, la Finlande, la France,
la Grèce, la Hongrie, l’Irlande, l’Islande, l’Italie, le Japon, le Luxembourg, le Mexique, la Norvège, les Pays-Bas, le Portugal,
la République de Corée, la République tchèque, le Royaume-Uni, la Suède, la Suisse et la Turquie. La Commission des
Communautés européennes participe également à ses travaux.
La mission de l’AEN est :
•
d’aider ses pays Membres à maintenir et à approfondir, par l’intermédiaire de la coopération internationale, les
bases scientifiques, technologiques et juridiques indispensables à une utilisation sûre, respectueuse de
l’environnement et économique de l’énergie nucléaire à des fins pacifiques ; et
•
de fournir des évaluations faisant autorité et de dégager des convergences de vues sur des questions importantes qui
serviront aux gouvernements à définir leur politique nucléaire, et contribueront aux analyses plus générales des
politiques réalisées par l’OCDE concernant des aspects tels que l’énergie et le développement durable.
Les domaines de compétence de l’AEN comprennent la sûreté nucléaire et le régime des autorisations, la gestion des
déchets radioactifs, la radioprotection, les sciences nucléaires, les aspects économiques et technologiques du cycle du
combustible, le droit et la responsabilité nucléaires et l’information du public. La Banque de données de l’AEN procure aux
pays participants des services scientifiques concernant les données nucléaires et les programmes de calcul.
Pour ces activités, ainsi que pour d’autres travaux connexes, l’AEN collabore étroitement avec l’Agence internationale
de l’énergie atomique à Vienne, avec laquelle un Accord de coopération est en vigueur, ainsi qu’avec d’autres organisations
internationales opérant dans le domaine de l’énergie nucléaire.
© OCDE 2000
Les permissions de reproduction partielle à usage non commercial ou destinée à une formation doivent être adressées au
Centre français d’exploitation du droit de copie (CFC), 20, rue des Grands-Augustins, 75006 Paris, France. Tél. (33-1) 44 07
47 70. Fax (33-1) 46 34 67 19, pour tous les pays à l’exception des États-Unis. Aux États-Unis, l’autorisation doit être
obtenue du Copyright Clearance Center, Service Client, (508)750-8400, 222 Rosewood Drive, Danvers, MA 01923 USA, ou
CCC Online : http://www.copyright.com/. Toute autre demande d’autorisation ou de traduction totale ou partielle de cette
publication doit être adressée aux Éditions de l’OCDE, 2, rue André-Pascal, 75775 Paris Cedex 16, France.
AVANT-PROPOS
Les données nucléaires sont essentielles au développement et à l'application des sciences et
techniques nucléaires. Les données nucléaires de base, qu'elles soient mesurées ou calculées, sont
soumises à un processus complexe d'évaluation de correction et d'analyse avant d'être disponibles
pour les applications. Ce rapport décrit ce processus dans le cas des données d'interaction neutronmatière dans le domaine des résonances.
Sachant qu'il n'existe pas de théorie capable de prédire les données nucléaires dans le domaine
des résonances, la mesure, auprès de machines dédiées (accélérateur linéaire par exemple), reste la
seule source primaire d'information. Les données mesurées sont corrigées de divers effets
expérimentaux comme les impuretés, le bruit de fond et l'efficacité des détecteurs. Ceci étant, ces
résultats expérimentaux ne peuvent pas être utilisés en l'état dans les calculs puisque l'information
recueillie est fragmentaire. Une étape d'analyse est nécessaire pour compléter les mesures et produire
un jeu de données cohérent.
Fritz Frohner, l'auteur du présent rapport, décrit en détail les deux éléments nécessaires pour
mener à bien l'analyse des données : la théorie de l'interaction neutron-noyau dans le domaine des
résonances et les formalismes mathématiques d'inférence statistique. Concernant ce dernier point,
l'auteur exprime clairement son penchant pour l'approche Bayesienne qu'il considère la plus
appropriée.
Ce rapport s'inscrit dans le cadre d'un effort coordonné à l'échelle internationale et auquel
participent les organismes nationaux de recherche et l'industrie nucléaire. Il vise à sauvegarder les
connaissances en données nucléaires, domaine dans lequel une grande partie des spécialistes sont
récemment partis à la retraite. Il a été possible grâce à la collaboration du CEA Cadarache,
d'Électricité de France et de l'Agence de l'OCDE pour l'énergie nucléaire. Vincent Greissier a assuré
la traduction française du rapport et Pierre Ribon a révisé à la fois la version originale et la traduction.
Laurent Carraro a passé en revue la partie mathématique du rapport.
3
TABLE DES MATIÈRES
AVANT-PROPOS ...................................................................................................................3
ÉVALUATION ET ANALYSE DES DONNÉES RELATIVES
AUX RÉSONANCES NUCLÉAIRES ....................................................................................7
1.
FONDEMENTS MATHÉMATIQUES DE l’ÉVALUATION
DES DONNÉES......................................................................................................................9
1.1.
1.2.
1.3.
1.4.
1.5.
1.6.
1.7.
1.8.
1.9.
2.
ÉVALUATION DES DONNÉES NUCLÉAIRES POUR DES APPLICATIONS ..........33
2.1.
2.2.
2.3.
2.4.
2.5.
2.6.
2.7.
3.
La probabilité, une mesure quantitative d’une prévision rationnelle ............................9
Le théorème de Bayes, la règle pour réactualiser la connaissance
avec de nouvelles données.............................................................................................11
Valeurs recommandées à partir de l’estimation par perte quadratique .........................14
Généralisation à plusieurs observations et paramètres ..................................................15
Approche plus détaillée des probabilités a priori, attribution
par la théorie des groupes ..............................................................................................16
Estimation Bayesienne de paramètre pour une Gaussienne à une variable...................18
Attribution de probabilités par maximisation de l’entropie ..........................................23
Une approximation : le maximum de vraisemblance ....................................................27
Une approximation : les moindres carrés ......................................................................28
Préparation par étape des données nucléaires pour applications...................................33
Ajustement par moindres carrés avec itération..............................................................40
Erreurs statistiques : statistique de Poisson...................................................................44
Erreurs systématiques : Incertitudes corrélées et leur propagation ...............................45
Qualité de l’ajustement ..................................................................................................49
Données incompatibles ..................................................................................................51
Estimation d’erreurs systématiques inconnues..............................................................56
THÉORIE DES RÉSONANCES POUR LE DOMAINE RÉSOLU .................................59
3.1.
3.2.
3.3.
Le formalisme de Blatt-Biedenharn...............................................................................64
Les expressions exactes de la matrice-R .......................................................................67
Les approximations importantes d’un point de vue pratique ........................................71
3.3.1. Expressions de Kapur-Peierls pour les sections efficaces ................................73
3.3.2. Expressions des sections efficaces dans le cadre de SLWB.............................74
3.3.3. Expressions des sections efficaces dans le cadre de MLWB ...........................76
3.3.4. Expressions de Reich-Moore des sections efficaces ........................................78
3.3.5. Expressions d’Adler-Adler des sections efficaces............................................79
3.3.6. Conversion des paramètres de Wigner-Eisenbud en paramètres
de Kapur-Peierls................................................................................................80
5
3.4.
3.5.
3.6.
4.
THÉORIE STATISTIQUE DES RÉSONANCES POUR LE DOMAINE
NON RÉSOLU .......................................................................................................................107
4.1.
4.2.
4.3.
5.
Niveaux externes ...........................................................................................................82
3.4.1. Représentation statistique des niveaux externes...............................................83
3.4.2. Représentations des termes de bord par deux larges résonances......................85
3.4.3 Niveaux liés étroits pour imposer les sections efficaces thermiques
prescrites pour les niveaux liés. ........................................................................88
Élargissement Doppler...................................................................................................92
3.5.1. Approximation du gaz libre ..............................................................................92
3.5.2. Cristal cubique ..................................................................................................94
3.5.3. Élargissement Gaussien avec profils de Voigt .................................................94
3.5.4. Élargissement Gaussien avec la méthode de Turing.........................................95
3.5.5. Élargissement de données ponctuelles tabulées
et linéairement interpôlables.............................................................................96
Analyse pratique des sections efficaces expérimentales dans le
domaine des résonances.................................................................................................98
3.6.1. Les observables.................................................................................................99
3.6.2. Complications expérimentales ..........................................................................102
3.6.3. Attribution de spin et de parité .........................................................................104
Statistique des niveaux ..................................................................................................107
4.1.1. Hypothèse de Porter et Thomas ........................................................................107
4.1.2. Loi de Wigner et l’Ensemble Gaussien orthogonal ..........................................110
4.1.3. Coefficients de transmission.............................................................................113
4.1.4. Densités nucléaires de niveaux .........................................................................115
4.1.5. Information provenant des résonances résolues ...............................................123
Sections efficaces résonnantes moyennes .....................................................................126
4.2.1. Section efficace totale moyenne .......................................................................126
4.2.2. Sections efficaces partielles moyennes : Formules heuristiques ......................127
4.2.3. Sections efficaces partielles moyennes : moyenne exacte sur l’EGO ..............129
4.2.4. Analyse de données moyennes .........................................................................131
Constantes de groupes ...................................................................................................137
4.3.1. Facteurs de Bondarenko....................................................................................138
4.3.2. Méthodes analytiques et de Monte Carlo pour la génération
de constantes de groupe ....................................................................................139
CONCLUSIONS ....................................................................................................................141
ANNEXES .........................................................................................................................................143
A.
Distributions de probabilités d’importance pratique .....................................................144
A.1. Distributions binomiale et bêta......................................................................................147
A.2. Distributions gamma et de Poisson................................................................................145
A.3. Gaussienne à une variable .............................................................................................146
A.4. Gaussienne à plusieurs variables ...................................................................................149
B.
Propriétés mathématiques des profils de Voigt Voigt ψ et χ ........................................153
6
ÉVALUATION ET ANALYSE DES DONNÉES
RELATIVES AUX RÉSONANCES NUCLÉAIRES
Résumé
Les fondements probabilistes de l’évaluation des données sont examinés avec un accent particulier sur
l’estimation de paramètres à l’aide du théorème de Bayes et d’une fonction de perte quadratique, ainsi
que sur les méthodes modernes d’attribution de probabilités a priori. Les grandes lignes du processus
de réduction des données, menant des données expérimentales brutes aux fichiers informatiques
d’évaluations des sections efficaces de réaction nucléaire, sont exposées avec une discussion sur les
erreurs systématiques et statistiques, sur leur propagation et sur le formalisme généralisé des moindres
carrés comprenant une information a priori et des modèles théoriques non-linéaires. Il est expliqué
comment des erreurs communes peuvent induire des corrélations entre les données, quelles sont leurs
conséquences sur la propagation des incertitudes et les études de sensibilité, et comment les
évaluateurs peuvent construire des matrices de covariance d’après les informations sur les erreurs
classiques données par les expérimentateurs. De nouvelles techniques d’évaluation, à partir de
données incompatibles, sont également présentées. Les principes généraux sont ensuite appliqués
spécifiquement à l’analyse et à l’évaluation des données relatives aux résonances nucléaires sous
forme de modèles théoriques-théorie de la matrice-R (en particulier ses variantes Breit-Wigner
multiniveaux et Reich-Moore, d’usage pratique) dans le domaine résolu et théorie de la matrice-R
appliquée aux valeurs moyennes (théorie d’Hauser-Feshbach avec correction des fluctuations des
largeurs) dans le domaine non-résolu. Des complications apparaissent du fait que les valeurs mesurées
de la transmission, du taux de capture ou de fission, des rapports d’auto-indication ou encore d’autres
observables ne sont pas directement les sections efficaces recherchées. Celles-ci ne sont obtenues
qu’au travers d’une paramétrisation. Par conséquent, une discussion est également menée sur les
effets affectant ces valeurs : élargissement Doppler, résolution expérimentale, auto-protection,
diffusions multiples, bruit de fond, impuretés dans les échantillons, efficacités des détecteurs
dépendant de l’énergie, données de référence imprécises, etc.
7
1.
FONDEMENTS MATHÉMATIQUES DE L’ÉVALUATION DES DONNÉES
Historiquement, l’évaluation des données, au sens actuel, débuta par les efforts de Dunnington
(1939), de DuMond et Cohen (1953) et de leurs collaborateurs pour déterminer un ensemble de
valeurs recommandées des constantes physiques fondamentales (vitesse de la lumière, quantum
d’action de Planck, constante de structure fine, etc...), et établir leurs incertitudes, grâce à un
ajustement global par moindres carrés de l’ensemble des données expérimentales utiles. Comme les
mesures sont invariablement affectées par des erreurs instrumentales incontrôlables, des étalons
imprécis, des statistiques de comptage finies et d’autres sources d’incertitudes, l’évaluation des
données implique de raisonner à partir d’une information incomplète, c’est-à-dire en terme de théorie
des probabilités. C’est pourquoi nous allons commencer par une brève revue des fondements
théoriques, basés sur les probabilités, de l’évaluation des données. Cela nous aidera à relier entre elles
diverses règles pour extraire des données expérimentales les « meilleures » valeurs et les incertitudes,
et des prescriptions pour les ajustements sur les données. La plupart des scientifiques apprennent ces
règles et formules durant des cours de laboratoire et au travail, en constatant que la plupart des livres
de probabilités sont remplis d’intimidantes terminologies de statistique et de considérations « ad-hoc »
peu évidentes (Good 1965) provenant de tentatives mal venues pour éviter le théorème de Bayes et ses
très dénigrées probabilités a priori. Le présent exposé qui (a) est fermement basé sur le théorème de
Bayes et (b) utilise les progrès récents sur les probabilités a priori, va mener à un traitement concis et
mathématiquement simple de l’estimation des paramètres et de l’ajustement des données dans le cadre
général de la conclusion par induction, ou de l’étude à partir d’observations réelles, toujours affectées
d’une erreur et incomplètes.
1.1 La probabilité, une mesure quantitative d’une prévision rationnelle
Tous nos résultats, dans cette partie, seront clairement des conséquences directes des règles de
somme et de multiplication élémentaires de la théorie des probabilités,
(
)
P( A C ) + P A C = 1 ,
(1)
P( AB C ) = P( A BC ) P( B C ) = P( B AC ) P( A C ) ,
(2)
où
A, B ,C
=
propositions telles que « la pièce tombe sur face »
ou « la section efficace est supérieure à 12 b »,
AB
=
A et B sont tous les deux vrais,
A
=
A est faux,
P( A C )
=
probabilité de A sachant C.
9
Nos notations indiquent que toutes les attributions de probabilité sont conditionnelles, basées sur
des informations empiriques ou théoriques ou sur des hypothèses. D’après J. Bernouilli (1713) et
Laplace (1812), nous interprétons ces probabilités comme des degrés de plausibilité ou de prévision
rationnelle sur une échelle numérique allant de 0 (impossibilité) à 1 (certitude), les valeurs
intermédiaires indiquant des degrés de plausibilité intermédiaires. La règle de somme nous dit que,
sous toute condition C, plus A est probable et moins A l’est, la somme égale à l’unité des deux
probabilités traduisant la certitude que l’une de ces alternatives est vraie. La règle de multiplication
exprime que, sous toute condition C, la probabilité qu’à la fois A et B soient vrais est égale à la
probabilité de A sachant B multipliée par la probabilité que B soit vraie. Puisque A et B interviennent
de manière symétrique, il est également possible de considérer la probabilité de B sachant A et de la
multiplier par la probabilité de A.
L’interprétation des P en tant que degrés de plausibilité (pas les équations les reliant) a été
critiquée par les statisticiens qui tiennent à ce que, par probabilité, on entende uniquement
« fréquence relative dans une expérience aléatoire » telle que lancer de pièce, dans la limite d’un très
grand nombre de répétitions, et que l’on puisse assigner des probabilités « directes » à des effets
(observations) si les causes (lois stochastiques et leurs paramètres) sont données, mais pas des
probabilités « inverses » à diverses causes possibles si les observations sont données. Ils affirment
que, puisque les constantes physiques ne sont pas des variables aléatoires qui supposent des valeurs
données avec une certaine fréquence, il ne faut associer des probabilités qu’avec les erreurs observées
et pas avec les constantes physiques. Pour les scientifiques en général, et les évaluateurs de données
en particulier, ce point de vue est trop restrictif. Il ne leur permettrait pas de dire que, d’après les
données mesurées, une constante physique a telle ou telle probabilité d’exister dans des bornes
données. La tâche consistant à déduire les valeurs de constantes naturelles, de temps de demi-vie, de
sections efficaces de réaction, etc, à partir de données affectées d’erreurs systématiques, incertaines et
incomplètes n’est pas une expérience aléatoire qui peut être répétée à volonté, mais plutôt un exercice
de conclusion par induction (raisonner face à l’incertitude). Le concept de probabilité de Laplace
semble par conséquent plus approprié pour l’évaluation des données scientifiques.
Tous ces doutes furent dissipés par R.T. Cox (1946). En utilisant l’arithmétique de la logique,
l’algèbre de Boole, il prouva que tout système formel d’inférence logique utilisant des degrés de
plausibilité doit soit être équivalent à la théorie des probabilités telle que dérivée des règles de somme
et de multiplication de base, soit violer des conditions de consistence élémentaire. Dans sa
démonstration, les conditions de consistence les plus générales s’expriment sous la forme de deux
équations fonctionnelles dont les solutions sont justement les règles de base. Le fait critiquable que
Cox a supposé la différentiabilité de ces fonctions de probabilité fut résolu par A. Rényi (1954) qui
donna une démonstration sans cette hypothèse. Il est intéressant que Schrödinger (1947), l’un des
pères de la mécanique quantique, arriva pratiquement, et indépendamment, aux même conclusions que
Cox : les règles de base, clairement valables pour les fréquences relatives, sont également valable
pour les probabilités de Laplace. Dans la théorie quantique, il a toujours été compris que les
probabilités quantifient une connaissance incomplète mais une croyance largement répandue était que
les probabilités des mécaniques classique et quantique différaient d’une manière ou d’une autre.
Aujourd’hui, il peut être montré que le formalisme des probabilités de la mécanique quantique est
parfaitement compatible avec le concept de probabilité de Laplace et les règles de somme et de
multiplication (Fröhner, 1998). D’après la démonstration de Cox, deux choses devraient être claires :
1. Les probabilités ne sont pas des fréquences relatives. Elles peuvent s’appliquer tout aussi
bien à des situations non-répétitives qu’à des expériences répétées.
10
2. Les schémas présumés supérieurs de l’inférence logique, tels qu’une logique floue ou
l’intelligence artificielle, sont équivalents à la théorie des probabilités dans le meilleur des
cas sinon, ils sont contraints de violer les obligations de consistance élémentaires.
Bien que les probabilités ne soient pas des fréquences, elles sont certainement toutes deux
reliées. Dans les situations répétitives, on considère que les probabilités sont essentiellement des
valeurs attendues de fréquences relatives-voir par exemple Jaynes (1968) et Fröhner (1997).
1.2 Le théorème de Bayes, la règle pour réactualiser la connaissance avec de nouvelles données
Les expériences scientifiques sont d’ordinaire décrites à l’aide d’un modèle statistique, des
éléments statistiques étant introduit par des effets instrumentaux incontrôlables, apparemment
aléatoires, par des erreurs inconnues et souvent par la théorie elle-même (par exemple les mécanismes
statistiques, ou la théorie quantique, ou la théorie statistique des niveaux, pour les réactions par noyau
composé). Le modèle statistique nous permet de calculer la probabilité « directe » d’un jeu
quelconque de données observées (« échantillon »), pourvu que les quantités physiques et les
paramètres statistiques du modèle soient donnés. En science empirique, la situation est ordinairement
inversée : un échantillon de données expérimentales est donné, et on désire trouver les probabilités
« inverses » pour les différentes valeurs possibles des quantités physiques et des paramètres
statistiques du modèle. Les probabilités directes (des effets sachant les causes) et les probabilités
inverses (des causes sachant les effets) sont reliées par le théorème de Bayes (1763). Dans sa forme la
plus simple,
P( A BC ) =
P( B AC ) P( A C )
,
P( B C )
(3)
c’est une conséquence immédiate de la symétrie de la règle de multiplication (2) appliquée à A et B.
La situation typique est que nous avons la donnée B qui dépend de la valeur d’une quantité physique
inconnue A et d’autres conditions C. Si nous avons un modèle statistique, représenté par ce qu’on
appelle fonction de vraisemblance p( B AC ) , nous disant à quel point serait probable l’observation
de la donnée B sous la condition C si la quantité inconnue était A, et si nous avons également une
probabilité a priori P( A C ) (notée plus brièvement « l’a priori »), alors la probabilité réactualisée ou
a posteriori P( A BC ) (« l’a posteriori ») est proportionnelle au produit P( B AC ) P( A C ) . Le
a priori résume ce que nous savons à propos de A avant que les données ne soient disponibles, la
fonction de vraisemblance traduit l’impact des données, et le a posteriori contient l’information
complète disponible pour une nouvelle inférence ou prédiction. Laplace (1812) donna la
généralisation pour plusieurs alternatives Aj distinctes et mutuellement exclusive :
(
)
P A j BC =
)( ) ,
∑ P( B A C ) P( A C )
(
P B A j C P Aj C
j
j = 1,2 , ....n,
(4)
j
normalisée à 1 comme le demande la règle de somme. Pour des alternatives continues A et B, nous
remplaçons les probabilités discrètes finies P( A C ) , P( B AC ) , etc., par des probabilités
11
infinitésimales p( A C ) dA , p( B AC ) dB , etc., avec les densités de probabilités p( A C ) , p( B AC ) ,
etc., et la somme sur les alternatives par une intégrale,
p( A BC )dA =
p( B AC ) p( A C )dA
∫ p( B AC) p( A C)dA
,
Amin ≤ A ≤ Amax .
(5)
Ces formes du théorème de Bayes peuvent être considérées comme la pierre angulaire de
l’évaluation et de l’ajustement des données. Elles montrent comment une connaissance a priori
(un fichier de données existant) peut être réactualisée avec une nouvelle information (nouvelles
données). Dans toutes les formulations, le dénominateur n’est qu’une constante de normalisation, si
bien que la règle formelle pour apprendre à partir d’observations peut être résumée par
a posteriori ∝ vraisemblance × a priori
Il faut comprendre que ces expressions a priori et a posteriori ont une signification logique
plutôt que temporelle. Elles signifient simplement que les nouvelles données ne sont pas ou sont
prises en compte.
Comme illustration bien réelle, considérons la détermination des constantes de décroissance λ
d’un radio-isotope quelconque de courte durée de vie à partir de décroissances enregistrées à des
temps t1, t2, ...tn. Manifestement, nous devons identifier λ avec A, et les données t1, ...tn avec B, alors
que C correspond à toutes les autres information sur la situation telles que validité de la loi de
décroissance exponentielle, pureté de l’échantillon, fiabilité des appareils d’enregistrement, durée
suffisante du temps d’observation pour l’enregistrement de toutes les décroissances observables, etc.
Le modèle statistique pour l’expérience est représenté par ce qu’on appelle distribution
d’échantillonnage, c’est à dire par la probabilité avec laquelle nous pouvons « raisonnablement
attendre » les différentes alternatives si nous échantillonnons une seule fois, les paramètres du modèle
étant données. Dans notre exemple, c’est la probabilité que, pour λ donnée, une décroissance
particulière, disons la i-ème, soit enregistrée dans l’intervalle de temps dti à ti,
( )
p t i λ dt i = exp( − λt i )λdt i , 0 < t i < ∞
(6)
Nous allons écrire sous cette forme la distribution des probabilités continues, avec la densité de
probabilité p multipliée par la différentielle correspondante, soit en tant que probabilité infinitésimale,
et avec le domaine des valeurs possibles établie explicitement. Cela accentue le fait qu’en fin de
compte toutes les distributions de probabilités sont utilisées pour le calcul des valeurs attendues, si
bien qu’elles font partie des fonctions à intégrer, sujettes à de possibles changement de variables.
Puisque nous utilisons généralement la lettre p pour les densités de probabilité sans se
soucier de leur forme fonctionnelle, un changement de variable se traduit par
( )
p( x .) dx = p( x .) dx / dy dy ≡ p y . dy . (Nous avons simplifié ici la notation en omettant une
référence explicite aux informations conditionnelles C).
12
D’après la règle de multiplication, la probabilité conjointe d’observer les données mutuellement
indépendantes t1, ...tn, connaissant λ, est
n


p t 1 ,... t n λ dt 1 ... dt n = exp − λ ∑ t j  λn dt 1 ... dt n .


j =1
(
)
(7)
Cela correspond à l’expression p( A B)dB précédente. En multipliant la fonction de vraisemblance
(
)
p t 1 ,... t n λ par l’a priori p( λ ) dλ , nous obtenons
n


p( λ t 1 ,... t n )dλ ∝ exp − λ ∑ t i  λn p( λ )dλ , 0 < λ < ∞ .


i =1
(8)
Notons que dans notre problème la fonction de vraisemblance ne dépend pas de toutes les valeurs
individuelle de l’échantillon. Elles apparaissent seulement sous la forme
∑t
i
≡ nt , de telle façon
i
que, pour un échantillon donné de taille n, la moyenne t de l’échantillon comporte toute l’information
contenue dans les données. Dans le jargon statistique, t est une « statistique exhaustive », n une
« statistique ancillaire », où statistique s’applique à toute fonction de l’échantillon, c’est à dire des
données.
Si nous considérons toutes les valeurs de λ entre 0 et
manière à ce que p (λ )dλ ∝ dλ , nous obtenons
p(λ nt )dλ ∝ e − λnt λn dλ , 0 < λ < ∞ .
∞ comme a priori équiprobable, de
(9)
Or la fonction gamma est définie par
∞
Γ ( n + 1) ≡ ∫ e − x x n dx
(10)
0
(qui pour des entiers non négatifs n’est autre que la factorielle n!). Il s’ensuit que le résultat final de
notre estimation Bayesienne, correctement normalisée, peut être écrite comme
p(λ nt )dλ = Γ( n + 1) e − x x n dx , 0 < x ≡ λnt < ∞ .
−1
(11)
Cet a posteriori, une distribution gamma (aussi connue comme distribution du χ2 avec χ 2 ≡ 2 x
et ν = 2n + 2 degrés de liberté) représente l’information complète sur λ qui est contenue dans les
données et l’a priori considéré. La figure 1 représente la distribution du χ2 pour différentes valeurs de
ν. À mesure que la taille n de l’échantillon augmente, notre a posteriori devient de plus en plus
concentré : plus il y a de données récupérées et meilleure est la connaissance de λ.
13
Figure 1. Distributions du χ2 pour différents degrés de liberté v (cf. équation 105 et
Korn & Korn (1968) pour la définition normale et les propriétés principales)
1.3 Valeurs recommandées à partir de l’estimation par perte quadratique
La plupart des utilisateurs de données de décroissance radioactive ne désirent pas être ennuyés
par les détails de la distribution a posteriori. Ce qu’ils veulent généralement est une constante de
décroissance recommandée et son incertitude, et rien d’autre. Par conséquent, à l’aide de l’équation
11, nous calculons la valeur attendue,
∞
λ = ∫ λp(λ nt )dλ =
0
n +1
,
nt
(12)
et l’écart quadratique moyen (aussi appelé écart type, dispersion de l’erreur ou incertitude à un
sigma),
14
∞
∆λ = ∫ (λ − λ
0
)
2

p( λ nt )dλ 

1/ 2
=
n +1
,
nt
(13)
et établissons le résultat sommairement comme λ = λ ± ∆λ . Ce choix se justifie de la manière
suivante. La valeur attendue est celle estimée λ0 qui minimise le carré de l’erreur attendu,
∞
∫ (λ
− λ ) p(λ nt )dλ = min ,
2
0
(14)
0
comme cela peut être aisément vérifié en dérivant par rapport à λ0, et en égalant à 0. Avec cette valeur
recommandée, le carré de l’erreur moyenne (sa valeur attendue) n’est autre que la variance,
var λ ≡ ( ∆λ ) , ce qui justifie également notre spécification de l’incertitude. Ce que nous venons
2
juste de faire est appelée « estimation par perte quadratique » dans la théorie de la décision. L’idée de
base est qu’il y a habituellement une pénalité pour les mauvaises estimations, d’autant plus dure que
l’estimation diffère de la valeur réelle, et que cette pénalité peut être décrite par une « fonction de
perte » qui disparaît pour la valeur réelle et est positive partout ailleurs. Au voisinage de la valeur
réelle, une fonction de perte raisonnablement lisse peut être prise comme quadratique en erreur (λ0-λ),
puisque son développement de Taylor autour de 0 commence par le terme au carré (cf, par exemple,
DeGroot 1970, Berger 1985). L’équation 14 est de ce fait la condition pour obtenir la pénalité
minimale attendue dans cette approximation parabolique.
Évidemment, la recommandation λ ± ∆λ tend à cacher l’asymétrie de la distribution gamma
qui, spécialement pour les faibles de valeurs de n, est assez importante (voir figure 1). Si de tels
détails importent, on doit retourner à la distribution a posteriori complète. Jusqu’ici nos résultats
apparaissent suffisamment raisonnables, mais comme nous allons le voir, il y a un problème
provenant de la manière quelque peu cavalière avec laquelle nous avons attribué les probabilités
a priori.
1.4 Généralisation à plusieurs observations et paramètres
Avant de traiter les a priori avec plus de précautions, regardons l’impact qu’aura une deuxième
mesure (avec un nouvel échantillon radioactif) sur notre connaissance de la constante de décroissance.
En utilisant la distribution a posteriori de la première mesure comme celle a priori pour la seconde,
nous obtenons pour la nouvelle distribution a posteriori
p( λ t1 ,...tn ,t’1 ,...t’m )dλ ∝ p( t’1 ,...t’m λ ) p( t1 ,...tn λ )dλ ,
(15)
où t’1 ,... t’m sont les nouvelles données. Plus généralement, s’il y a k mesures, avec des jeux de
données associés D1,...Dk et des fonctions de vraisemblances L1,... Lk, on obtient
 k

p( λ D1 ,... Dk )dλ ∝ ∏ L j D j λ  p( λ )dλ ,
 j =1

(
)
(16)
qui montre de quelle belle façon le théorème de Bayes modélise le processus d’apprentissage par
l’expérience : chaque nouveau résultat expérimental peut être formellement incorporé dans le corps
existant de la connaissance par multiplication de sa fonction de vraisemblance avec les distributions
de probabilité existantes (et renormalisation). Il n’est en aucune manière nécessaire que toutes les
15
expériences soient du même type. Dans l’analyse des résonances nucléaires, par exemple, on combine
généralement les fonctions de vraisemblance d’expériences de transmission, capture, diffusion et
fission faisant intervenir tout type de détecteur et de géométrie d’échantillon afin d’obtenir les
meilleures valeurs de l’énergie et des largeurs partielles des résonances. Avec chaque jeu de données
additionnel, la distribution a posteriori devient plus étroite, ce qui signifie que l’incertitude sur le
paramètre estimé devient plus faible. Notre exemple le montre explicitement : pour de grands n,
l’incertitude relative sur λ tends vers 0 en 1/ n .
Une dernière généralisation concerne les paramètres estimés. Dans l’évaluation et ajustement de
données, nous ne traitons pas seulement de grandes quantités de données provenant de multiples
expériences différentes, mais également de nombreux paramètres, bien souvent corrélés, qui doivent
être déterminés simultanément. À la place d’un seul paramètre λ on a donc un vecteur de paramètres
λ, au lieu de la différentielle dλ on a un élément de volume dNλ dans l’espace des paramètres, et les
distributions a priori et a posteriori représentent les probabilités conjointes pour l’ensemble des N
paramètres (les coordonnées du vecteur de paramètres), complétées par les corrélations. A nouveau,
l’analyse des résonances fournit des exemples. À l’aide des programmes modernes d’analyse de
forme, on peut estimer simultanément l’énergie et les largeurs de dizaines de résonances en ajustant
des expressions théoriques appropriées à des combinaisons de données provenant de plusieurs types
de mesures de résonance, chaque expérience fournissant des centaines ou milliers de points
expérimentaux (voir Figure 4 en bas).
1.5 Approche plus détaillée des probabilités a priori, attribution par la théorie des groupes
Nous devons maintenant traiter plus rigoureusement les probabilités a priori. Dans notre
exemple de taux de décroissance, nous avons utilisé l’a priori p( λ ) dλ ∝ dλ , ce qui en terme de
temps de vie τ ≡ 1 / λ peut être réécrit comme p( 1 / τ) dτ / τ 2 ≡ p( τ ) dτ ∝ dτ / τ 2 . Évidemment,
nous pourrions avoir aussi bien pu estimer τ plutôt que λ, et considérer tous les τ équiprobables,
c’est-à-dire p( τ ) dτ ∝ dτ . Ceci, toutefois, aurait donné une distribution a posteriori différente. Il est
vrai que l’a posteriori ne dépend que faiblement de l’a priori si les données sont abondantes, mais
d’un point de vue fondamental ce n’est que piètre consolation. Il semble y avoir un caractère
bassement arbitraire concernant les a priori, en particulier pour les paramètres continus.
Durant plus d’un siècle, ce caractère arbitraire apparent a conduit de nombreux statisticiens à
répudier l’estimation Bayesienne des paramètres et à rechercher d’autres méthodes pour circonvenir
les a priori. D’autres, en comparant cela à une tentative de faire de l’arithmétique sans le zéro,
défendirent le théorème de Bayes comme dérivable en quelques lignes des règles de somme et de
multiplication. Ils utilisèrent ainsi des a priori « subjectifs » ou, comme H. Jeffreys (1939),
invoquèrent des arguments d’invariance pour trouver des a priori qui évitaient d’être ambigus. Une
importante avancée fut amenée par A. Wald (1950). Il avait commencé par chercher des méthodes
plus fondées (théorie décisionnelle) d’inférence statistique, sans le théorème de Bayes, mais finit par
prouver que la stratégie optimale pour prendre une décision (recommander une valeur, par exemple)
vis à vis de l’incertitude était justement les lois Bayesiennes.
Encore plus importante fut l’application de la théorie des groupes et de la théorie de
l’information au problème des a priori par E.T. Jaynes (1968, 1973). Il démontra, pour un nombre de
cas simples mais ayant une grande importance d’un point de vue pratique, que même si l’on ignore
complètement les valeurs numériques des paramètres estimés, la symétrie du problème détermine sans
16
ambiguïté l’a priori. Si ce qu’on appelle un paramètre de position doit être déterminé, par exemple la
moyenne µ d’une Gaussienne, la forme de l’a priori doit être invariante pour un déplacement c de la
( )
(
) (
)
position, p µ dµ = p µ + c d µ + c . Autrement dit, les positions de la Gaussienne ne seront pas
toutes équiprobables a priori, contrairement à ce qu’on attendrait d’une complète ignorance.
L’équation fonctionnelle a pour solution
p(µ )dµ ∝ dµ ,
−∞<µ<∞,
(17)
un résultat totalement plausible. Moins évident est le cas d’un paramètre d’échelle tel que l’écart type
σ d’une Gaussienne. S’il n’y a pas d’échelle préférée, on s’attend à une invariance par changement
d’échelle, p( σ ) dσ = p( cσ) d ( cσ) . La solution de cette équation fonctionnelle est
p( σ ) dσ ∝
dσ
,
σ
0< σ < ∞ ,
(18)
comme le préconisait déjà H. Jeffreys (1939). Malgré son importance et sa simplicité, la
démonstration de Jaynes (1968) semble si peu connue que nous allons la citer ici pratiquement mot
pour mot pour le cas d’une constante qui multiplie (changement d’échelle) tous les temps ou
intervalles de temps dans un problème (comme le fait λ dans l’équation 6) :
Supposons que deux observateurs, Messieurs X et X’, veuillent estimer un rapport constant à
partir d’un nombre d’événements. Si leurs observations sont effectuées pour différents rapports de
telle manière que leurs mesures sont reliées par t = ct’, leurs paramètres de rapport ou d’échelle seront
reliés par λ’ = cλ. Ils attribuent les probabilités a priori p(λ)dλ et q(λ’)dλ’, et si elles doivent
représenter le même état d’ignorance, alors p et q doivent être la même fonction et donc
p(λ)dλ=p(λ’)dλ’. À partir des deux équations pour λ et λ’, on obtient l’équation fonctionnelle
p(λ)=cp(cλ). Son unique solution est l’a priori de Jeffrey,
p( λ ) dλ ∝
dλ
,
λ
0<λ <∞.
(19)
Il est certain que c’est l’a priori approprié pour notre exemple de taux de décroissance, puisque
la constante de décroissance n’est autre qu’un paramètre d’échelle dans nos équations. Elle satisfait
p( λ ) dλ ∝ dλ / λ ∝ dτ / τ qui élimine toute ambiguïté : que nous estimions le paramètre d’échelle λ
ou le paramètre d’échelle τ, nous obtenons toujours le même a posteriori,
e − x x n dx
p(λ nt )dλ =
, 0 < x ≡ λnt < ∞ ,
Γ (n) x
(20)
avec
λ =
1
,
t
(21)
∆λ
1
=
.
λ
n
(22)
Cela semble plus juste que notre résultat précédent, illustrant le principe de parcimonie
d’Ockham (1349) (« le rasoir d’Ockham ») : le résultat le plus simple est souvent le plus correct. Si ce
17
n’est pas la constante de décroissance, mais la vie moyenne qui est à estimer, il est alors tout aussi
facile de trouver
τ = λ−1 =
1
∆τ
,
=
τ
n−2
nt
, (23)
n−1
(24)
applicable si n > 2.
D’autres exemples d’a priori issus des invariances de la théorie des groupes peuvent être trouvés
dans les travaux de Jaynes (1968, 1973, 1976,1980). Dans le langage de la théorie des groupes, l’a
priori qui correspond à l’invariance dans un groupe de transformation est la mesure du bon invariant
de Haar de ce groupe (voir Berger 1985, chapitre 6.6).
Le fait que de tels a priori « moins informatifs » ne puissent être normalisés est parfois critiqué,
et ils sont appelés a priori « impropres ». Maintenant, on peut employer à la place un a priori
complètement normalisable de forme mathématique acceptable (« conjuguée »). Dans notre exemple,
cela serait une distribution gamma. L’a posteriori dépendrait alors, bien sûr, de la largeur de cet
a priori. Si on laisse la largeur augmenter indéfiniment, on trouvera toujours que l’a posteriori tends
vers l’a posteriori obtenu bien plus facilement avec l’a priori moins informatif. Nos a priori moins
informatifs peuvent par conséquent être considérés comme les limites de distributions extrêmement
large, normalisable, sur l’échelle linéaire (dµ) et logarithmique (dσ/σ = d ln σ), tout comme la
fonction delta de Dirac est le cas limite de distributions extrêmement étroites et normalisées. Il n’y a
pas de difficulté conceptuelle ou mathématique si l’on garde en mémoire que les a priori les moins
informatifs et les fonctions delta les « plus informatives » ne sont rien d’autre que des notations
sténographiques pratiques pour des distributions extrêmement larges ou extrêmement fines, n’ayant
un sens que dans la convolution avec d’autres distributions, moins extrêmes.
1.6 Estimation Bayesienne de paramètre pour une Gaussienne à une variable
Appliquons également les a priori les moins informatifs sur la distribution Gaussienne à une
variable, importante tant sur le principe que d’un point de vue pratique. Supposons qu’une mesure
répétée de la même quantité physique m ait donné les résultats x1,... xn, avec des erreurs expérimentales qui peuvent être considérées distribuées normalement. La distribution d’échantillonnage est
alors
 1  x j − µ 2 
 dx j , − ∞ < x j < ∞ ,
p x j µ , σ dx j =
exp − 
 2  σ  
2 πσ 2
(
)
1
(25)
avec une dispersion de l’erreur σ inconnue, L’a priori exprimant une ignorance complète de la
position (moyenne) et de l’échelle (largeur) de la Gaussienne est (voir Jaynes 1968)
p(µ , σ )dµdσ ∝
dµdσ
,
σ
−∞<µ<∞,
0< σ < ∞ .
L’a posteriori est alors
18
(26)
 1
1
p µ , σ x1 ,..., x n dµdσ ∝ n exp −
2
σ
 2σ
(
)
∑ (x
n
j =1
j
 dµdσ
−µ 
.
 σ
)
2
(27)
En terme de moyenne de l’échantillon et de variance de l’échantillon,
1 n
x ≡ ∑ xj ,
n j =1
(
)
2
1 n
s’ ≡ ∑ x j − x ,
n j =1
2
(28)
(29)
l’exposant peut être écrit comme
1
2σ 2
∑ (x
2
n
j =1
j
− µ)
  µ − x  2  ns’2
2
= 1 + 
  2 ≡ 1+ u v.
s
’
2
σ
 
 
(
)
(30)
La probabilité conjointe a posteriori pour µ et σ, correctement normalisée et en notation
simplifiée, peut alors être représentée sous les formes suivantes qui correspondent aux deux
factorisations de la règle fondamentale de multiplication (2),
p (µ ,σ x , s’ , n )dµdσ
= p (u v , n )du ⋅ p (v n )dv =
e − vu
2
v du
e − v v ( n −1 ) / 2 dv
Γ n2−1
v
( )
π
n/ 2
e −(1+u )v [(1 + u 2 )v] dv
= p (v u , n )dv ⋅ p (u n )du =
Γ n2
v B
2
()
−∞<u≡
µ−x
< ∞,
s’
0<v≡
du
( )(1 + u )
1 n −1
,
2 2
2 n/2
,
ns ’2
<∞,
2σ 2
(31)
( ) ≡ Γ( )Γ( ) / Γ( ) est une fonction beta. Notons que u est essentiellement µ, que v est
où B
1 n−1
,
2 2
1
2
n −1
2
n
2
essentiellement σ-2, et que dans les deux factorisations l’a posteriori dépend de l’échantillon
uniquement au travers de la moyenne x de l’échantillon et de la variance s’2 de l’échantillon
(indépendamment de la taille n de l’échantillon). C’est pourquoi ces quantités sont, dans le jargon des
fréquencistes, des « statistiques exhaustives conjointes ». Dans la première factorisation, la
distribution de probabilité de µ sachant σ est Gaussienne alors que celle de σ-2 est une distribution
gamma. Dans la seconde, la distribution de probabilité de σ sachant µ est une distribution gamma
tandis que celle de µ est une distribution t de Student. Les deux alternatives montrent explicitement
les deux distributions marginales pour µ et σ :
Si le seul intérêt est µ, quoi que puisse valoir σ, nous intégrons sur toutes les valeurs possibles du
« paramètre dérangeant » σ (ou v) afin d’obtenir la distribution marginale des valeurs possibles de µ,
(
)
du
p µ x , s’ dµ =
B
( )(1 + u )
1 n −1
,
2 2
2 n/ 2
,
−∞<u≡
19
µ−x
< ∞.
s’
(32)
C’est la distribution t de Student pour t ≡ u / ν avec ν = n-1 degrés de liberté. Voir figure 2 et
annexe A. Sa moyenne et sa variance sont u = 0 et u 2 = 1 / ( n − 3) , d’où
µ =x,
var µ=
(33)
s’ 2
.
n−3
(34)
Nous rencontrons ici la formule (plausible) des fréquencistes pour utiliser la moyenne de
l’échantillon comme « estimateur » de la moyenne de la population. Aucune erreur type finie et réelle
ne peut être établie tant que n ≤ 3 . D’un autre côté, la demi-largeur est toujours bien définie et peut
être utilisée pour signifier la largeur de la distribution t, comme cela est communément pratiqué dans
le cas n = 2, la distribution de Cauchy (connue des physiciens sous le nom de Lorentzienne ou profil
symétrique de Breit et Wigner).
Figure 2. Distributions t de Student pour différents degrés de
liberté (voir Korn & Korn 1986). La distribution de Cauchy
(Lorentzienne, ν = 1) et la Gaussienne ( ν = ∞ ) sont des cas limites
Si seul σ représente un intérêt, sans considération sur µ, on obtient en intégrant sur u la
distribution gamma (ou du χ2)
e − v v ( n −1) / 2 dv
p(σ x , s ’)dσ =
,
Γ n2−1
v
ns ’2
−∞<v≡
<∞.
2σ 2
( )
(35)
v = var v = (n − 1) / 2 . L’estimation par perte
Sa moyenne et sa variance sont égales,
quadratique pour σ est alors
-2
σ
−2
n − 1 −2
=
s’ ≡ s − 2 ,
n
∆( σ −2 )
(36)
σ −2
20
=
2
.
n−1
(37)
Ceci étaye une extension de l’autre (pas si plausible) formule des fréquencistes consistant à ne
pas prendre la variance de l’échantillon s’2 mais s2 comme estimateur de σ2, malgré le fait que cet
estimateur soit « biaisé », c’est à dire que sa valeur attendue, la moyenne sur tous les échantillons
possibles, n’est pas égale au paramètre estimé, s 2 ≠ σ 2 . Or, σ /2 est également appelé précision
-2
2
(voir par exemple DeGroot 1970) et nous devons donc désormais reconnaître que s- /2 est un
2
estimateur non biaisé pour la précision. L’estimation Bayesienne correcte de σ provient toutefois de
v −1 = 2 / (n − 3) et v −2 = 4 /[(n − 3)(n − 5)] . Sans aucun empirisme, on obtient
σ
−2
n
=
s’ 2 ,
n−3
(38)
∆( σ 2 )
σ
2
=
2
.
n−5
(39)
Notons qu’un échantillon de moins de six valeurs ne contient pas suffisamment d’information
pour une estimation complète de σ2 alors que σ-2 peut être estimée à partir d’un échantillon de deux.
La covariance entre u et v s’annule du fait qu’après intégration sur v, l’intégrand restant est une
fonction impaire de u. Par voie de conséquence, on a
cov ( µ , σ -2 ) = 0 .
(40)
Le cas avec une seule donnée, n = 1, doit être traitée différemment car s’ = 0 empêche de définir
u, mais cela est aisé. L’a posteriori est simplement
(
)
p µ , σ x1 dµdσ ∝
 1  µ − x1  2  dµdσ
exp
,
 
- 
 2  σ   σ
2 πσ 2
1
(41)
à partir duquel nous obtenons les distributions marginales
(
)
p µ x1 dµ ≡
p(σ x1 )dσ ∝
dµ
µ − x1
,
(42)
dσ
.
σ
(43)
La distribution marginale de µ présente un maximum très marqué au niveau de la valeur observée
mais celle de σ apparaît être toujours égale à l’a priori le moins informatif-ce qui a un sens, puisqu’un
échantillon de taille n = 1 peut apporter quelque chose sur la position mais rien concernant la largeur
de la distribution. C’est toutefois un exemple montrant que la méthode Bayesienne s’accorde avec le
sens commun même dans des cas extrêmes, en particulier pour de très petits échantillons, où les autres
méthodes sont vouées à l’échec. Mentionnons que l’a posteriori (31) pour n > 1 fut trouvé bien avant
que l’a priori (26) ne soit disponible, mais ceux qui connaissent l’approche « fiducielle » de
R.A. Fisher (1935) apprécieront à quel point la dérivation Bayesienne est plus simple et plus directe,
et avec quelle facilité elle peut être étendue au cas n = 1 (Jeffreys 1939). En outre, la dérivation peut
être étendue de manière directe aux distributions Gaussiennes à plusieurs variables. Avec des
généralisations appropriées des relations scalaires aux formes matricielles, soit de la variance (erreur
21
quadratique moyenne au carré) à la matrice de covariance ( σ 2 → C ), d’une différentielle avec une
variable à un élément de volume dépendant de plusieurs variables ( dx → d ( x) ≡
dσ 2 → d ( C) ≡ ∏
ν≤ k
∏
ν
dx ν ,
Cν ,k ) etc., on obtient des expressions matricielles qui ressemblent beaucoup
aux expressions scalaires pour la Gaussienne avec une variable (voir Annexe 1 et Fröhner 1990).
Assez généralement, une estimation Bayesienne des paramètres est, d’un point de vue logique et
mathématique, plus simple que d’autres approches et au moins aussi rigoureuse. Des concepts tels que
biais, efficacité, suffisance, acceptabilité, compression de James-Stein (voir par exemple Berger
1985), essentiels pour les méthodes d’estimation fréquenciste, n’ont nullement besoin d’être
introduits puisqu’ils apparaissent en tant qu’éléments plus ou moins fortuits de la distribution
a posteriori, de sa moyenne ou de sa variance. Il n’y a pas de risque que les meilleures estimations
soient déterminés en dehors de l’intervalle des valeurs autorisées, comme cela peut arriver parfois
pour les autres méthodes. Bien que les taux de réactions ou les sections efficaces soient des quantités
fondamentalement positives, les données mesurées peuvent très bien contenir des points négatifs
après soustraction du bruit de fond. Ce serait une erreur que d’écarter les points négatifs. On peut se
fier au fait que l’a priori garantit un intervalle correct pour les quantités estimées, par exemple µ<0,
indépendamment de la plage des valeurs observables admise par la fonction de vraisemblance, par
exemple − ∞ < x j < +∞ . La fondamentale simplicité et supériorité de l’approche Bayesienne
comparativement aux autres méthodes d’estimation a été démontrée assez puissamment par Jaynes
(1976) à l’aide de toute une série d’exemples de la vie courante.
La distribution conjointe a posteriori de la moyenne µ et de la variance σ2 est l’information
complète sur les paramètres d’une Gaussienne qui peut être extraite des données. À partir de
l’a posteriori, on peut obtenir des valeurs recommandées et leurs incertitudes à partir de fonctions de
perte quadratique ou autre, comme nous l’avons vu. Souvent, toutefois, nous ne sommes pas
seulement intéressés par les paramètres du modèle statistique mais également par les prédictions de
nouvelles mesures. Ceci est peut être, en fait, la raison pour laquelle un modèle statistique fut
introduit la première fois. Que pouvons-nous dire, après déduction de l’a posteriori (31) pour les
paramètres du modèle Gaussien, à propos du résultat d’une nouvelle expérience, x ≡ x n +1 ? On
pourrait songer à prendre la Gaussienne avec l’a posteriori le plus probable ou avec la valeur
moyenne des paramètres, ou bien à calculer la moyenne de la Gaussienne sur la distribution
a posteriori de ses paramètres. La dernière solution est la bonne. Cela devient clair si nous notons la
probabilité conjointe de x, µ et σ pour des données connues x et s’2, puis utilisons la règle de
multiplication et enfin intégrons sur les paramètres dérangeants µ et σ, ce qui donne
p(x x , s ’)dx ∝ dx ∫ dσ ∫ dµ p(x µ, σ ) p(µ, σ x , s ’)
∞
∞
∝ dx ∫ dv ∫ du e −(u − w )
0
2
v/n
(44)
e − v v ( n −1) / 2 ,
−∞
où u, v sont définis comme précédemment et w ≡ ( x − x ) / s ’. En intégrant d’abord la Gaussienne
(sur tous les u) puis la fonction gamma restante (sur tous les v) nous obtenons, pour n > 1, la
distribution « prédictive »
p( x x , s’)dµ =
B
( )
1 n −1
,
2 2
dy
(1 + y
)
2 n/ 2
,
−∞<y≡
22
x−x
s’ n + 1
< ∞.
(45)
Bien que la distribution d’échantillonnage soit Gaussienne, la distribution prédictive pour le
résultat d’une mesure additionnelle n’est pas une Gaussienne mais une distribution t. Il est vrai qu’une
distribution t s’approche d’une Gaussienne pour des n élevés, mais pour des valeurs de n finies, elle
est toujours plus large (voir Figure 2). La meilleure estimation pour toute fonction f(x) des données
suivantes est sa valeur attendue f
selon la distribution prédictive.
1.7 Attribution de probabilités par maximisation de l’entropie
Jaynes (1968, 1973, 1978, 1980) considéra également le cas où l’on n’est pas totalement a priori
ignorant des valeurs numériques. Il montra dans quelle mesure les probabilités pouvaient être
attribuées d’une manière bien déterminée si l’on dispose au moins d’une information vague sur les
quantités moyennes, par exemple d’estimations des valeurs attendues telles que les premier et second
moments. Le concept clé est celle de l’entropie d’information, introduite par C.E. Shannon (1948) en
tant qu’unique mesure de l’indétermination ou de l’information manquante implicite d’une
distribution donnée de probabilités. L’entropie d’information d’une distribution discrète de
probabilités pj avec des alternatives mutuellement exclusives j est (à une constante près)
S = − ∑ p j ln p j .
(46)
j
Shannon prouva que c’est l’unique mesure d’indétermination qui satisfait les exigences
suivantes :
(i)
C’est une fonction lisse des pj.
(ii)
S’il y a N alternatives, toutes équiprobables, alors l’indétermination et donc S doivent croître de
manière monotone si N augmente.
(iii) Un simple regroupement des alternatives n’engendre aucune différence : si nous ajoutons
l’entropie quantifiant l’ignorance du groupe réel, et les entropies convenablement pondérées
quantifiant l’ignorance de chaque membre réel à l’intérieur de chaque groupe, nous devons
trouver la même entropie globale S que pour les alternatives non groupées.
Pour des distributions continues ayant une densité de probabilité p(x), nous prenons l’expression
apparemment analogue
S = − ∫ dx p( x) ln p( x) .
(47)
Supposons maintenant que nous ne connaissons pas p(x) mais que nous en avons une information
globale sous forme de valeurs attendues pour plusieurs fonctions connues fk(x),
f k = ∫ dx p( x ) f k ( x ) ,
k = 1,2, ... K.
(48)
Quelle est la densité de probabilité p(x) qui satisfait ces K équations sans impliquer d’autres
informations, faussées, ou des hypothèses cachées ? La réponse est fournie par le principe du
maximum d’entropie : si nous désirons qu’il y est compatibilité entre l’information donnée, tout en
ayant un contenu d’information minimal, nous devons varier p(x) de telle manière à ce que son
23
entropie soit maximale, S = max, sous les K contraintes (48). La solution bien connue de ce problème
variationnel, obtenue par la méthode des multiplicateurs de Lagrange, est
p( x ) =
 K

1
exp  - ∑ λ k f k ( x ) .
 k =1

Z
(49)
Cette densité de probabilité est manifestement positive pour λk réel, et correctement normalisée à
un avec
 K

Z = ∫ dx exp  - ∑ λ k f k ( x ) .
 k=1

(50)
Les multiplicateurs de Lagrange λk doivent être déterminés à partir des K contraintes (48) ou à
partir des équations équivalentes
fk = −
∂
ln Z .
∂λ k
(51)
La dernière manière est plus commode si Z peut être exprimé sous forme d’une fonction
analytique des paramètres de Lagrange.
À chaque fois qu’une nouvelle donnée « globale » est disponible, on doit multiplier la
distribution existante par un facteur exp[-λk fk(x)] (et renormaliser). Ceci montre comment on peut
généraliser aux cas où une distribution a priori donnée m(x)dx est réactualisée avec de nouvelles
données globales f k
p( x ) =
: la densité de probabilité réactualisée doit s’exprimer sous la forme
m( x )
 K

exp  - ∑ λ k f k ( x )

 k=1
Z
(52)
avec
 K

Z = ∫ dx m( x ) exp  - ∑ λ k f k ( x ) .
 k =1

(53)
Les multiplicateurs de Lagrange peuvent être déterminés à partir des équations (48) ou (51)
comme ci-dessus. Ce résultat peut être obtenu par maximisation de l’entropie d’information
correspondante (entropie croisée)
S = − ∫ dx p( x ) ln
p( x )
,
m( x )
(54)
sujettes aux contraintes (48). L’entropie croisée possède l’invariance requise par changement de
variable, contrairement à l’équation (47) que nous reconnaissons maintenant être limitée au cas
spécifique d’un a priori uniforme pour la variable d’intégration x.
24
L’algorithme de l’entropie maximale (48)-(51) doit sembler familier aux physiciens : il ne
constitue rien d’autre que le rationnel manquant dans l’approche axiomatique de Gibbs en
thermodynamique. Sur ce point, l’entropie d’information maximisée, multipliée par la constante de
Boltzmann, est l’entropie thermodynamique de Clausius, et la constante de normalisation Z est la
fonction de partition à partir de laquelle tout ensemble de moyennes observables macroscopiquement
ou contrôlables peut être obtenu par une dérivation appropriée. Par exemple, si E est l’énergie (non
négative) des particules d’un système thermodynamique, à propos desquelles on ne connaît rien
hormis leur énergie moyenne (déterminée par la température du système), on a la distribution
canonique, p( E E ) ∝ exp ( − λE ) , c’est-à-dire un facteur de Boltzmann avec l’inverse de la
température apparaissant en tant que paramètre de Lagrange. Si le nombre moyen de particules est
(
)
également connu, on obtient l’ensemble grand-canonique, p( E , N E , N ) ∝ exp − λE − µN , le
potentiel chimique étant le deuxième paramètre de Lagrange, et ainsi de suite.
Les évaluateurs de données sont la plupart du temps confrontés à des données exprimées sous la
forme x ± ∆x . Notre notation indique que nous interprétons ces nombres comme la meilleure
estimation des expérimentateurs par perte quadratique. Les deux premiers moments, x et x 2 ,
d’une distribution inconnue sont ainsi déterminés. (Rappelons que ( ∆x) = var x = x 2 − x .) Si
l’intervalle de définition est − ∞ < x < ∞ , l’algorithme de l’entropie maximale donne pour ce genre
2
(
2
)
d’information p( x) ∝ exp − λ 1 x − λ 2 x 2 comme la densité de probabilité la moins restrictive et
moins informative, et par conséquent la plus conservative et objective. C’est manifestement une
Gaussienne qui en terme de donnée d’entrée doit s’écrire sous la forme (confirmée, bien sûr, par
l’algorithme de l’entropie maximale)
p( x x ,∆x )dx =
1
2 π( ∆x )
2
 1 x − x 2
exp - 
 dx ,
 2  ∆x  
− ∞ < x < ∞ . (55)
Le cas d’une variable strictement positive, 0 < x < ∞ , est ramené au cas précédent en la remplaçant
par y = ln x, et ainsi − ∞ < y < ∞ . Avec des premier et second moments connus sur l’échelle
logarithmique en y, nous obtenons une Gaussienne sur l’échelle logarithmique, c’est à dire une
distribution lognormale sur l’échelle linéaire en x. Si nous connaissons uniquement la moyenne x ,
et que x est strictement positif, nous obtenons une exponentielle décroissante. Nous rencontrons ici
une des raisons de l’ubiquité de ces distributions en statistique et dans l’analyse des données.
Traditionnellement, la Gaussienne n’est considérée correcte que si la variable est affectée par de
très nombreuses erreurs indépendantes de telle manière que le théorème de la limite centrale soit
applicable, ou alors elle est simplement invoquée pour des raisons de commodités mathématiques,
avec de sombres avertissements sur les terribles conséquences d’une distribution réelle non
Gaussienne. Le principe du maximum d’entropie ne peut éliminer ces conséquences, mais elle évite
mauvaise conscience ou paralysie : si seules la meilleure valeur (la moyenne) et l’erreur quadratique
moyenne (l’écart type) sont données, la distribution de probabilités optimale pour une nouvelle
inférence est la gaussienne correspondante, quoi que la distribution réelle inconnue puisse être.
Contrairement au théorème de la limite centrale, le principe du maximum d’entropie fonctionne
également avec des données corrélées.
Un autre mythe repose sur le fait que les erreurs systématiques doivent être décrites par des
distributions de probabilité rectangulaires. Si nous ne connaissons pas leur signe mais possédons au
25
moins une vague idée de leur grandeur (grâce à l’état de l’art, par exemple), le principe du maximum
d’entropie nous dit d’utiliser une Gaussienne de moyenne nulle et dont la largeur correspond à cette
grandeur, plutôt qu’une distribution rectangulaire.
La généralisation aux distributions à plusieurs variables est directe. Prenons, par exemple, un jeu
x j − x j ≡ ε j , j = 1, 2, ...n, dont nous ne connaissons que les valeurs
d’erreurs expérimentales
attendues ε j ε k , c’est à dire leurs variances et covariances. Les erreurs εj sont les coordonnées
Cartésiennes de la variable vecteur ε, et les valeurs attendues ε j ε k
sont les éléments de la matrice
de covariance symétrique et définie positive C = εε Τ , où Τ identifie la transposée. Pour chaque
valeur attendue Cjk=Ckj, nous introduisons un multiplicateur de Lagrange Λjk=Λkj. La distribution
d’entropie maximale est alors
( )
p ε C d nε =


1
exp  - ∑ ∑ ε j Λ jk ε k  d n ε .
Z
 j k

(56)
La normalisation est aisée dans le système de coordonnées où la matrice carrée symétrique Λ est
diagonale. Nous effectuons donc les substitutions suivantes : ε’ = Οε, où Ο est la matrice orthogonale
qui rend Λ’=ΟΛΟΤ diagonale, det Λ’ = det Λ, et dnε’ = dnε. L’intégrale Z de dimension n se factorise
alors en n intégrales élémentaires sur des Gaussiennes à une variable,
(
)
Z = ∏ ∫ dε j ’ exp − Λ’ jj ε j ’ 2 =
j
πn
.
det Λ
(57)
La relation entre la matrice Λ des paramètres de Lagrange et la matrice connue des covariances C
est obtenue par dérivation de ln Z, voir équation (51). On a
C jk = −
∂
1
ln Z = ( Λ −1 ) jk ,
∂Λ jk
2
(58)
puisque la dérivation du déterminant par rapport à un élément de la matrice donne le cofacteur pour
cet élément, qui pour une matrice non singulière est égal à l’élément correspondant de la matrice
inverse multipliée par le déterminant. La distribution avec l’entropie maximale parmi toutes celles
ayant la même matrice de covariance C est alors
p( ε C )d ( ε ) =
où ε = 0, εε T
1

 1
exp  - ε T C −1 ε  d ( ε ) ,

 2
det ( 2πC )
−∞<εj <∞,
(59)
= C , det (2 πC ) = ( 2 π ) det C , et d ( ε ) ≡ d n ε . Nous obtenons ainsi, pour des
n
moments de second ordre définis, une Gaussienne à n variables centrée sur l’origine. Puisque rien
n’est établi pour les premiers moments des erreurs, c’est à dire pour le centre de leur distribution, il
n’y a aucune raison de préférer des εj positifs ou négatifs, et donc l’algorithme aboutit à une symétrie
par rapport à zéro. Que se passe-t’il si seules les variances Cjj sont connus et non pas les covariances
Cjk, comme cela arrive couramment en pratique ? Dans ce cas, seuls les paramètres de Lagrange Λjj
26
apparaissent dans (56), c’est à dire que les matrices Λ et C sont a priori diagonales. Des covariances
inconnues peuvent ainsi être considérées nulles, et cette règle simple peut être également appliquée
dans les cas où certaines covariances sont connue et d’autres non. Ceci est un autre exemple, après
celui de l’annulation des premiers moments, d’une propriété générale des distributions d’entropie
maximale : toutes les valeurs attendues sont nulles à moins que des contraintes n’en décident
autrement. Ainsi, il n’y a aucune différence entre le fait de considérer des moyennes inconnues
comme nulles après avoir introduit des paramètres de Lagrange pour celles-ci, ou de les ignorer
complètement dès le début. Avec ε = x − x , nous pouvons réécrire la distribution des erreurs (59)
sous la forme
p( x x ,C )d ( x) =
1
 1
exp  - ( x - x
 2
det ( 2 πC )
) T C −1 ( x -
− ∞ < xj < ∞

x ) d ( x) ,

(60)
qui est la généralisation à plusieurs variables de la distribution Gaussienne à une variable (55).
Il devrait être clair désormais que la maximisation de l’entropie est un outil puissant pour
l’attribution de l’a priori ou de tout autre probabilité. Une publication fascinante et très riche en
informations sur la méthode du maximum d’entropie, incluant une grande variété d’applications allant
des tests d’hypothèses à la thermodynamique hors équilibre et la théorie des fluctuations, est celle de
Jaynes (1978).
1.8 Une approximation : le maximum de vraisemblance
Plus les données sont nombreuses, et moins l’a priori est important. C’est pourquoi, l’utilisation
d’un a priori constant est souvent une approximation raisonnable, comme nous l’avons fait dans notre
exemple de constante de décroissance. Cela signifie que la densité de probabilité de la probabilité
a posteriori est prise égale à la fonction de vraisemblance. La méthode largement utilisée du
maximum de vraisemblance est essentiellement constituée de la règle recommandant de prendre la
valeur du paramètre (ou le vecteur) qui maximise la fonction de vraisemblance. Puisque la fonction de
vraisemblance dépend seulement de l’échantillon, la valeur du paramètre (ou le vecteur) la
maximisant ne dépend de rien d’autre : elle est statistique et sa distribution de probabilité « directe »,
c’est-à-dire la probabilité que son écart par rapport à la valeur (ou au vecteur) réelle soit dans des
limites données si on choisit un échantillon, peut être calculée comme l’intégrale de la fonction de
vraisemblance sur un domaine correspondant à l’espace de l’échantillon. Si la distribution ainsi
obtenue est étroite, le paramètre réel est vraisemblablement proche de l’estimation par le maximum de
vraisemblance bien spécifique obtenu à partir d’un échantillon bien spécifique. La distribution de la
statistique doit par conséquent être reliée à l’a posteriori Bayesien. Dans les cas simples, lorsque la
statistique est suffisante, on peut, en fait, déduire rigoureusement l’a posteriori Bayesien de la
distribution de l’estimation par le maximum de vraisemblance. C’est l’approche fiducielle de
R.A. Fisher (1935). Dans de tels cas favorables, on remarque que le résultat du maximum de
vraisemblance coïncide avec le résultat Bayesien obtenu avec le convenable a priori le moins
informatif.
Illustrons ceci avec notre exemple de constante de décroissance. La fonction de vraisemblance de
l’équation (7) devient maximale pour λ = 1 / t : l’estimation par le maximum de vraisemblance est
donc la même que l’estimation « ponctuelle » Bayesienne (21). La probabilité pour que la statistique
27
suffisante t soit dans l’intervalle infinitésimal dt , si un échantillon est tiré au sort, peut être obtenue
par intégration de la fonction de vraisemblance sur une coque sphérique de rayon t et d’épaisseur dt
dans l’espace des ti. En passant en coordonnées polaires, t = r 2 , dt = 2rdr , d n t ∝ r 2 n −1 drdΩ et en
effectuant une intégration (triviale) sur les coordonnées angulaires Ω, on obtient
p( t n,λ )dt ∝ e − λnr r 2 n −1 dr ,
2
0< r ≡ t < ∞.
(61)
Après renormalisation, le membre de droite de cette relation de proportionnalité est identique à
l’a posteriori Bayesien (20) obtenu avec l’a priori de Jeffrey. Manifestement, nous avons ici la
distribution de probabilité universelle du produit λnt qui peut aussi bien être interprétée comme la
probabilité de λ sachant nt (un échantillon spécifique et un continuum de constantes de décroissance
possibles) que comme celle de nt sachant λ (une constante de décroissance spécifique et un
continuum de d’échantillons possible pour chaque valeur du nombre naturel n).
La méthode du maximum de vraisemblance, une des techniques inventées pour contourner les
a priori, est donc, dans les cas favorables, équivalente à l’approche Bayesienne, mais malgré tout elle
reste plus lourde : tout d’abord il faut identifier des statistiques suffisantes, puis il faut calculer leur
distribution de probabilité « directe » par intégration de la fonction de vraisemblance sur un domaine
convenable de l’espace des échantillons, et finalement il faut « inverser » pour obtenir la distribution
de probabilité des paramètres. Dans des cas plus complexes, les statistiques suffisantes peuvent ne pas
exister du tout et même si elles existent, des approximations sont requises de manière à ce que le
résultat par maximum de vraisemblance donne uniquement une approximation du résultat Bayesien
exact.
1.9 Une approximation : les moindres carrés
L’approximation qui va être étudiée, la méthode des moindres carrés, est la plus importante pour
l’évaluation et l’ajustement des données. Comme exemple le plus simple, considérons le cas d’une
quantité µ mesurée n fois, sous différentes conditions expérimentales, et que nous obtenions les
résultats sous la forme x j ± σ j . La meilleure façon d’interpréter ces nombres est de les considérer
comme les moyennes et erreurs types de distributions de probabilité non spécifiées. Qu’elles soient
Gaussiennes ou non, le principe du maximum d’entropie nous dit de fonder toute nouvelle inférence
sur des Gaussiennes si les erreurs inconnues peuvent avoir une valeur quelconque entre -∞ et +∞. La
fonction de vraisemblance est le produit de ces distributions d’erreur Gaussiennes, et l’a priori
approprié pour la position du paramètre µ est uniforme, et donc l’a posteriori est également une
Gaussienne,
(
p µ {x j ,σ j }
 1  x − µ 2 
j
dµ ∝ exp − ∑ 
  dµ .
 2 j  σ j  


)
En introduisant les moyennes sur les échantillons pondérées par σ-2,
28
(62)
∑σ
−2
j
xj
j
x≡
∑σ
,
−2
j
σ2 ≡
(63)
∑σ
j
−2
j
σ 2j
j
∑σ
−2
j
j
=
n
∑σ
−2
j
,
(64)
j
ainsi que x 2 , et en normalisant correctement, nous obtenons
({
 (µ − x ) 2 
dµ ,
exp −
2
2


σ
/n
2
2 πσ /n

})
1
p µ x j , σ j dµ =
(62)
avec pour la moyenne et la variance
µ =x,
var µ ≡ ( ∆µ )
(66)
2
σ2
=
.
n
(67)
L’erreur standard relative sur le résultat, ∆ var µ/ µ , est apparemment une nouvelle fois
proportionnelle à 1/ n . La meilleure estimation par perte quadratique est la moyenne pondérée par
σ-2 sur l’ensemble des données. Elle minimise la somme des carrés dans l’exponentielle de l’a
posteriori (62). Cette propriété des moindres carrés sera à nouveau rencontrée dans la généralisation à
plusieurs variables :
Considérons
•
Des observables yj, j = 1, 2, ... J (par exemple des données de capture neutronique).
•
Des paramètres xµ, µ = 1, 2, ... M (par exemple des paramètres de résonance).
•
Un modèle théorique y = y(x) (par exemple, la théorie de la matrice-R des réactions
nucléaires).
{
}
{
}
où x = x1 ,... x M , y = y1 ,... y J sont des vecteurs respectivement dans l’espace des paramètres et
l’espace des échantillons. D’ordinaire M<J, mais nous verrons que ce n’est pas nécessaire. Supposons
maintenant qu’avant que les données ne soient obtenues, on ait une connaissance a priori du vecteur
de paramètres sous la forme d’un vecteur estimé ξ et d’une matrice de covariance A = δξδξ T ,
avec δξ ≡ ξ − x , décrivant les incertitudes et les corrélations des paramètres estimés. La distribution
de probabilité a priori de x, sachant ξ et A, peut alors être considérée comme
T

 1
p( x ξ , A ) d ( x) ∝ exp − ( ξ − x) A -1 ( ξ − x) d ( x) ,

 2
(68)
où d(x) ≡ dMx est l’élément de volume de l’espace des paramètres, de dimension M (à ne pas
confondre avec le vecteur infinitésimal dx).
Supposons de plus que les mesures donnent un vecteur de données η, affecté par des erreurs
expérimentales dont les incertitudes et corrélations sont spécifiées par la matrice de covariance
B = δηδη T , avec δη ≡ η − y , de sorte que la vraisemblance d’obtenir ces valeurs, pour un vrai
vecteur y d’observables, est
29
T

 1
p η y , B d ( η) ∝ exp − ( η − y) B -1 ( η − y)d ( η) ,

 2
(
)
(69)
où d(η) ≡ dMη est l’élément de volume de l’espace des échantillons, de dimension J.
Ces attributions de probabilité sont les Gaussiennes à plusieurs variables imposées par le
principe du maximum d’entropie (comparer avec l’équation 59). En multipliant distribution a priori et
fonction de vraisemblance, on obtient la distribution a posteriori,
p( x ξ , A , η , B ) d ( x )
1
T
T
 1

∝ exp − ( ξ − x) A -1 ( ξ − x) − ( η − y( x)) B -1 ( η − y(x))d (x) .
2
 2

(70)
Jusqu’ici nous avons négligé les corrélations entre l’information a priori et les nouvelles
données. Ce n’est toutefois pas toujours possible, par exemple si l’information a priori vient de
mesures plus anciennes où les mêmes méthodes et standards que pour les nouvelles mesures ont été
employés. Une généralisation à cette situation n’est pas difficile. L’équation (70) montre que l’on
peut considérer les estimations des anciens paramètres et les nouvelles données sur un pied d’égalité.
Les estimations a priori et leurs incertitudes ont exactement le même impact que si elles étaient des
données obtenues dans une mesure des observables spéciales yµ=xµ. Ainsi, nous pouvons combiner les
vecteurs x et y(x) dans un hypervecteur z(x) ≡ {x, y(x)}. Si le vecteur donnée correspondant
ζ ≡ {ξ, η} et la matrice de covariance C ≡ {δζ, δζT} sont connus, la distribution d’entropie maximale
est
T

 1
p( x ζ , C) d ( x) ∝ exp − ( ζ − z( x) ) C -1 ( ζ − z( x) ) d ( x) ,

 2
(71)
où C contient désormais également les covariances entre les estimations a priori et les nouvelles
données, δξ µ δη i . Cette distribution a posteriori est le résultat le plus général, le plus détaillé pour
notre estimation de paramètre Bayesienne. Il contient sous forme analytique toute l’information sur le
vecteur paramètre x que contiennent l’information a priori et les nouvelles données considérées.
La tâche restante est de se ramener à un vecteur paramètre recommandé et à son incertitude. La
théorie décisionnelle nous dit ce que nous devons faire si une fonction de perte est donnée. Si aucune
n’est donnée, nous supposons une perte quadratique qui nécessite de recommander le vecteur de
moyenne a posteriori réactualisé x et de spécifier les incertitudes et corrélations par la matrice de
covariance a posteriori δxδx T , avec δx ≡ x − x . Pour un modèle linéaire y(x), les intégrations
nécessaires sont faciles comme nous le verrons dans la partie 2.2. Pour un modèle non-linéaire, on
doit soit intégrer numériquement, ce qui n’est pas pratique si de nombreux paramètres doivent être
estimés (excepté peut être avec des techniques de Monte Carlo), soit avoir recours à la méthode de la
plus grande pente (approximation de Laplace). Cela signifie essentiellement que l’a posteriori exact
est remplacé par une Gaussienne à plusieurs variables ayant le même maximum et le même tenseur de
courbure au maximum, si bien que l’intégrand est déterminé avec une bonne approximation au moins
dans le domaine qui contribue le plus à l’intégrale. Ceci est réalisé par un développement de Taylor de
l’exponentielle de l’équation (71) autour de son minimum et par une troncation après les termes du
second ordre (voir par exemple Bernardo et Smith 1994, Lange 1999). Le vecteur paramètre x$
maximum, c’est-à-dire a posteriori le plus probable, est spécifié par
30
(ζ − z(x$ )) T C -1 (ζ − z(x$ )) =
min .
(72)
Ceci est l’établissement formel du principe des moindres carrés sous sa forme la plus générale.
(Dans le système d’axes principaux, la forme quadratique apparaît en tant que somme de carrés, d’où
son nom).
En statistique fréquenciste, le principe des moindres carrés est introduit de manière plus ou
moins ad hoc, ou est dérivé du principe de maximum de vraisemblance qui à son tour est introduit
ad hoc. Dans les deux cas, seule la fonction de vraisemblance est utilisée. À ce stade, nous
reconnaissons que la condition pour les moindres carrés est une conséquence naturelle de critères plus
fondamentaux et qu’elle demande la maximisation non seulement de la fonction de vraisemblance
mais également de toute la distribution a posteriori. Sans trop simplifier, on peut dire que les
moindres carrés généralisés ne sont rien d’autre qu’une estimation Bayesienne de paramètres par
perte quadratique dans l’approximation de Laplace, dans des problèmes où seules les données et
l’incertitude sur les données sont connues de sorte que le principe du maximum d’entropie demande
des Gaussiennes, que les distributions réelles inconnues soient des Gaussiennes ou non. Un principe
des moindres carrés ad hoc n’est pas requis.
Nous terminons ce chapitre en résumant la différence essentielle entre l'approche fréquentiste
(également appelés orthodoxe ou classique ou échantillonnage-théorique) et l'approche Bayesienne de
l'inférence inductive : les fréquentistes moyennent sur tous les résultats imaginables d'une mesure,
conditionnés par des causes données, alors que les bayésiens moyennent sur toutes les causes
possibles conditionnées par le résultat observé et la connaissance a priori. Il ne peut y avoir de doute
que l'approche Bayesienne est celle qui convient pour un physicien qui doit déduire des sections
efficases ou des paramétres nucléaires à partir d'observations affectées d'incertitudes.
31
2.
ÉVALUATION DES DONNÉES NUCLÉAIRES POUR DES APPLICATIONS
Dans les paragraphes suivants, nous allons discuter de certains aspects plus pratiques de
l’évaluation des données, avec une attention particulière sur le formalisme des moindres carrés, sur
l’opposition entre erreurs statistiques et erreurs systématiques et sur la manière dont ces dernières
amènent des corrélations. Historiquement, l’évaluation des données au sens moderne commença avec
les efforts de Dunnington (1939), Cohen, Dumond et de leurs collaborateurs (1957, 1992) pour
déterminer un ensemble de valeurs recommandées pour les constantes fondamentales (Constante de
Planck, constante de structure fine, masse de l’électron, etc.), et établir les incertitudes, par un
ajustement général par moindres carrés sur l’ensemble des données expérimentales significatives. À
peu près au même moment, l’industrie nucléaire, qui prenait rapidement de l’ampleur, commença à
développer un appétit vorace pour des données nucléaires précises, principalement des sections
efficaces neutroniques et photoniques, mais également des données de structure nucléaire et de
décroissance. Les données pour des réactions nucléaires induites par des neutrons ayant des énergies
« thermiques » autour de 25.3 meV furent évaluées en première priorité (voir Westcott et al. 1965,
Lemmel 1975), mais le champ grandissant de la technologie nucléaire, des réacteurs à fission
thermiques aux réacteurs à fission rapides et éventuellement aux réacteurs à fusion, amena une
extension correspondante du domaine d’énergie d’intérêt. Les fichiers modernes de données
neutroniques contiennent des millions de valeurs de section efficace couvrant la totalité du domaine
allant de 10 µeV à au moins 20 MeV pour des centaines d’isotopes et des ordinateurs sont
indispensables pour leurs maintenance et utilisation. Les données nucléaires fournissent un exemple
particulièrement développé du processus permettant d’aller de données expérimentales brutes à des
fichiers de données évaluées.
2.1 Préparation par étape des données nucléaires pour applications
Les données nucléaires (et pour d’autres sciences) pour des applications technologiques sont
habituellement préparées en plusieurs étapes, par différents groupes de spécialistes. Considérons les
données de sections efficaces neutroniques pour illustrer ces étapes.
1.
Mesure :
Les expérimentateurs prennent des données, généralement auprès d’accélérateurs fournissant des
faisceaux continus ou pulsés, ces derniers permettant d’utiliser la méthode du temps de vol. Cette
méthode produit en une expérience, et par conséquent sous exactement les mêmes conditions
expérimentales, de grandes quantités de points de mesure couvrant de larges plages d’énergie avec
une très bonne résolution. La plus simple de ce type de mesures est celle de la section efficace totale
σ. On mesure la fraction du faisceau de particules ayant une énergie donnée (un temps de vol donné)
qui traverse, sans interagir, un échantillon ayant une épaisseur n (en atomes/barn). Cette fraction, la
transmission, est 1-σ∆n pour une couche très mince de matière. Pour tout l’échantillon, elle vaut
33
T = lim (1 − σ∆n)
n / ∆n
∆n → 0
= e − nσ .
(73)
En pratique, la transmission est obtenue par le rapport entre les nombres de coups d’expériences
« avec échantillon » et « sans échantillon ». Le flux incident et l’efficacité du détecteur n’interviennent plus, et il n’y a donc pas d’incertitude liée à la normalisation. Le bruit de fond, toutefois,
demande des corrections. Si la section efficace présente une structure résonante, on utilise à la fois
des échantillons « minces » et « épais » afin d’obtenir une bonne précision sur les sections efficaces
extraites aussi bien au pics des résonances que dans les vallées entre les résonances.
Les sections efficaces partielles sont plus difficiles à mesurer. Expérimentalement, on obtient un
taux de réaction, par exemple, en enregistrant les produits de fission ou les rayons gamma de capture
émis par un échantillon mince bombardé par des neutrons. Le taux de réaction est défini comme la
fraction des particules du faisceau qui subissent la réaction du type mesuré dans l’échantillon. C’est
une somme de contributions d’évènements de collisions multiples où la particule du faisceau subit
zéro, une, deux, etc. diffusions avant d’induire finalement la réaction enregistrée,
Yx = Yx 0 + Yx1 + Yx 2 + ... .
(74)
Le taux de premier choc est le produit de la probabilité d’interaction des neutrons incidents et du
rapport σx/σ du nombre d’événements (n,x) au nombre total d’interactions,
Yx 0 = (1 − e − nσ )
σx
,
σ
(75)
où σx est la section efficace partielle pour la réaction (n,x) considérée. Pour des échantillons très
minces, nσ << 1 , on peut négliger les collisions multiples et prendre Yx ≈ Yx 0 ≈ nσ x 0 , mais pour des
échantillons plus épais le terme de premier choc (75) doit être utilisé en entier. En particulier, dans le
cas des réactions avec résonances, les termes de collisions multiples sont des fonctions de plus en plus
complexes des sections efficaces, de sorte qu’elle doivent être calculées par simulation Monte carlo
(voir Fröhner 1989). Le taux de comptage observé est le produit du taux de réaction, du flux incident
et de l’efficacité de des détecteurs. Ces deux dernières quantités doivent être déterminées séparément
et introduisent des incertitudes corrélées sur la normalisation comme nous allons en discuter cidessous. La figure 3 montre des données de capture neutronique mesurée pour des résonances, se
53
superposant, de Cr+n avec une forte contribution des captures avec collisions multiples (Brusegan et
al. 1992). La figure 4 prouve la qualité des données modernes de temps de vol : il y a trois jeux de
données de transmission et deux jeux de taux de fission induite par des neutrons, montrant tous les
239
cinq les mêmes résonances du système composé Pu+n (Derrien et al. 1988).
34
Figure 3. Taux de capture neutroniques mesurés avec la méthode du temps de vol auprès de
l’accélérateur linéaire de Geel (Gelina) autour de quatre résonances d’onde s et d’une étroite
résonance d’onde p se superposant, incluant les élargissements par la résolution expérimentale et
l’effet Doppler et présentant une forte capture après collisions multiples. En trait fin : ajustement
par moindres carrés avec le code FANAC (Fröhner 1977) utilisant la matrice-R ; en trait épais :
calcul correspondant pour le taux de simple collision (Brusegan et al. 1992)
35
Figure 4. Données de transmission pour trois échantillons et deux jeux de sections
efficaces de fission, mesurés avec la méthode du temps de vol auprès de l’accélérateur
linéaire d’électrons de Saclay (Blons) et à Oak Ridge (les autres), montrant les
239
résonances de Pu+n. Les courbes correspondent à un ajustement simultané,
en utilisant la matrice-R, des données d’Oak Ridge à l’aide du code de moindres
carrés généralisés SAMMY (Larson and Perey, 1980). D’après Derrien et al. (1988)
36
2.
Réduction des données brutes :
Des bruits de fond constants et dépendant du temps sont soustraits, des impuretés dans
l’échantillon sont prises en compte, et, dans le cas de sections efficaces partielles (taux de réaction), le
flux et l’efficacité des détecteurs sont mis en facteur. Les corrections de diffusion multiple et de
résolution expérimentale sont d’ordinaire traitées à l’étape suivante si elles nécessitent, par exemple,
la théorie des résonances. Du fait de relations complexes entre les sections efficaces et les observables
(Equations 73-75), les sections efficaces ne peuvent pas encore être obtenues lors de cette étape,
excepté peut être pour des mesures d’échantillons minces.
3.
Analyse des données corrigées :
Chaque fois que possible, les sections efficaces mesurées sont paramétrisées au moyen d’une
théorie des réaction nucléaires. Ceci assure la consistance entre les sections efficaces partielles et
totale, permet d’inter- et d’extrapoler dans les régions où aucune donnée n’a été mesurée et évite la
recommandation de valeurs n’ayant pas de sens physique. Les théories et modèles suivants sont
employés, par ordre croissant d’énergie :
•
Théorie de la matrice-R dans le domaine thermique et des résonances résolues (paramètres :
énergie et spins des niveaux, largeurs partielles), voir figures 3, 4.
•
Théorie statistique des niveaux (Hauser-Fesbach) dans le domaine des résonances
non-résolues (paramètres : densité de niveaux, fonctions densités et largeurs partielles
moyennes, ou les facteurs de transmission des voies équivalents), voir figure 5.
•
Le modèle optique à plus hautes énergies, où les niveaux se recouvrent fortement mais où les
réactions par noyau composé dominent toujours (paramètres : rayon, profondeur, largeurs et
déformation des parties réelles et imaginaires du puit de potentiel), voir figure 6.
•
Théories du noyau précomposé, des réactions directes et semi-directes à des énergies encore
supérieures où les processus directs et de prééquilibre sont importants.
•
Ceci est complété par le modèle de la résonance dipolaire géante pour les réactions
photoniques, les modèles de barrière de fission pour les réactions de fission, etc. À ce niveau,
les techniques d’estimation de paramètre (d’ajustement de courbe) sont largement utilisées.
Les sections efficaces sont générées à partir des paramètres estimés et des incertitudes que
l’utilisateur trouve dans les fichiers de données nucléaires évaluées. Lorsqu’il n’existe pas de
modèle adapté, des ajustements avec des polynômes ou des fonctions similaires sont utilisés
afin d’interpoler entre les points dont les valeurs ont été évaluées. Les trous entre les données
mesurées sont comblés par des calculs avec modèle ou avec la systématique. Les figures 3-6
donnent des exemples de courbes théoriques ajustées sur les données mesurées.
37
Figure 5. Trois jeux de données de section efficace de capture mesurées à Oak Ridge (1976),
Harwell (1977) et Karlsruhe (1980) pour 241Am dans le domaine des résonances non-résolues.
La courbe lisse est un ajustement par moindres carrés généralisés obtenu avec le code FITACS,
utilisant la théorie d’Hauser-Feshbach. D’après Fröhner et al. (1982)
4.
Création de constantes de groupe :
Les sections efficaces ponctuelles élargies par effet Doppler pour toutes les voies de réaction
ouvertes et pour différentes températures peuvent maintenant être calculées et moyennées sur des
intervalles d’énergie finis comme cela est requis pour les calculs de réacteur ou de protection. Le
résultat est un ensemble de constantes de groupe, comprenant habituellement des sections efficaces
moyennées sur le groupe (« de dilution infinie ») pour la température ambiante et des facteurs
d’auto-protection dépendant de la température et de la dilution sur une grille spécifique de
températures et de « dilutions » (décrivant le mélange avec les autres noyaux), voir, par exemple,
Fröhner (1989). Ces ensembles de constantes de groupe sont souvent des fichiers ayant une utilité
spécifique pour des applications particulières, au contraire de la finalité générale des fichiers
« microscopiques » dont ils sont issus. Afin d’améliorer la fiabilité de leur but spécifique, ils sont
souvent ajustés (par moindres carrés) sur les données obtenues dans des expériences « intégrales »
menées dans des réacteurs d’essai spéciaux ou des installations similaires.
38
Figure 6. Dépendance angulaire des sections efficaces de diffusion élastique de 93Nb
mesurée au Laboratoire National d’Argonne. Les sections efficaces différentielles
sont exprimées en barn/sr et les angles de diffusion (θ, dans le système du laboratoire)
en degrés. Les points représentent les données et leurs erreurs, les courbes sont
calculées à partir d’un potentiel ajusté du modèle optique. D’après Smith et al. (1985)
Toutes ces étapes demandent du temps et plusieurs années peuvent s’écouler avant que des
données nucléaires mesurées pour le besoin d’applications technologiques ou scientifiques ne soient
disponibles sous forme de fichiers informatiques d’évaluation. Cet aspect a motivé des efforts de
coordination des travaux à une échelle internationale. Les demandes formelles de données nucléaires
sont désormais publiées régulièrement par l’AIEA dans les « Worldwide Requests for Nuclear Data »,
connue sous le nom de liste WRENDA.
Les données mesurées sont collectées par un réseau de centres de données, chacun d’eux agissant
dans son aire de service agréée :
NNDC
(National Nuclear Data Centre) à Brookhaven, USA, servant les
USA et le Canada.
39
NEADB
(Banque de données AEN/OCDE) à Saclay, France, servant les pays
non américains de l’OCDE .
CJD
(Centr po Jadernym Dannym) à Obninsk, Russie, servant le
territoire de l’ancienne Union soviétique.
NDS
(Nuclear Data Section, IAEA), à Vienne, Autriche, servant tous
les autres pays.
Des échanges de données réguliers assurent que la base de donnée est essentiellement la même
pour les quatre centres. Les données évaluées sont également rassemblées, notamment les fichiers
ENDF (USA), JEF (pays membres de la NEADB), JENDL (Japon) et BROND (pays du Comecon).
Les centres produisent également la bibliographie très utilisée « Computer Index to Neutron Data »
(CINDA). Le très connu « barn book » (NdT : le « BNL ») (Mughabghab et al. 1984) contenant de
vastes tableaux de paramètres de résonance et des graphes de sections efficaces, sont des produits du
NNDC. Des réseaux similaires de centres de données rassemblent et distribuent les données de
particules chargées, de structure nucléaire et de décroissance. Le fichier de type ENSDF contient des
données du dernier type, évaluées : c’est une version lisible sur machine des très connus « Nuclear
Data Sheets » et « Table of Isotopes » (Lederer et al., 1979).
Des coopérations internationales comparables impliquant des réseaux de bases de données
existent en météorologie, physique des hautes énergies, recherche en matériaux, recherche aérospatiale et bien d’autres domaines scientifiques et technologiques.
2.2 Ajustement par moindres carrés avec itération
La plus grande partie du travail d’estimation de paramètre dans l’analyse des données corrigées
(étape 3 du paragraphe précédent) repose sur la méthode des moindres carrés. Retournons donc à la
condition des moindres carrés,
(ζ − z(x$ )) T C -1 (ζ − z(x$ )) =
min .
(76)
Nous rappelons que le vecteur ζ est le jeu combiné des estimations a priori des paramètres et des
données mesurées, ζ = {ξ , η} = {ξ1 ,...ξ M ,η1 ,...η J }. Les données expérimentales peuvent provenir de
types de mesures assez différents qui, bien sûr, doivent être décrites par les coordonnées
correspondantes du vecteur du modèle y(x).
Sans information a priori sur les paramètres on a simplement
( η − y(x)) T B -1 ( η − y(x)) =
min .
(77)
Si on néglige également les corrélations entre les données ηj, la matrice B devenant ainsi
diagonale, on obtient les équations pour un ajustement par moindres carrés « primitif » qui est encore
employé dans de nombreux codes. Il utilise uniquement les nouvelles données et leurs incertitudes,
ignorant toute information a priori qui pourrait être disponible. Les estimations des paramètres en
découlant et leurs incertitudes doivent ensuite être combinés avec l’information a priori, issue par
exemple de mesures précédentes, par une sorte de moyenne pondérée après l’ajustement. Or, un
40
principe fondamental de la logique inductive est que les probabilités devraient coder toute
l’information disponible, la connaissance a priori tout comme les nouvelles indications. Il est donc
plus correct – et également plus commode – d’inclure les estimations a priori (ou premières
suppositions) et leurs incertitudes (variances) dès le début sous forme d’une distribution a priori
comme dans l’équation (70). En outre, la convergence d’ajustement non linéaires par moindres carrés
est toujours améliorée-souvent de manière spectaculaire-après avoir inclus l’information a priori par
des Gaussiennes ou des a priori similaires. On ne doit pas se soucier outre mesure des corrélations
initiales inconnues. En se référant au principe du maximum d’entropie, nous pouvons simplement
négliger celles que nous ne connaissons pas et mettre les éléments correspondants de la matrice de
covariance initiale à zéro. D’un autre côté, il n’est pas difficile de construire complètement des
matrices de covariance si les incertitudes sur les données sont bien détaillées, avec une spécification
claire des diverses composantes de l’erreur, incluant leurs erreurs quadratiques moyennes. Cela sera
expliqué ci-dessous, mais dans l’immédiat nous allons supposer que la matrice de covariance initiale
C est donnée, au moins sous forme diagonale.
Essayons de calculer l’estimation des paramètres par perte quadratique, c’est à dire la moyenne et
la matrice de covariance (finale) de la distribution a posteriori (71). L’intégration numérique est
toujours possible, mais afin d’obtenir des expressions analytiques, nous devons employer
l’approximation de Laplace (méthode de la plus grande pente, intégration au point selle) qui n’est
strictement exacte que dans le cas d’un modèle linéaire y(x). Pour des modèles non linéaires, elle est
adéquate pour la plupart des applications pratiques, mais on doit garder en mémoire qu’elle peut ne
plus fonctionner si les non linéarités sont importantes autour du pic de l’a posteriori. Le
développement de Taylor de l’exposant de l’équation (70) autour de son minimum à x = x$ mène à
Q( x) ≡ (ζ − z( x)) C -1 (ζ − z( x))
T
(78)
= Q( x$ ) + ( x - x$ ) A’ -1 ( x - x$ ) + ...,
T
Le vecteur paramètre x$ le plus probable est défini par ∇Q=0 avec ∇µ≡∂/∂xµ), c’est à dire par les
équations « normales »
S( x$ ) C -1 (ζ − z(x$ )) = 0 ,
T
(79)
et la matrice A’ par
A’-1 ≡
1
T
∇∇ T Q]x=x = S( x$ ) C-1S( x$ ) + ... ,
[
2
(80)
$
où S est la matrice rectangulaire des coefficients de sensibilité
S jµ =
∂z j
∂x µ
.
(81)
Le vecteur x$ peut être déterminé à partir des équations normales (79) par itération de
Newton-Raphson : si on a, après n itérations, une solution approchée xn, on peut faire intervenir les
approximations linéaires
z( x$ ) ≈ z( x n ) + S( x n )( x$ - x n )
(82)
41
( )
et S( x$ ) ≈ S x n dans les équations normales et résoudre pour x$ . La solution améliorée obtenue par
cette méthode est
[
]
[
]
x n+1 = x n + S( x n ) C -1S( x n ) S( x n ) C -1 ζ − z( x n ) .
T
-1
T
(83)
Ainsi, on peut commencer avec la valeur de l’a priori la plus probable, x0 = ξ, dans le membre de
droite, calculer la valeur améliorée x1, la réinsérer à droite, et ainsi de suite jusqu'à ce qu’on obtienne
des valeurs constantes en simple précision de l’ordinateur (ou jusqu'à ce qu’un autre critère de
convergence soit satisfait). À chaque itération, nous devons recalculer z(x) et la matrice de sensibilité
S(x). Pour un modèle linéaire, z est une fonction linéaire de x, c’est à dire que l’équation (82) est
exacte pour n=0, avec S ne dépendant pas de x. Par conséquent, le résultat final est obtenu dès la
première itération, x$ = x 1 , comme attendu.
Une fois que nous avons établi le résultat final x$ de l’itération, nous pouvons calculer la valeur
recommandée (dans l’approximation du point selle)
[
]
T
T
x = S(x$ ) C -1S( x$ ) S(x$ ) C -1 [ ζ − z( x$ )] ,
[
-1
δxδx T = S( x$ ) C -1S( x$ )
T
]
-1
.
(84)
(85)
Pour un modèle linéaire, on effectue simplement x$ = ξ et les valeurs moyennes ainsi obtenues
sont exactes.
Remarquons que dans le processus d’itération, il est nécessaire de calculer des vecteurs améliorés
z(x) contenant à la fois les paramètres améliorés xn et les données améliorées y(xn). Les changements
sont faibles si les coefficients de sensibilités sont petits et si les valeurs calculées sont déjà proches
des estimations a priori des paramètres et des données. Dans l’évaluation des données neutroniques et
dans la paramétrisation des sections efficaces, le nombre M de paramètres est habituellement
beaucoup plus petit que le nombre J de points expérimentaux. L’opposé est vrai pour l’ajustement de
constantes de groupe puisque le nombre M de constantes de groupe ajustées dans les librairies de
données est d’ordinaire beaucoup plus grand que le nombre J de données intégrales (réponses
mesurées en réacteur). Les équations utilisées sont les mêmes dans les deux cas. Le formalisme
Bayésien de moindres carrés par itération est employé dans le code d’analyse de résonance SAMMY
(Larson and Perey 1980) et dans le programme FITACS (Fröhner et al.,1982), basé sur la théorie
d’Hauser-Feshbach, qui est utilisé pour analyser des données de sections efficaces moyennes dans le
domaine des résonances non résolues. L’expérience acquise au travers de ces codes a clairement
montré l’avantage de la prise en compte explicite d’une information a priori sous forme d’une
Gaussienne. L’a priori contraignant la recherche de paramètre d’une manière progressive dans un
domaine raisonnable, les problèmes (de programmation linéaire) aux frontières abruptes sont évités, et
la convergence s’en retrouve grandement améliorée comparativement aux précédentes versions de
moindres carrés « primitifs » de ces codes qui n’utilisaient pas les incertitudes a priori. Un problème
typique des ajustements par moindres carrés « primitifs », à savoir l’absence de convergence si trop de
paramètres sont ajustés simultanément, est pratiquement éliminé avec le système des moindres carrés
généralisés qui tolère de grands nombres de paramètres ajustés (plusieurs douzaines dans l’analyse de
résonances), même si les incertitudes a priori sont assez importantes.
42
(
)
En physique des réacteurs, on travaille souvent avec des erreurs relatives, ζ j − z j / ζ j , avec
les éléments correspondants de la matrice des covariances relatives
(
∂ζ j ∂ζ k / ζ j ζ k
)
et les
coefficients de sensibilité relatifs S jµ / ζ j . Cela amène aux remplacements suivants :
ζ − z → D( ζ − z) ,
C → DCD ,
S → DS
avec D jk = δ jk / ζ j .
(86)
Bien entendu, les matrices diagonales D insérées sont annulées par leurs inverses dans les
équations de moindres carrés, si bien que l’utilisation de quantités relatives modifie uniquement la
forme des équations et non leur contenu. L’avantage est bien sûr que les erreurs relatives (les
pourcentages) et les sensibilités relatives sont plus facilement saisissables et mémorisables ce qui rend
plus aisée leur comparaison et facilite l’établissement de leur importance relative dans des problèmes
avec de nombreux paramètres physiquement différents. Des difficultés apparaissent toutefois si les
valeurs ζj sont beaucoup plus petites que leurs incertitudes, si bien que l’on en arrive pratiquement à
devoir diviser par zéro. Dans ce cas, il est préférable d’utiliser des valeurs absolues plutôt que
relatives.
Occasionnellement se pose la question de savoir s’il est correct d’utiliser les données ζj
(mesurées ou estimées a priori) comme référence ou s’il ne serait pas préférable d’utiliser les valeurs
réelles zj. La réponse est simple : les valeurs réelles sont généralement inconnues si bien qu’il est
impossible de les utiliser en tant que référence, par exemple dans des fichiers informatiques de
matrices de covariances relatives ou de coefficients de sensibilités. Tout ce que l’on peut faire, c’est
utiliser les meilleures estimations disponibles à un niveau donné. Avant l’ajustement des moindres
carrés, il s’agit des estimations a priori des paramètres ξµ et des données expérimentales ηi, donc des
quantités ζj. Après l’ajustement on a les estimations des paramètres améliorés x µ
et des données
calculées améliorées y j ( x ) , et elles sont donc les valeurs de références correctes pour les matrices
de covariances finales relatives. Les valeurs réelles ne sont jamais connues, elles apparaissent
seulement dans les équations en tant qu’arguments des distributions de probabilité, c’est à dire en tant
que valeurs possibles, et s’intègrent à n’importe quel moment aux valeurs attendues ou autres
quantités recommandées calculées pour des applications pratiques.
43
Figure 7. Illustration de non linéarités et de corrélations dans les ajustements par moindres
carrés : la largeur neutronique Γn et la largeur radiative Γγ de la résonance à 23.52 eV de
232Th+n sont estimées par des ajustements simultanés de deux aires importantes de
transmission (TA), cinq aires de pic de capture (CA) et deux rapports d’auto-indication (SIR).
Les courbes représentent les huit composantes du vecteur y(x) du modèle théorique, le vecteur
paramètre x ayant deux coordonnées, Γn et Γγ. « L’ellipse d’erreur » montre la meilleure
estimation et les incertitudes corrélées (code TACASI). D’après Fröhner (1966)
2.3 Erreurs statistiques : statistique de Poisson
Nous allons maintenant discuter de l’information relative à l’erreur nécessaire pour la
reconstruction de la matrice de covariance Cη qui décrit les incertitudes sur les données et leurs
corrélations. Dans pratiquement toutes les mesures de données nucléaires, on détecte et on compte des
particules d’un type particulier, par exemple des fragments de fission signalant des événements de
fission nucléaire, ou des rayons gamma signalant des événements de capture radiative. Les taux de
comptage sont une mesure des probabilités de fission ou de capture correspondantes (exprimées par
convention sous forme de sections efficaces de fission nucléaire ou de capture). Dans le cas limite
d’un temps de comptage infini, et en l’absence d’autres erreurs, on mesurerait les probabilités (dans le
sens fréquenciste) directement, mais en pratique, il y a toujours une incertitude statistique sur le taux
de comptage final (ou section efficace) du fait d’un temps de comptage fini. Que pouvons nous dire à
propos du vrai taux λ, et en particulier sur son incertitude, si n événements ont été enregistrés durant
un temps t ?
44
Un taux de comptage constant signifie qu’il y a un intervalle de temps moyen t bien défini
entre les comptages. Avec cette information globale, le principe du maximum d’entropie mène
immédiatement à la familière distribution exponentielle des intervalles de la statistique de Poisson,
p( t λ ) = e − λt λdt
0< t < ∞.
(87)
Le multiplicateur de Lagrange, le taux constant, est l’inverse de l’intervalle moyen, λ = 1/ t .
Connaissant la distribution des intervalles, on peut noter la probabilité conjointe que les comptages
soient enregistrés dans des intervalles de temps infinitésimaux dt1, dt2,... dtn situés dans un temps
écoulé t, et intégrer sur l’ensemble des positions possibles de ces intervalles. Le résultat est la
probabilité d’enregistrer n coups à des temps arbitraires, dans l’intervalle t, pour un taux constant λ
donné,
e − λt ( λt )
p( n λ , t ) =
n!
n
,
n = 0,1,2 ,...
(88)
C’est la distribution de Poisson. Le théorème de Bayes avec l’a priori de Jeffreys pour le
paramètre d’échelle λ donne directement la probabilité inverse (voir section 1.5, équation 20)
e − x x n dx
p( λ t , n) =
,
Γ ( n) x
0 < x ≡ λt < ∞ ,
(89)
avec
λ =
n
,
t
1
∆λ
=
.
λ
n
(90)
(91)
L’incertitude relative n’est autre que la loi familière en 1 / n pour l’estimation des incertitudes
statistiques, largement utilisée pour toute sorte de comptages en statistique en général et en calcul de
Monte Carlo en particulier.
2.4 Erreurs systématiques : Incertitudes corrélées et leur propagation
Nous allons maintenant discuter rapidement les cas typiques d’erreurs systématiques et de quelle
façon elles induisent des corrélations entre les estimations. Comme précédemment, nous notons les
erreurs inconnues sur les données par δη i = η i − y i . Si elles étaient d’origine purement statistique,
elles ne seraient pas corrélées et les éléments de la matrice de covariance B seraient
( )
δη j δη k = δ jk var η j ≡ δ jk ∆η j
2
,
(92)
c’est-à-dire que la matrice serait diagonale. Ceci est supposé dans beaucoup de codes de moindres
carrés « primitif » : chaque erreur quadratique est pondérée par l’inverse de la variance. Parallèlement
aux erreurs statistiques, il y a cependant toujours des erreurs expérimentales de mesure de flux, de
calibration de détecteur, d’incertitude en temps, etc. Contrairement aux erreurs statistiques, ces
erreurs appelées erreurs systématiques sont communes à tout un jeu de données, par exemple à toutes
les données accumulées dans les canaux en temps dans des expériences de temps de vol.
45
Assez généralement, les corrélations entre les données sont usuellement produites par des
erreurs communes. Pour représenter ceci, nous écrivons les erreurs totales inconnues sous la forme
δη j = δη’ j +δη’ ,
(93)
où δη’ j est l’erreur systématique et δη’ l’erreur systématique. Cette dernière est la même pour
l’ensemble du jeu de données et donc ne possède pas d’indice. Les éléments de la matrice de
covariance B sont
( )
δη j δη k = δη’ j
2
δ jk + (δη’)
2
,
(94)
puisque les erreurs statistiques des différents points expérimentaux ne sont pas corrélées,
( )
δη’ j δη’k = δη’ j
2
δ jk , avec une moyenne nulle,
δη’ j = 0 , et puisqu’il n’y a pas de
corrélations entre erreurs statistique et systématique, δη’ j δη’ = 0 . Nous concluons que les erreurs
communes, c’est à dire systématiques, engendrent toujours des corrélations entre les éléments d’un
jeu de données expérimentales.
Les erreurs systématiques les plus fréquentes sont celles qui produisent un déplacement des
valeurs observées (par exemple des erreurs sur le bruit de fond) ou qui les multiplient (comme des
erreurs sur la normalisation du flux ou sur la calibration du détecteur). Si nous modifions un bruit de
fond soustrait b pour un des points expérimentaux, nous devons faire de même pour tous les autres :
toutes les valeurs signalées ηj doivent être modifiées ensemble. C’est, bien sûr, la signification
littérale de la covariance. Plus généralement, si les données ont été obtenues à partir de taux de
comptage brut aj, en leur appliquant des corrections communes b, c, ..., les erreurs totales sont :
δη j ≈ (∂η j / ∂a j )δa j + (∂η j / ∂b )δb + (∂η j / ∂c )δc + ...
Or les erreurs statistiques ainsi que, très souvent, les erreurs systématiques ne sont pas corrélées,
(
) (
)
si bien que leurs covariances sont nulles, δa j δa k = δa j δb = ( δbδc) = 0 . Les éléments totaux de
covariance dépendent donc seulement des carrés des erreurs quadratiques moyennes (variances) des
composantes et des coefficients de sensibilités (les dérivées),
δη j δη k
 ∂η j
≈
 ∂a
 j
2

∂η j
∂η j
2 ∂η k
2 ∂η k
 (∆a j )2 δ jk +
∆b )
+
∆c )
(
(
+ ... (95)

∂
b
b
c
c
∂
∂
∂

Ceci montre que pour la construction des matrices de covariances, l’évaluateur a besoin de la
part de l’expérimentateur :
•
Des erreurs quadratiques moyennes pour chaque composante de l’erreur.
•
D’information sur la réduction des données de manière à pouvoir calculer les coefficients de
sensibilité.
46
S’il lui est dit que la réduction des données a consisté dans la soustraction d’un bruit de fond
(
)
commun b et dans la multiplication par un facteur de calibration c, c’est à dire η j = a j - b ⋅ c , alors il
(
n’a pas de mal à calculer δη j δη k ≈ δ jk c∆a j
) + (c∆b )
2
2
+ η j η k (∆ c ) / c . Évidemment, il est
2
2
essentiel que les expérimentateurs établissent clairement, et avec suffisamment de détails, les différentes
composantes des erreurs statistiques et systématiques quand ils publient leurs données alors qu’ils ne
doivent pas se soucier des corrélations puisque celles-ci peuvent être construites directement à partir des
composantes des erreurs, même pour de très grands jeux de données (à l’aide d’ordinateurs si nécessaire,
voir N. Larson 1986, 1992). Comme exemple instructif d’incertitudes corrélées sur les données et de leur
impact sur les paramètres estimés, voir la discussion sur les références pour l’énergie des résonances par
F. Perey (1978).
L’union des erreurs statistiques et systématiques dans une erreur totale est souvent considérée
incorrecte. Nos équations montrent, toutefois, que le calcul du carré de l’erreur totale quadratique
moyenne en tant que somme des carrés des erreurs quadratiques moyennes (variances) de toutes les
composantes de l’erreur, statistiques aussi bien que systématique, est immédiat. La ligne de
démarcation entre les deux types d’erreur est toutefois discutable : une erreur statistique pour une
personne pourra être une erreur systématique pour une autre personne. Le seul problème dans la
somme quadratique des erreurs moyennes est qu’en elle-même elle ne révèle pas à quel point elle est
statistique ou systématique, c’est à dire quel niveau de corrélation il peut y avoir. Cette question peut
uniquement être répondue si la signification physique et l’erreur type de chacune des composantes de
l’erreur sont connues.
Une critique relativement reliée à ceci a été soulevée à l’encontre des moindres carrés appliqués
à des combinaisons de données obtenues de sources différentes : supposons qu’un taux de comptage
constant, par exemple celui d’un bruit de fond, soit mesuré de manière répétée avec des nombres de
coups nj enregistrés durant des intervalles de temps tj. La moyenne sur l’échantillon pondérée par
σ −2
n j appropriées pour les comptages, devient
j , calculée avec les incertitudes relatives 1 /
∑ t / ∑ (t
j
j
j
2
j
)
/ n j . Ceci ne semble pas correct et il a été considéré à tort comme une évidence qu’il
y a quelque chose de fondamentalement faux dans le formalisme des moindres carrés qui doit être
clarifié et corrigé. L’origine de cette difficulté n’est toutefois pas dans le formalisme des moindres
carrés, mais de son utilisation dans une situation où l’on sait que s’applique une distribution
non-Gaussienne d’échantillons-la distribution de Poisson. Il n’y a pas ici nécessité de remplacer les
distributions inconnues par des Gaussiennes via la maximisation de l’entropie ou le théorème de la
limite centrale et donc d’utiliser les moindres carrés. L’a posteriori correct est un produit des
probabilités de Poisson, équation (88), et de l’a priori de Jeffreys pour des taux constants. Les
estimations en découlant,
λ = ∑ j n j / ∑ j t j et ∆λ / λ = 1 /
∑
j
n j , font intervenir le
nombre total de coups et temps de comptage total de la manière précise où l’entendait le bon sens
commun à partir des équations (90) et (91). La leçon est que la méthode des moindres carrés ne doit
pas être utilisée aveuglément si l’information disponible admet un traitement plus rigoureux. C’est
une autre illustration de la vérité fondamentale selon laquelle la solution correcte à un problème de
probabilité demande à ce que toute l’information connue soit utilisée.
La stipulation que les expérimentateurs n’ont pas besoin de se soucier outre mesure des
corrélations ne doit pas être mal interprétée. Cela ne signifie pas que les corrélations sont sans
importance. Cela signifie seulement qu’elles ne sont pas nécessaires pour la construction de matrices
de covariances pourvu que la procédure de réduction des données et les erreurs quadratiques
47
moyennes correspondantes soient correctement précisées. Les incertitudes corrélées finales des
sections efficaces ou des paramètres des sections efficaces, contenues dans la matrice de covariance
a posteriori δxδx T , constituent une information particulièrement adaptée pour les utilisateurs des
données. L’incertitude de toute fonction f des sections efficaces xµ, par exemple la criticalité calculée
d’un réacteur nucléaire, est donnée dans le cadre d’une approximation linéaire par la racine carrée de
(δf )
où
2
δx µ δx ν
= ∑∑
µ
ν
∂f
∂f
δx µ δx ν
,
∂x µ
∂x ν
(96)
est un élément de la matrice de covariance, et où les dérivées ou coefficients de
sensibilités sont à calculer avec les meilleures estimations x µ . Il est évident qu’une bonne étude de
sensibilité ne peut être entreprise sans la matrice de covariance. Par le passé, quand l’information sur
la covariance était ignorée, on observait systématiquement que tout se passait comme si les données
nucléaires n’étaient pas assez précises pour certaines applications. Lorsque cette information est
correctement prise en compte, la précision devient assez acceptable du fait de termes négatifs dans la
double somme venant d’erreurs anticorrélées (se compensant). Ainsi, ceux qui extraient des
paramètres de section efficace à partir de données expérimentales ne devraient pas seulement
déterminer les paramètres et leurs incertitudes, mais au moins également les éléments les plus
importants de la matrice de covariance.
Nous terminons cette partie en notant que les éléments Cµν de la matrice de covariance sont reliés
aux écarts types ∆x µ =
var x µ et aux coefficients de corrélation ρµν de la manière suivante,
Cµν ≡ δx µ δx ν = ∆x µ ρ µν ∆x ν ,
(97)
avec ρµµ = 1. L’inégalité de Schwarz limite l’intervalle de définition des coefficients de corrélations,
− 1 ≤ ρ µν ≡
(
cov x µ , x ν
)
var x µ var x ν
≤ +1 .
(98)
Les incertitudes peuvent donc être établies de plusieurs manières équivalentes :
1. Comme variances et covariances.
2. Comme variances relatives et covariances relatives.
3. Comme erreurs types et coefficients de corrélation.
4. Comme erreurs types relatives et coefficients de corrélation.
De loin, la méthode la plus économique et la plus sûre mnémotechniquement est la dernière
(au moins si les données ne sont pas négligeables devant les incertitudes). D’abord, les erreurs types
relatives (pourcentages) sont plus facilement saisissables, mémorables et comparables aux absolues,
spécialement si les vecteurs données contiennent des quantités distinctes d’un point de vue physique
(par exemple des paramètres de résonance et des sections efficaces, ou des sections efficaces
multigroupe et des facteurs d’auto-protection). Ensuite, les erreur types relatives et les coefficients de
48
corrélation ont une signification intuitive claire contrairement aux variances et covariances. Si on m’a
dit que les variances de x et y sont 0.04 et 0.000009 et que leur covariance est -0.000012, je suis
désemparé. C’est seulement avec l’information supplémentaire disant que les valeurs recommandées
sont x = 10 et y = 0.1 que je peux déduire que les écarts types relatifs sont de 2% pour x et 3% pour y
et que le coefficient de corrélation est de -0.02. Si on m’avait parlé directement des trois dernières
grandeurs, j’aurai immédiatement compris que les deux quantités sont connues avec une bonne
précision et que leur anticorrélation est négligeable pour la plupart des applications.
Il est difficile de comprendre pourquoi le format actuel ENDF-6 (Rose et Dunford 1990) n’admet
que des variances et covariances. Une extension du format aux erreurs types et coefficients de
corrélation permettraient aux évaluateurs et utilisateurs de travailler avec des fichiers d’incertitudes
qui seraient plus faciles à construire, à lire et à réactualiser, donc considérablement moins sujets aux
erreurs que ceux existant, sans occuper plus de place.
2.5 Qualité de l’ajustement
La qualité et la consistance d’un ajustement par moindres carrés est indiquée par la valeur a
posteriori de
χ 2 ≡ (ζ − z) C -1 (ζ − z) .
T
Plus les résidus ζ j − z j
(99)
sont petits, meilleur est l’ajustement et plus χ2 est faible. Des
désaccords, tels qu’un mauvais modèle théorique (une résonance manquante, par exemple) ou des
erreurs sous-estimées, tendent à rendre χ2 trop grand, alors que des erreurs surestimées le rendent trop
faible. Afin de voir ce qui est entendu par trop grand ou trop faible, considérons la distribution de
probabilité de la variable χ2 (dans l’espace des échantillons, pour des paramètres connus). Dans le cas
d’un modèle linéaire y(x), il est facile de voir que la distribution de χ2 est une distribution gamma : la
distribution du maximum d’entropie du vecteur de données ζ, connaissant le vecteur réel z, est
 χ2 
T
 1

-1
p(ζ z, C) d (ζ ) ∝ exp− (ζ − z) C (ζ − z) d (ζ ) ∝ exp -  d (ζ ) . (100)
 2
 2

Nous simplifions par une transformation orthogonale sur le système d’axes principaux dans
lequel χ2 est une somme de N = M + J carrés,
2
 ζ’ j − z’ j 
 ≡ ∑ χ 2j .
χ = ∑ 
σ
’

j =1 
j
j
N
2
(101)
Les primes se réfèrent au système d’axes principaux et les σ’ j 2 sont les éléments de la matrice
diagonale C’ = OTCO, avec OTO = 1. Les écarts relatifs χj peuvent être considérés comme les
coordonnées Cartésiennes dans l’espace des ζj. L’élément de volume correspondant est invariant par
transformation orthogonale (rotation) O,
d ( ζ ) = d ( ζ’) ∝ d ( χ ) ∝ χ N −1 dχdΩ .
(102)
49
Dans le dernier terme, nous introduisons les coordonnées polaires avec la coordonnée radiale χ,
comme le suggère l’équation (101). Avec cet élément de volume, il est trivial d’intégrer l’équation
(100) sur les coordonnées angulaires Ω. La distribution radiale en découlant peut être écrite comme
une distribution du χ2 à N degrés de liberté,
 χ2
N
p χ 2 z, C dχ 2 = Γ  exp 2
 2
(
-1
)
 χ 2

 2
N
2


−1
dχ 2
,
2
0 < χ 2 ≡ (ζ − z) C -1 (ζ − z) < ∞ .
T
(103)
Malheureusement, nous ne connaissons pas le vecteur réel des observables z = z(x). Tout ce que
nous connaissons, c’est l’estimation z$ ≡ z( x$ ) , où x$ satisfait la condition d’application des moindres
carrés (76) ou les équations normales (79) que nous écrivons maintenant sous une forme plus abrégée
comme
S$ T C -1 ( ζ − z$ ) = 0 .
(104)
Du fait de ce système de M équations, tous les ζj ne sont pas mutuellement indépendant mais
seulement J d’entre eux. Un développement de Taylor autour de l’estimation x$ mène à (comparer les
équations 78 et 80)
T
χ 2 = χ$ 2 + ( x - x$ ) S$ T C -1S$ ( x - x$ ) ,
(105)
où
2
 ζ’ j − z$’ j 
 ≡ ∑ χ$ 2j .
χ$ = ∑ 
σ
’

j =1 
j
j
N
2
(106)
T
$
Pour une théorie linéaire, on a z’= z’+O
S( x - x$ ) et par conséquent
1
χ j = χ$ j +
σ’ j
∑O
k ,µ
T
jk
S kµ ( x µ − x$ µ ) .
(107)
On peut maintenant remplacer les variables d’intégration χj par χ$ j pour j = 1,2,...J et par xµ pour
j=J+1, J+2,...N. Le Jacobien pour cette distribution est constant du fait de la relation linéaire (107)
entre les anciennes et les nouvelles variables, si bien que
$d Mx.
d ( ζ ) ∝ d ( χ ) ∝ χ$ J −1 dχ$ dΩ
(108)
En intégrant (100) sur toutes les coordonnées angulaires et tous les xµ, on obtient finalement la
distribution de la somme de l’écart quadratique χ$ 2 qui peut être calculé à partir de quantités connues,
50
 χˆ 2
J
p χˆ 2 zˆ , C dχˆ 2 = Γ  exp 2
 2
(
-1
)
 χˆ 2

 2
J
2


−1
dχˆ 2
,
2
0 < χ$ 2 ≡ (ζ − z$ ) C -1 (ζ − z$ ) < ∞ .
T
(109)
Cette distribution du χ2 à J degrés de liberté est plus large que la distribution du χ2 (103) à J+M
degrés de liberté. Sa moyenne et sa variance sont
χ$ 2 = J ,
(110)
var χ$ 2 = 2 J .
(111)
Ce résultat est exact pour des modèles théoriques linéaires z(x) ; pour des modèles non linéaires
il est valide dans l’approximation du point selle (Laplace). Il s’applique certainement à chaque fois
que l’ajustement par moindres carrés (voir partie 2.2) est possible. Les deux dernières équations
montrent qu’un bon ajustement est caractérisé par une valeur du χ2 proche du nombre J de points
expérimentaux, approximativement entre J − 2 J et J + 2 J . Le fait qu’un ajustement « donne
un χ2 de 1 031 pour 1 024 points expérimentaux » indiquerait ainsi un bon accord entre les données
initiales et le modèle théorique. Une valeur du χ2 supérieure pourrait mettre en évidence des
incertitudes sous-estimées, et il est bien souvent d’usage pratique de multiplier, dans ce cas, toutes les
incertitudes (c’est-à-dire les éléments de la matrice C) par un facteur d’échelle commun afin de forcer
2
l’égalité χ = J (et de modifier en conséquence les paramètres de la matrice de covariance
2
a posteriori). Ceci est toutefois dangereux, du fait qu’une valeur élevée du χ peut également être due
à un modèle théorique inadéquat (des spins attribués aux niveaux de manière incorrecte ou des petites
2
résonances omises, par exemple). Une valeur du χ anormalement faible, d’un autre côté, pourrait
indiquer des estimations d’incertitude trop prudents, mais cela pourrait également être dû à des
falsifications de données telles qu’éliminations de données (« données écartées ») qui semblaient en
contradiction avec la théorie en faveur. Le réajustement des incertitudes ne devrait ainsi être
considéré qu’après avoir acquis la certitude qu’il n’y a rien d’apparemment faux au niveau du
modèle ou des entrées.
Dans les ajustements par moindres carrés « primitifs », où l’information a priori est négligée , la
même argumentation conduit au résultat amplement utilisé que χ$ 2 = ( η − y$ ) B -1 ( η − y$ ) suit une
T
loi de distribution du χ2 à J-M degrés de liberté de sorte que la valeur du χ$ 2 est attendue grosso modo
entre ( J − M ) − 2( J − M ) et ( J − M ) + 2( J − M ) . L’établissement de la qualité de
l’ajustement doit alors inclure à la fois le nombre de points expérimentaux mesurés et de paramètres.
Une « valeur du χ2 de 1 031 pour 1 024 points expérimentaux et 20 paramètres ajustés (1 004 degrés
de liberté) » indiquerait un accord raisonnable.
2.6 Données incompatibles
Un des problèmes les plus épineux de l’évaluation des données est celui des données
incompatibles. Supposons que nous soient donnés les résultats de n mesures complètement
indépendantes et expérimentalement différentes de la même quantité physique µ, sous la forme xj ± σj,
j = 1,2,...,n. Si la distance entre tout couple de valeurs, x j − x k , est plus faible ou au moins pas
51
beaucoup plus grande que la somme des incertitudes correspondantes, σj + σk , les données sont dites
compatibles ou en accord « dans les barres d’erreurs ». (La probabilité que deux mesures de même
précision conduisent à une distance supérieure à σj + σk = 2σ est seulement égale à erfc 1 ≈ 0.157
pour deux distributions d’échantillonnage Gaussiennes de même écart type σ). Si certaines des
distances sont bien plus importante, les données ne sont pas compatibles avec les incertitudes établies.
Les incompatibilités ont pour origine des effets expérimentaux non identifiés ou mal corrigés tels que
bruits de fond, temps mort de l’électronique de comptage, résolution expérimentale, impuretés dans
les échantillons, erreurs de calibration, etc. Comme nous l’avons mentionné précédemment, un
arrangement rapide et populaire consiste à multiplier toutes les erreurs initiales par un facteur
commun afin que le χ2 ait la valeur attendue (et que toutes les barres d’erreur se recoupent). Ceci ne
change toutefois pas les poids relatifs, d’où l’aspect tout aussi pénalisant d’attribuer des incertitudes
trop optimistes ou trop prudentes. Le traitement Bayésien qui va suivre rend une justice plus
équitable. Il considère non seulement les incertitudes revendiquées mais également à quel point une
valeur donnée est distante de la moyenne.
Que pouvons nous dire des erreurs non identifiées ? Si nous ne connaissons que les données et
non la manière dont elles ont été mesurées, des erreurs positives et négatives sont équiprobables et,
par conséquent, la distribution de probabilité pour l’erreur non identifiée εj de la j-ème expérience
devrait être symétrique par rapport à 0, et la même distribution devrait s’appliquer à toutes les
expériences. Supposons donc, en accord avec le principe du maximum d’entropie, que les
distributions pour tous les εj soient Gaussiennes,
(
)
p ε j τ j dε j =
1
2 πτ 2j
2

εj 
1
exp−    dε j ,
 2τj 


−∞<εj <∞.
(112)
La probabilité de mesurer la valeur xj, connaissant la valeur réelle µ, l’erreur non identifiée εj et
l’incertitude σj due à toutes les sources d’erreurs non identifiées, est alors donnée par
(
)
p x j µ , σ j , ε j dx j =
1
2 πσ 2j
 1  xj − µ − ε j 2
 dx j , − ∞ < x j < ∞ . (113)
exp − 
σj
 2
 

Si les dispersions τj des erreurs non identifiées sont connues, alors la distribution conjointe
a posteriori pour µ et les εj est
 (x − µ − ε )2 ε2 
j
j
j
p µ , ε x , σ , τ dµd ( ε ) ∝ dµ ∏ d ε j exp −
− 2 .
2

2σ j
2τ j 
j =1


(
)
n
(114)
(ε, σ, τ, dans le membre de gauche, doivent être interprétés comme des vecteurs dans l’espace
des échantillons, dont les coordonnées sont εj, σj, τj). En effectuant les carrés dans l’exponentielle, on
peut facilement intégrer sur les εj. La distribution de µ a posteriori en découlant est une Gaussienne,
52
2

µ − x)
(
p µ x , s dµ =
exp −
2
2
 2( σ 2 + τ 2 ) /
2 π( σ + τ ) / n
(
)
1

dµ , − ∞ < µ < ∞ . (115)
n 
avec
µ = x,
var µ =
(116)
1 2
(σ + τ 2 ) .
n
(117)
où les barres supérieures signifient que les moyennes sont effectuées sur les j (sur les mesures) avec
(
)
des poids 1 / σ 2j + τ 2j . En intégrant (114) par rapport à µ, on obtient la distribution conjointe des
erreurs non identifiées,
1

 1
T
p(ε x , σ , τ )d ( ε ) ∝ exp − ( ε − x) A −1 ( ε − x) − ε T B −1 ε d ( ε ) ,
2

 2
(118)
-1
où A-1 et B sont des matrices définies positives, symétriques dont les éléments sont
( A ) jk
−1
−2
j
≡ σ δ jk −
σ −j 2 σ −k 2
∑σ
l
−2
l
,
( B −1 ) jk
(119)
≡ τ −j 2 δ jk .
(120)
Ce produit de deux Gaussiennes à plusieurs variables est également une Gaussienne à plusieurs
variables, avec le vecteur de moyenne ε = CA −1 x et la matrice de covariance inverse
C-1 = A-1 + B-1, si bien que
(A
−1
+ B −1 ) ε = A −1 x .
(121)
En résolvant la dernière équation pour ε j , on obtient
εj =
τ 2j
σ 2j + τ 2j
(x
j
)
−x .
(122)
La meilleure estimation de εj est alors l’écart x j − x de la j-ème donnée de la moyenne
(
(pondérée) x , multiplié par « un facteur réducteur » τ 2j / σ 2j + τ 2j
) qui est proche de zéro si les
erreurs non identifiées attendues sont beaucoup plus petites que les incertitudes connues σj, et proche
de l’unité si elles sont beaucoup plus grandes. Ceci, toutefois, est trivial : si nous connaissons les
variances τ 2j des erreurs non identifiées, c’est qu’elles ne sont pas réellement inconnues. Nous en
savons autant sur elles que sur les autres erreurs. Nous pouvons donc ajouter les variances comme
d’habitude pour obtenir les variances totales σ 2j + τ 2j . On s’attend à ce que leurs inverses
apparaissent en tant que poids dans chaque moyenne j et c’est en fait ce que nous venons de trouver.
Le cas non trivial le plus simple est celui où les τj ne peuvent pas être considérés comme les
erreurs quadratiques moyennes non identifiées mais plutôt comme leurs estimations, basés par
exemple sur la qualité générale des diverses mesures, sur la précision des techniques employées, peut
être même sur la crédibilité des expérimentateurs d’après leurs travaux précédents. (Notons qu’il est
parfaitement correct de mettre τj = 0 pour les expériences qui peuvent être considérés exemptes de
53
toute erreur non identifiée). La variance réelle inconnue peut alors être prise égale à τ 2j / c , où c est
un paramètre d’échelle commun ajustable avec un a priori p(c)dc, et la probabilité conjointe pour µ et
le vecteur ε être prise égale à
 ( x − µ − ε ) 2 cε 2 
j
j
j
p µ , ε x , σ , τ dµd ( ε ) ∝ dµ ∫ dcp( c)∏ c d ε j exp −
− 2  . (123)
2

2σ j
2τ j 
j =1
0


(
∞
)
n
1/ 2
En intégrant sur tous les εj, on obtient la distribution a posteriori de µ,
(
∞
)
n
(
p µ x, σ , τ dµ ∝ dµ ∫ dcp( c)∏ σ + τ / c
j =1
0
2
j
2
j
)
−1 / 2
2

µ − xj)
(
1
exp −
 2 σ 2j + τ 2j / c

(
)

.


(124)
Si nous n’avons pas du tout d’information numérique sur le paramètre d’échelle c, l’a priori de
Jeffreys dc/c semble approprié. L’intégration sur c est donc facile si les incertitudes connues sont
négligeables. Avec σj = 0 pour tous les j, l’intégrand devient essentiellement une distribution gamma
de c, et l’intégration mène à une distribution t de Student,
(
)
p µ x , s’ dµ =
B
( )
1 n −1
,
2 2
du
(1 + u
)
2 n/ 2
,
−∞<u≡
µ−x
<∞,
s’
(125)
avec
µ = x,
var µ =
(126)
s’2
,
n−3
(127)
où s’ 2 ≡ x 2 − x 2 , les barres supérieures indiquant des moyennes sur l’échantillon pondérées par τ −2
j .
Ainsi, l’incertitude sur µ dans ce cas extrême est égale à la variance s’ 2 de l’échantillon, déterminée
par la dispersion des données xj (parfois appelée « l’erreur externe »). Ceci, bien entendu, n’est autre
que ce que nous avons trouvé lorsque nous discutions des estimations de µ à partir d’un échantillon
décrit par une Gaussienne dont l’écart type est inconnu (équation 34). Pour des valeurs élevées de n,
la distribution de µ est pratiquement Gaussienne.
Dans le cas général, σj > 0, τj > 0, l’intégrale (124) avec l’a priori de Jeffreys le moins informatif
p( c) dc ∝ dc/c diverge logarithmiquement car l’intégrand devient proportionnel à 1/c pour c→0. Le
formalisme Bayesien signale de cette manière que l’information a priori est insuffisante pour les
prédictions désirées. Y a t’il autre chose que nous sachions outre le fait que c est un paramètre
d’échelle ? Si les τj sont en fait les meilleures estimations que nous ayons pour les incertitudes
engendrées par les erreurs non identifiées, alors nous nous attendons à ce que c soit proche de l’unité.
L’a priori d’entropie maximale, avec la contrainte c = 1 est
p( c)dc = e − c dc ,
0< c< ∞.
(128)
54
Il n’engage à pratiquement rien de plus que l’a priori de Jeffreys, décroissant également de
manière monotone quand c augmente, mais est normalisable et donne moins de poids aux extrema.
Avec cet a priori, l’intégrale sur c et la constante de normalisation de la distribution a posteriori de µ
(124) sont toutes deux finies et peuvent être calculées numériquement sans difficultés. La figure 8
239
montre un exemple concret, la distribution a posteriori de la section efficace de fission du Pu pour
des neutrons de 14.7 MeV ainsi que les distributions Gaussiennes représentant les six résultats
expérimentaux donnés dans le tableau 1. Des incertitudes a priori valant τj = 0.1 barn furent attribués
sans discrimination à toutes les expériences, en se basant sur l’état de l’art. La moyenne a posteriori
et l’incertitude quadratique moyenne, calculées numériquement, sont également données dans le
tableau 1.
Figure 8. Densités de probabilité représentant les résultats expérimentaux retranscrits
dans le Tableau I (Gaussiennes en pointillé), et densité a posteriori de la valeur réelle (courbe
continue) estimée avec le modèle Bayésien à deux étages, équation (124), avec l’hyper a priori
donné par l’équation (128). Des incompatibilités sont évidentes entre les expériences
2,3 et 4 (l’étiquette des courbes est donné dans la première colonne du tableau)
55
Tableau 1. Résultats expérimentaux et après estimation de 239Pu(n,f)
pour des neutrons de 14.7 MeV d’énergie incidente.
N°
Auteurs
Année
Section efficace de
erreur non
fission mesurée
identifiée estimée
(barn)
(barn)
1978
Kari
1
2.37 ± 0.09
-0.019 ± 0.056
1978
Cancé et al.
2
2.29 ± 0.05
-0.086 ± 0.050
1979
Adamov et al.
3
2.51 ± 0.05
0.056 ± 0.048
1982
Li et al.
4
2.53 ± 0.05
0.069 ± 0.049
1982
Mahdawi et al.
5
2.44 ± 0.09
0.006 ± 0.056
1983
Arlt et al.
6
2.39 ± 0.03
-0.027 ± 0.041
meilleure estimation
2.42 ± 0.05
estimation a priori pour toutes les erreurs systématiques
τj = 0.1 b
2.7 Estimation d’erreurs systématiques inconnues
Que pouvons-nous apprendre sur les erreurs systématiques non identifiées εj à partir d’un
ensemble de données incompatibles, xj ± σj, j = 1,2,...,n ? Avec l’a priori (128), il est facile d’intégrer
la distribution de probabilité a posteriori (124) d’abord sur la distribution gamma de c, puis sur la
distribution Gaussienne de µ. Le résultat peut s’écrire sous la forme
 1
 1

T
p(ε x , σ , τ )d ( ε ) ∝ exp − ( ε − x) A −1 ( ε − x) 1 + ε T B −1 ε 
 2
 2

− n / 2 −1
d (ε ) ,
(129)
avec les matrices A et B définies comme précédemment dans les équations (115) et (116). Afin
d’obtenir le vecteur de moyenne et la matrice de covariance de cette distribution sous forme
analytique, nous utilisons l’intégration au point selle, en remplaçant la distribution exacte par une
Gaussienne à plusieurs variables ayant le même maximum et la même courbure au maximum,
1


T
p(ε x , σ , τ ) ≡ exp[ -F ( ε )] ≈ exp  -F ( ε$ ) − ( ε − ε$ ) ( ∇∇ T F ) ε = ε (ε − ε$ ) , (130)
2


$
où l’opérateur nabla a pour coordonnées ∇ i ≡ ∂ / ∂ε j . Nous avons ainsi
ε ≈ ε$ ,
(131)
[
δεδε T ≈ ( ∇∇ T F ) ε = ε
$
]
−1
.
(132)
Le vecteur le plus probable ε$ peut être déterminée en résolvant l’équation
n+2
B −1 ε
∇F = A ( ε − x) +
=0
2 1 + ε T B −1 ε / 2
−1
et la matrice de covariance approximative comme l’inverse de
56
(133)
∇∇ F = A
T
−1
−1
T
−1
−1
T −1
n + 2 B ( 1 + ε B ε / 2) − B εε B
+
,
2
( 1 + ε T B − 1 ε / 2) 2
(134)
évaluée pour ε = ε$ . A partir des définitions (119) et (120) pour A et B, nous obtenons
τ −j 2 σ 2j ε$ j
$ε j = x j − x + ε$ − n + 2
,
2 1 + ∑ k τ −k 2 ε$ 2k / 2
(135)
où x et ε$ sont les moyennes pondérées par σ −2
j . Ceci est approprié pour itérer. En insérant
ε$ j ≈ x j − x , pour tous les j, comme première estimation dans le membre de droite, on obtient la
seconde approximation
 n+2

τ −j 2 σ 2j
 x −x ,
ε$ j ≈ 1 −
2 1 + ∑ τ −2 ( x − x ) 2  j

k


k k
(
)
(136)
et, en répétant l’opération, des approximations de plus en plus bonnes. Notre traitement des erreurs
systématiques non identifiées est un exemple de méthode Bayesienne « hiérarchique » (ici à deux
étages). Elle implique une application répétée du théorème de Bayes : la distribution
d’échantillonnage (113) dépend des paramètres εj avec l’a priori (112) qui, à son tour, dépend de
« l’hyper paramètre » c avec « l’hyper a priori » (128) si nous remplaçons τ 2j par τ 2j / c .
Les estimations finales et leurs incertitudes (racines carrées des éléments diagonaux de la matrice
δε ε T ) dans le cas de notre problème pour 239Pu, obtenus de cette manière, sont retranscrits dans la
dernière colonnes du tableau 1. Aucune erreur non identifiée significative n’a été trouvée pour les
mesures 1, 5 et 6 alors que 2, 4 et peut être 3 semblent être affectées par des erreurs non identifiées
qui sont du même ordre de grandeur que les incertitudes établies par les auteurs. Bien sûr, cette
conclusion aurait pu déjà être tirée des données expérimentales (et spécialement de la représentation
graphique par des Gaussiennes de la figure 8), mais notre formalisme donne également un support
quantitatif pour notre sens commun dans des cas moins évidents. En outre, il éclaire quelque peu une
récente méthode d’estimation dont on fait le plus grand cas :
Notre seconde approximation (136) ressemble aux estimateurs de James-Stein (Stein 1956) qui,
depuis leur introduction, ont provoqué une grande quantité d’excitation, de confusion et un flot de
publications. C. Stein montra, en utilisant la définition fréquenciste du risque (l’erreur quadratique
moyennée sur tous les échantillons possibles, pour un ensemble donné de paramètres), que des
estimateurs similaire à (136) ont parfois un risque moindre que celui des estimations issues de
l’estimation Bayesienne par perte quadratique (qui minimise l’erreur quadratique moyennée sur tous
les paramètres possibles pour l’échantillon dont on dispose). Beaucoup d’améliorations ont été
suggérées pour les estimateurs originaux de Stein, basées sur la théorie des distributions fréquencistes
et d’un empirisme plus ou moins instruit. Par exemple, l’estimateur de « loi positive »
 n − 2 σ2 
xj − x ,
ε j ∗ ≈ 1 −
2 s’ 2 

+
(
)
(137)
fut proposé pour le cas particulier d’incertitudes égales (σj = σ pour tous les j). L’indice + signifie que
seules les valeurs positives du « facteur réducteur » sont acceptées. Pour les valeurs négatives, il faut
57
mettre ε j ∗ = 0 . De plus, l’estimateur de « loi positive » ne doit être utilisé que pour n ≥ 3. Des
discussions endiablées eurent lieu au sujet du « paradoxe » que l’estimateur pour εj ne dépend pas
seulement de xj mais de tous les autres xk, k ≠ j, échantillonnés indépendamment. La question fut posé
si l’inclusion d’autre données sans lien apparent n’améliorerait pas l’estimation. (« Si je veux estimer
la consommation du thé à Taiwan, ferai-je mieux d’estimer simultanément la vitesse de la lumière et
la masse des porcs dans le Montana ? » (Efron et Morris 1973).Ce qu’on appelle les formules
Bayesiennes d’empirisme paramétrique ne semblent pas manquer de perspicacité, par exemple par le
2
2
remplacement de τ dans l’équation 121 (dans le cas τj = τ pour tous les j) par la variance s’ de
l’échantillon. Aussi plausibles que de telles formules puissent paraître (voir par exemple Berger
1985), sans une justification rigoureuse elles restent des considérations ad hoc.
Avec les même conditions (σj = σ, τj = τ), notre équation 136 devient
 ( n + 2) σ 2 
ε j ≈ 1 −
 x −x ,
ns’ 2 +2 τ 2  j

(
)
(138)
valide pour toute valeur n ≥ 2, sans discontinuités ou problème d’interprétation. Un paradoxe n’existe
que pour les fréquencistes qui se refusent à utiliser les a priori. Pour un Bayésien, il n’y a pas de
paradoxe. Il ou elle code l’information que les données sont toutes du même type, mesurées dans des
expériences liées entre elles et donc comparables, dans un a priori de second étage qui induit des
corrélations et des facteurs « diminuant » de manière naturelle. Des données sur la vitesse de la
lumière n’ont aucun lien avec les nôtres et sont donc exclues. Du point de vue Bayesien, d’un autre
côté, il semble curieux de ne pas baser le critère de risque sur un échantillon donné et une
connaissance a priori, mais sur un échantillon donné et tous les autres échantillons non observés
qu’on puisse imaginer, sans l’utilisation de la connaissance a priori. Les estimateurs « dans les longs
run » (moyennés sur plusieurs échantillons), dont les Fréquencistes affirment la supériorité, ne sont
pas très adéquat pour l’évaluation des données, où l’on doit inférer les meilleures valeurs (par perte
quadratique ou de tout autre type) à partir d’un échantillon disponible. Il se peut qu’un estimateur
avec un faible risque soit plus proche de la valeur réelle pour une large proportion de tous les
échantillons possibles qu’un estimateur qui assure une perte quadratique minimale, mais la partie
restante des échantillons possibles tend à être si grande que l’avantage apparent devient un net
désavantage (voir Jaynes 1976). Dans tous les cas, la méthode Bayesienne à deux étages mène, dans
l’approximation du second point selle, à des estimateurs qui sont similaires, et pour des petits
échantillons particulièrement meilleurs, aux estimateurs de James-Stein. De plus, les itérations traitent
toutes les améliorations possibles et également les incertitudes de manière systématique et sans
ambiguïté, sans les discontinuités curieuses (Efron et Morris 1973) de bien des estimateurs améliorés
de James-Stein. La méthode Bayesienne ne laisse aucune place à l’empirisme une fois qu’une
fonction de perte, un modèle statistique et des a priori sont spécifiés.
De manière certaine, l’interprétation correcte de données incompatibles n’est jamais facile, et le
vieil adage selon lequel « l’évaluation des données est plus un art qu’une science » reste vrai dans une
certaine mesure, malgré les nombreux progrès réalisés dans la formalisation et la quantification durant
les trois dernières décennies.
58
3.
THÉORIE DES RÉSONANCES POUR LE DOMAINE RÉSOLU
235
Si des noyaux d’un élément donné, par exemple U, sont bombardés par des neutrons, on
observe des réactions nucléaires telles que diffusion élastique, capture radiative ou fission. Les
probabilités de ces processus (n,n), (n,γ) ou (n,f), exprimées par coutume sous forme de sections
-24
2
efficaces dont l’unité est le barn (1 b = 10 cm ), dépendent fortement de l’énergie des neutrons
incidents. La section efficace de diffusion, par exemple, est le plus souvent proche de la section
efficace géométrique du noyau (quelques barns) mais à certaines énergies, elle augmente brusquement
de plusieurs ordres de grandeur. Un comportement résonnant similaire, aux mêmes énergies, est suivi
par les sections efficaces de capture radiative et de fission. La figure 9 (en haut et au milieu) montre
238
ce comportement pour le noyau U pour lequel seules les réactions neutroniques de diffusion
élastique et de capture radiative sont autorisées d’un point de vue énergétique aux basses énergies
235
(en négligeant la fission en dessous du seuil). Pour U, on aurait également vu des résonances dans
la fission. Chacune de ces résonances est due à l’excitation d’un état de durée de vie relativement
longue (quasi-stationnaire) du noyau composé qui est formé temporairement lorsqu’un neutron
interagit avec un noyau cible. Notons la forme des différents pics : les résonances de la section
efficace de capture sont symétriques alors que celles de la section efficace de diffusion sont
asymétriques avec un minimum prononcé et une section « potentielle » de diffusion d’une certaine
importance entre les résonances.
L’impact des résonances sur le spectre neutronique dans un réacteur de puissance est visible sur
la figure 9 (en bas). Les creux marquants dans le flux de neutrons coïncident avec les pics des
résonances dans les sections efficaces. L’explication est simple : les neutrons ne peuvent survivre
238
longtemps à des énergies où U, le constituant principal du combustible, possède des sections
efficaces élevées, car ils sont bien vite capturés (ils disparaissent complètement) ou diffusés
(transférés à d’autres énergies, habituellement plus faibles). Il en résulte que le flux est appauvri au
238
niveau des résonances de U. Des creux plus faibles dans le flux sont dus à d’autres composants
235
moins abondants du combustibles tels que le noyau fissible U.
Aux basses énergies, les résonances apparaissent bien séparées mais lorsque l’énergie augmente,
leurs espacements diminuent alors que leurs largeurs augmentent. Éventuellement, elles se
superposent tellement les unes aux autres que la structure résonnante du noyau composé se moyenne
et que seules survivent des structures beaucoup plus larges, telles que les larges résonances (ou de
particules indépendantes) décrites par le modèle optique ou les résonances géantes dipolaires
observées dans les réactions photonucléaires. En général, seules les résonances à relativement basse
énergie peuvent être observées directement. Aux énergies intermédiaires, elles ne sont pas
complètement résolues du fait de la résolution expérimentale, alors que la disparition de la structure
résonnante du noyau composé due à des superpositions très importantes de niveaux n’apparaît qu’à
des énergies encore supérieures. Aussi distingue-t-on le domaine des résonances résolues du domaine
des résonances non-résolues (ou seulement en partie résolues).
59
Plus il y a de nucléons dans le système composé et plus la structure résonnante est fine. Les
espacements typiques entre les niveaux observés dans les réactions neutroniques sont de l’ordre
du MeV
du keV
de l’eV
pour les noyaux légers
pour les noyaux intermédiaires
pour les noyaux lourds
Les espacements entre les niveaux des noyaux cibles avec un nombre pair de nucléons sont
souvent plus grands que ceux des noyaux avec un nombre impair de nucléons. Les noyaux magiques
ou proche de la magicité ont des espacements de niveaux inhabituellement grands. Le noyau lourd
208
doublement magique Pb, par exemple, a des espacements moyens ressemblant à ceux de noyaux
légers.
L’agitation thermique des noyaux cibles engendre l’élargissement Doppler des résonances
observées dans le système du laboratoire : lorsque la température de la cible augmente, les résonances
s’élargissent tout en conservant une aire pratiquement constante. Cela modifie les taux moyen de
diffusion, de capture et de fission et l’équilibre neutronique global dans un réacteur à fission. Par voie
de conséquence, les caractéristiques de sécurité des divers modèles de réacteur à fission dépendent de
manière cruciale des résonances dans les sections efficaces des principaux constituants du
combustible et en particulier de leur élargissement Doppler. L’effet Doppler est le seul phénomène
naturel donnant une rapide contre-réaction à une excursion soudaine de puissance dans un réacteur à
fission. L’expansion thermique agit de même mais est beaucoup plus lente. De manière générale, on
demande que l’augmentation de température accompagnant une excursion de puissance se traduise par
une diminution du nombre de neutrons produits par neutron absorbé, de sorte qu’on ne perde pas le
contrôle de la réaction en chaîne de fission. En termes plus techniques, le coefficient instantané de
réactivité pour l’effet Doppler doit être négatif.
Dans les applications liées à la protection, les minima présentés par les sections efficaces de
diffusion et donc également par les sections efficaces totales (sommes de toutes les sections efficaces
partielles de diffusion, capture, fission, etc.) donnent lieu, pour les neutrons, à des « fenêtres » en
énergies dangereuses. Dans les modèles de réacteurs à fusion, tels qu’ITER (International
Thermonuclear Experimental Reactor), encore dans les planches à dessins, un blindage en fer est
prévu pour les bobines supraconductrices de l’aimant. Les fenêtres dans la section efficace des
composantes principales du fer limitent de manière significative l’efficacité du blindage. (voir
56
figure 10 pour Fe).
Ces exemples devraient suffire à illustrer l’importance des résonances des sections efficaces en
physique et techniques nucléaires. Les résonances résolues sont décrites de la manière la plus pratique
par la théorie de la matrice-R. Elle atteignit sa forme standard avec l’article de revue très détaillé de
Lane et Thomas (1958). Cet article se doit d’être lu par tout spécialiste du domaine. De façon très
brève, les principes de la théorie de la matrice-R sont les suivants. Toutes les collisions sont
considérées binaires, une fonction d’onde entrante décrivant les deux particules incidentes, une
fonction d’onde sortante décrivant les deux produits de la réaction. Les particules incidentes peuvent
235
être, par exemple, un neutron et un noyau U, les produits de réaction pourraient être deux fragments
236
235
de fission ou un noyau U excité et un photon ou encore un noyau U dans son état fondamental et
un neutron diffusé élastiquement. Puisque les forces nucléaires sont de courtes portées mais ne sont
pas très bien comprises, on divise l’espace des configurations en (i) une région externe où les forces
nucléaires sont négligeables, si bien que les fonctions d’onde bien connues pour des particules libres,
ou interagissant tout au plus électromagnétiquement, peuvent être utilisées ; et (ii) une région interne,
60
où les forces nucléaires prédominent. Même si la fonction d’onde interne est inconnue, elle peut au
moins être écrite comme un développement des fonctions propres d’un problème aux valeurs propres.
Le problème aux valeurs propres est caractérisé par l’équation (non relativiste) de Schrödinger qui
définit les dérivées logarithmiques des fonctions propres à la limite entre les deux régions. En
assurant la continuité des fonctions d’onde externes et internes à la limite, et en demandant des
probabilités finies dans tout l’espace, on trouve que pour une fonction d’onde entrante donnée, toutes
les fonctions d’onde sortantes, et donc toutes les sections efficaces, sont paramétrisées par les
fonctions propres et valeurs propres intervenant dans le problème. Celles-ci peuvent être identifiées
avec les énergies et les amplitudes de décroissance des états quasi-stationnaires du système composé.
Tout ceci va être discuté en détail ci-dessous.
Alors que les principes de la théorie des résonances sont assez simples, les expressions générales
peuvent apparaître impressionnantes aux débutants. Nous ne pouvons pas en donner tous les
développements (ceux-ci peuvent être trouvés dans l’article de revue de Lane et thomas 1958) et la
théorie fondamentale des collisions en mécanique quantique sera supposée connue, mais nous allons
essayer de présenter le formalisme de manière suffisamment détaillée pour les applications en
sciences et technologie. Les variantes importantes d’un point de vue pratique sont
•
Le formalisme de Blatt-Biendenharn.
•
L’approximation de Breit et Wigner simple niveau (SLBW).
•
L’approximation de Breit et Wigner multi-niveaux (MLBW).
•
L’approximation (multi-niveaux) d’Adler-Adler.
•
L’approximation (multi-niveaux) de Reich-Moore.
La première est assez générale. Elle montre comment les sections efficaces peuvent être
exprimées en fonction de la matrice de collision symétrique unitaire (matrice-S) avec un accent
particulier sur les distributions angulaires et le spin des particules. Elle peut être combinée avec
n’importe quelle des quatre autres qui imposent différentes approximations à la matrice de collision.
61
Figure 9. En haut : section efficace de capture de 238U en dessous de 200 eV, élargie
par effet Doppler à 300 K. Au milieu : section efficace de diffusion de 238U, également
élargie à 300 K. En bas : Spectre neutronique dans un réacteur à eau pressurisé de
pointe (C. Broeders, FZK, communication privée). L’axe des ordonnées est en
échelle logarithmique. Les énergies sont données dans le référentiel du laboratoire
62
56
Figure 10. Section efficace totale expérimentale de Fe+n entre 305 et 600 keV (en barns) et
ajustement théorique des résonances (ligne continue, à peine visible) avec le formalisme de
Reich-Moore à une voie. Les larges pics asymétriques sont des résonances d’onde s, les étroits
pics symétriques sont des résonances d’onde p ou d. Les données ont été obtenues dans une
mesure de transmission par temps de vol avec une base de vol de 201.6 m, auprès d’ORELA,
l’accélérateur linéaire d’électron d’Oak Ridge (d’après Perey et al. 1990)
63
3.1 Le formalisme de Blatt-Biedenharn
Notre notation dans cette sous-partie et les suivantes sera fondamentalement la même que celle
de Lane et Thomas (1958). Nous rappelons que, dans la théorie des réactions nucléaires, on parle de
voies de réactions. Chaque voie est complètement déterminée par
•
α, la division du système composé en partenaires de la réaction, par exemple
+ γ (dans les deux cas, c’est le même noyau composé).
•
J, le moment angulaire total en unité h .
•
l , le moment angulaire orbital en unité h .
•
s, le spin de la voie en unité h .
235
U + n ou
236
U
Les moments angulaires satisfont les relations triangulaires de mécanique quantique
r r r
J =l+s
l−s ≤ J ≤l+s,
c’est à dire
(139)
r r r
s =I +i
c’est à dire
I −i ≤s≤ I +i,
(140)
r r
où I et i sont les spins (en unité h ) des deux partenaires de la collision. L’énergie totale, le moment
angulaire total et (dans tous les cas pratiques) la parité sont conservés dans les réactions nucléaires.
Nous rappelons à nouveau que, pour des particules neutres et de spin nul, il est possible de
résoudre l’équation non relativiste de Schrödinger pour la condition aux limites « onde entrante
stationnaire plane + onde sortante stationnaire sphérique » avec comme résultat
dσ αα = πD
∞
2
α
∑ (2l + 1)(1 − U )P (cos ϑ)
l =0
l
l
2
dΩ
4π
(141)
pour la section efficace différentielle de diffusion élastique. La longueur d’onde de de Broglie
2πD α = h / (µ α v rel ) correspond au mouvement relatif des partenaires de la collision, avec la masse
réduite µα et la vitesse relative vrel. Les fonctions propres Pl du moment angulaire sont des
polynômes de Legendre d’ordre l . Les termes dans la somme avec l = 0,1,2... sont dits appartenir
aux ondes s, p, d, f, …, une nomenclature historique venant de la spectroscopie atomique (où elle se
réfère à ce qu’on appelle séries spectrales « sharp », « principal », « diffuse », « fundamental »). La
fonction de collision U l décrit la modification de la l -ème onde partielle sortante par rapport au cas
où il n’y a pas d’interaction. Sa valeur absolue donne l’atténuation en amplitude, son argument le
déphasage amené par la réaction. Avec Pl Pl ’ = (ll’00, L0 ) PL où (ll’00, L0 ) est un coefficient de
2
Clebsch-Gordan s’annulant à moins que l − l’ ≤ L ≤ l + l’ et
(− ) + ’ = (− ) L ,
l l
on peut écrire la
section efficace différentielle sous forme de développement linéaire en polynômes de Legendre,
∞
dσ αα = D 2 ∑ B L PL (cos ϑ)dΩ
(142)
L =0
64
avec les coefficients
BL =
(
)
1
(2l + 1)(2l’+1)(ll’00, L0)2 1 − U l* (1 − U l ’ ) .
∑
4 l ,l ’
(143)
Blatt et Biedenharn (1952) menèrent à bien la généralisation pour des particules de spin non nul
et pour des collisions amenant un changement (un réarrangement) de la composition du système. Dans
le cas où il n’y a pas d’interaction coulombienne, ils obtinrent
dσ αα ’ =
∞
D2
∑ BL (αs, αs’)PL (cos ϑ)dΩ ,
(2i + 1)(2 I + 1) ∑
s , s ’ L =0
(144)
avec les coefficients
s −s ’
(
−)
B L (αs, αs ’) =
∑ ∑ ∑ Z (l 1 J 1l 2 J 2 , sL )Z (l’1 J 1l’2 J 2 , s’L )
4
J1 , J 2 l 1 , l 2 l ’1 , l ’2
(
× δ αα ’δ l 1l ’1 δ ss ’ − U
) (δ
*
J1
αl 1s , α ’l ’1 s ’
δ
αα ’ l 2 l ’2
δ ss ’ − U
J2
αl 2 s , α ’l ’2 s ’
Z (l 1 J 1 l 2 J 2 , sL ) =
(2l 1 + 1)(2l 2 + 1)(2 J 1 + 1)(2 J 2 + 1)
× (l 1 l 2 00, L0)W (l 1 J 1 l 2 J 2 , sL ),
),
(145)
(146)
où W (l 1 J 1 l 2 J 2 , sL ) est un coefficient de Racah, voir par exemple Fano et Racah (1959) ou de
Shalit et Talmi (1963). Notre convention de phase est celle de Lane et Thomas (1958) ; une
convention légèrement différente est adoptée dans les tables de Z de Biedenharn (1953). Les
coefficients Z sont nuls à moins que les relations triangulaires de mécanique quantique pour la somme
des vecteurs
r
r
r r
l1 + l 2 = L = l’1 + l’2
(147)
r
r r r r
l i + s = J i = l’i + s ’
(i = 1,2)
(148)
ne soient vérifiées. La conservation de la parité exige que (− ) Π α = Π i = (− ) Π α ’ où Π α , Π α ’
sont les parités propres des particules entrantes et sortantes (positives pour les neutrons, protons,
particules α et photons) et Π i est la parité du système composé avec le moment orbital total
Ji (i = 1,2). S’il y a une interaction coulombienne entre les partenaires de la collision, des termes
additionnels doivent être introduits, voir Lane et thomas (1958).
l
l’
Intégrons l’équation (144) sur les angles. Tous les termes avec L<0 disparaissent du fait de
l’orthogonalité des PL et car
Z (l 1 J 1l 2 J 2 , s 0) = (− )
J1 + s
2 J 1 + 1 δ J 1 J 2 δ l 1l 2 ,
(voir de-Shalit et Talmi 1963) et on obtient
65
(149)
dσ αα ’ = πD 2α ∑ g J ∑ ∑ δ α ,α ’δ l ,l ’δ s , s ’ − U αJls ,α ’l ’s ’ ,
2
(150)
l,l ’ s , s ’
J
où ce qu’on appelle les facteurs statistiques de spin
gJ ≡
2J + 1
,
(2i + 1)(2 I + 1)
(151)
sont les poids pour les différents moments angulaires totaux possibles.
Nous ne pouvons pas aller dans le détail des distributions angulaires, mais nous mentionnons
qu’elles présentent des interférences entre les différentes ondes partielles, par exemple ondes s et p,
alors qu’il n’y en a pas entre les sections efficaces intégrées sur les angles. Ces dernières sont de
simples sommes sur les termes ayant des l et s donnés, sans termes croisés, voir équation (150).
Néanmoins, il existe une certaine connexion entre les différentes ondes partielles. Comme nous
l’avons déjà mentionné, le noyau composé et ses états quasi-stationnaires sont caractérisés, outre par
l’énergie, par le moment angulaire total, J, et la parité, Π. Le Tableau 2 montre, pour une cible de spin
et de parité positive donnés, les combinaisons possibles de l , s et J pour des particules incidentes de
spin i = ½. Certaines combinaisons JΠ peuvent être formées au travers de plus d’une voie si l >0 et
I >0. Si IΠ0 = ½+, par exemple, des résonances avec JΠ = 1- peuvent être excitées par deux ondes p
avec s = 0 et s = 1 et les niveaux 2+ peuvent être excités par des ondes d avec s = 0 et s = 1. Les
largeurs neutroniques (qui donnent la force de l’excitation, voir plus loin) pour les niveaux 1- et
2+ sont donc les sommes de deux largeurs partielles pour deux voies de spin. Pour IΠ0 = 1+, les
niveaux ½+ peuvent même être excités par des ondes partielles de l différent, une onde s avec s = ½
et une onde d avec s = 3/2, tandis que les niveaux 3/2+ sont excitables par trois ondes partielles, une
onde s avec s = 3/2 et deux ondes d avec s = ½ et s = 3/2, et ainsi de suite.
Tableau 2. Combinaisons possibles du spin I de la cible, du moment angulaire orbital l et du spin
de la voie s donnant le spin total J, la parité Π et le facteur statistique de spin g, pour
une cible de parité Π0 positive et un projectile de spin i = ½
IΠ0
0+
l
0
1
2
s
1/2
1/2
1/2
g
JΠ
1/21/2-, 3/23/2+, 5/2+
1
1,
2
2,
3
Σg
1
3
5
onde
s
p
d
1
s
3
p
5
d
1
s
3
p
5
d
etc.
1/2+
0
1
2
1+
0
1
2
0
1
0
1
0
1
1/2
3/2
1/2
3/2
1/2
3/2
1/4
0+
0-,
1+
11-, 2-,
2+
1+, 2+,
3/4
3/4
1/4, 3/4, 5/4
5/4
3/4, 5/4, 7/4
3+
etc.
1/2+
1/3
3/2+
1/2-, 3/21/2-, 3/2-, 5/23/2+, 5/2+
1/2+, 3/2+, 5/2+, 7/2+
etc.
2/3
1/3, 2/3
1/3, 2/3, 3/3
2/3, 3/3
1/3, 2/3, 3/3, 4/3
66
Ainsi, nous trouvons que chaque état quasi-stationnaire du noyau composé se révèle en tant que
résonance dans toutes les voies ouvertes qui ne sont pas exclues par les règles de sélection de spin et
de parité. Les intensités (les aires des pics) peuvent différer, mais la largeur de la résonance doit être
la même dans toutes ces voies, étant proportionnelle à l’inverse du temps de demi-vie de l’état du
noyau composé. Dans ce contexte, il peut être alors compris que les termes couramment employés de
résonance d’onde s ou p signifient que le niveau peut au moins être excité par des ondes s ou p, mais
aussi, éventuellement, par des ondes partielles de même parité d’ordre plus élevé. Pour donner un
exemple : les résonances d’onde s 3/2+ observées dans des réactions nucléaires avec des noyaux
cibles ayant IΠ0 = 1+ contiennent également une composante d’onde d. Il est vrai qu’aux basses
énergies incidentes, la composante d’onde s est beaucoup plus grande du fait de la plus grande
barrière centrifuge pour les neutrons d’onde d (voir plus loin) mais il faut prendre conscience que
certaines séquences de résonances d, f, … sont masquées par des séquences s, p, …. C’est un point
important, par exemple pour l’interprétation statistique des densités de niveaux observées ou pour la
simulation des effets de résonance dans le domaine des résonances non résolues avec des « mailles »
de résonances obtenues en échantillonnant par Monte Carlo (voir la partie 4, ci-dessous).
3.2 Les expressions exactes de la matrice-R
La section efficace intégrée sur les angles σαα’, équation (150), peut être écrite en tant que
somme des sections efficaces partielles, σcc’, obtenue par sommation sur toutes les voies d’entrée
c ≡ {αJls} et de sortie c’≡ {α’Jl’s’} qui mènent de la répartition α à la répartition α’. Dans une
notation légèrement simplifiée, ces dernières s’écrivent
σ cc ’ = πD 2c g c δ cc ’ − U cc ’ .
2
(152)
Notons que, pour c ≠ c’, la section efficace partielle est proportionnelle à la probabilité, au sens
de la mécanique quantique, U cc ’
2
d’une transition de la voie c à la voie c’, et à la probabilité gc
d’avoir le moment angulaire correct à partir des spins des partenaires de la collision. Le symbole de
Kronecker δcc’ intervient puisque les particules entrantes et sortantes ne peuvent être distinguées si
c = c’. Le facteur cinématique πD 2c permet de relier probabilités et sections efficaces. La matrice de
collision U, souvent appelée matrice de diffusion ou matrice-S, est symétrique car, pour tous les cas
pratiques, nous pouvons considérer les interactions nucléaires (et coulombiennes) comme invariante
par rapport à l’inversion du temps. De plus, U est unitaire puisque le cumul des probabilités des
transitions dans les différentes voies est égal à un,
∑
U cc ’ = 1 . De l’unitarité de U et de l’équation
2
c’
(152), il s’ensuit que la section efficace totale pour la voie d’entrée c est une fonction linéaire de Ucc,
σ c ≡ ∑ σ cc ’ = πD 2c g c (1 − Re U cc ) ,
(153)
c’
contrairement aux sections efficaces partielles qui dépendent de manière quadratique de Ucc’. Les
expressions obtenues sont donc les plus simples pour la section efficace totale, et les plus
compliquées pour la section efficace de diffusion élastique (à cause du symbole de Kronecker). Il est
par conséquent plus commode de calculer σcc comme une différence entre σc et des autres sections
67
efficaces partielles plutôt que directement à partir de l’équation (152). La relation de réciprocité entre
les sections efficaces pour une réaction c → c’ et la réaction inverse c’ → c,
σ c ’c
σ
= cc ’2 ,
2
g c ’D c ’ g c D c
(154)
découle directement de la symétrie de U.
Ces équations sont assez générales. Afin d’introduire les résonances, nous faisons appel à la
théorie de la matrice-R qui nous permet d’exprimer U en fonction de la matrice des voies R
(voir Lane et Thomas 1958, Lynn 1968),
{
[
(
U cc ’ = e −i (ϕc + ϕc ’ ) Pc1 / 2 [1 - R (L - B )] 1 - R L* - B
{
−1
[(
= e −i (ϕc + ϕc ’ ) δ cc ’ + 2iPc1 / 2 1 - RL0
Rcc ’ = ∑
λ
)
−1
]
)]}
}
cc ’
Pc1’/ 2
R cc ’ Pc1’/ 2 ,
γ λc γ λc ’
,
Eλ − E
(155)
(156)
L0cc ’ ≡ Lcc ’ − Bcc ’ = ( Lc − Bc )δ cc ’ ≡ (S c + iPc − Bc )δ cc ’ .
(157)
Une autre possibilité est d’exprimer la matrice de collision en fonction de la matrice des niveaux
A,


U cc ’ = e −i (ϕc −ϕc ’ )  δ cc ’ + i ∑ Γλ1c/ 2 Aλµ Γµ1c/’2  ,
λ ,µ


(158)
Γλ1c/ 2 ≡ γ λc 2 Pc ,
(159)
(A )
−1
λµ
= (E λ − E )δ λµ − ∑ γ λc L0c γ µc .
(160)
c
Remarque : Les indices en Roman renvoient aux voies de réaction, les indices Grec au niveaux
du noyau composé et 1 est la matrice unité. Trois groupes de quantités physiques apparaissent dans
ces équations :
D’abord, il y a les paramètres de résonance, c’est à dire les énergies formelles des niveaux Eλ et
les amplitudes de probabilité γλc pour la décroissance (ou formation) des états du noyau composé via
les voies de sortie (ou d’entrée) c, toutes parfaitement incluses dans la matrice-R (156), chaque niveau
contribuant à un terme de la somme (une hyperbole en fonction de l’énergie E). Les γλc (ndT :
appelées aussi amplitudes de voies) peuvent être positives ou négatives, de manière pratiquement
aléatoires sauf à proximité de l’état fondamental. Les formules des sections efficaces sont d’ordinaire
écrite en fonction des largeurs partielles Γλc et des largeurs totales Γλ ≡ ΣcΓλc plutôt que des
amplitudes de décroissance.
68
Le deuxième groupe, les déphasages de sphère dure ϕc et les dérivées logarithmique Lc, dépend
uniquement des fonctions d’onde radiales entrantes et sortantes (connues) Ic et Oc au rayon de la voie
ac,
ϕ c ≡ arg Oc (a c ) = arc tan
Lc ≡ a c
Im Oc (a c )
,
Re Oc (a c )
(161)
O’c (a c )  ∂ ln Oc 
= rc
.

∂rc  r = a
Oc (a c ) 
c
(162)
c
Les Sc ≡ Re Lc sont appelés facteurs de décalage pour des raisons qui deviendront claires par la
suite, les Pc ≡ Im Lc sont les pénétrabilités de la barrière centrifuge. Les quantités Bc et ac forment le
troisième groupe. Elles définissent le problème aux valeurs propres avec les valeurs propres Eλ. Leur
choix est principalement une affaire de commodité. Les Bc sont les dérivées logarithmiques des
fonctions propres radiales pour les rayons des voies ac. Ces rayons définissent la limite entre la région
interne et externe. Ils doivent être choisis suffisamment grands pour que l’interaction nucléaire puisse
être parfaitement négligée si la distance rc entre les partenaires de la réaction est supérieure à ac,
autrement ils sont arbitraires. Il est préférable de choisir ac juste légèrement supérieur au rayon du
noyau composé (voir Lynn 1968). Un choix raisonnable pour les voies neutroniques est ac = (1.23A1/3
+0.80) fm, où A est le nombre de nucléons dans le noyau cible. Nous mentionnons ici que, dans les
applications, toutes les énergies et largeurs des résonances sont données dans le référentiel du
laboratoire, comme par exemple dans la compilation de paramètres de résonance largement utilisée de
Mughabghab et al. (1981, 1984) connu sous le nom de « barn book » (NdT : ou BNL-325), ou dans
celle de Sukhoruchkin et al. (1998), ou encore dans les fichiers informatiques d’évaluation de données
nucléaires.
Pour des projectiles neutres, les fonctions d’onde radiales sortantes sont proportionnelles aux
fonctions sphériques de Hankel de première espèce, hl(1) ,
Oc = I c* = ik c rc hl(1) (k c rc )
(≈ i e
l
ik c rc
)
si k c rc >> l(l + 1) ,
(163)
où k c = 1 / D c . Les propriétés des fonctions de Hankel donnent les relations récursives
L0 = ik c a c = iP0 ,
ϕ 0 = k c ac ,
Ll = −l −
(k c a c )2
,
(164)
ϕ l = ϕ l −1 + arg(l − Ll −1 ) ,
(165)
Ll −1 − l
avec lesquelles le tableau 3 est construit. Notons que Sc = 0 pour l = 0 , et que S c → −l pour
k c a c → 0 (aux basses énergies). Par conséquent, Bc = −l est un bon choix pour le domaine des
résonances résolues : assez généralement, cela simplifie toutes les expression de la matrice-R et, en
particulier, élimine de manière rigoureuse les facteurs de décalage pour les ondes s ainsi que, comme
nous le verrons plus loin, de manière approximative pour les ondes partielles d’ordre supérieur. Cela
signifie que les pics de section efficace apparaissent aux énergies formelles de résonance Eλ comme
elles le devraient, au lieu d’être décalés. Sc et Pc pour les voies photon et fission sont habituellement
considérés constants.
69
Tableau 3. Fonctions d’onde de voie et quantités associées pour des projectiles neutres
( ρ ≡ k c rc , α ≡ k c a c )
l
Oc
1
2
e iρ
1 
e iρ  − i 
ρ 
3
 3 3i

e iρ  2 − − 1
ρ
ρ

…
…
ϕc
α
α − arc tan α
α − arc tan
…
3α
3 − α2
Sc
0
Pc
α
−1
α2 +1
α3
α2 +1
(
)
− 3 α2 + 6
α 4 + 3α 2 + 9
α5
α 4 + 3α 2 + 9
…
…
Les paramètres de résonance fondamentaux, Eλ, γλc, dépendent d’interactions nucléaires
inconnues. Ils ne peuvent de ce fait être calculés à partir des principes de base (excepté pour des
modèles simples comme un puits de potentiel carré, voir plus loin.) Dans les applications courantes de
la théorie de la matrice-R, ce sont uniquement des paramètres ajustables sur les données
expérimentales. En fonction du choix de Bc, ils peuvent être réels et constants tout comme complexes
et dépendants de l’énergie.
Dans la version de Wigner-Eisenbud de la théorie de la matrice-R, les paramètres Bc choisis
sont des constantes réelles (Wigner et Eisenbud 1947). Les paramètres de résonance Eλet γλc sont
donc également réels et constants, et la dépendance en énergie de la matrice U est seulement due aux
ϕc et Lc, toutes des fonctions connues de kcac, c’est à dire de l’énergie. Ceci fait de la version de
Wigner-Eisenbud le formalisme le plus pratique pour la plupart des applications, et particulièrement
en choisissant Bc = −l . Il est facile de vérifier que la matrice-R réelle donne une matrice de collision
unitaire, ce qui signifie que la somme des sections efficaces partielles, équation (152), est strictement
égale à la section efficace totale correcte, équation (153). Un problème réside cependant dans la
nécessité d’inverser la matrice des voies 1-RL0 de l’équation (155), ou la matrice inverse des niveaux
A-1 de l’équation (160). Ces deux matrices ont un rang très élevé. De manière pratique, la difficulté
est contournée par diverses approximations sur la matrice inverse des niveaux, comme nous le verrons
plus loin.
La version de Kapur-Peierls de la théorie de la matrice-R est obtenue en effectuant le choix
Bc = Lc, c’est à dire L0c = 0 (Kapur et Peierls 1938). Ceci enlève complètement la nécessité d’inverser
les matrices, mais mène à des paramètres de résonance complexes qui dépendent implicitement de
l’énergie d’une manière plutôt obscure du fait que la vraie solution du problème aux valeurs propres
varie maintenant avec l’énergie, et donc également les valeurs propres et l’ensemble des fonctions
propres. De plus, la matrice de collision n’est pas manifestement unitaire car la matrice-R est
complexe. Malgré ces handicaps, les formules du type Kapur-Peierls sont utiles dans des petits
intervalles d’énergie, en particulier pour la description de l’effet Doppler. Nous allons écrire les
paramètres complexes et dépendants de l’énergie de Kapur-Peierls sous la forme λ , gλc afin de les
distinguer des paramètres réels et constants de Wigner-Eisenbud Eλ, γλc. Ainsi

G1/ 2G1/ 2
U cc ’ = e −i (ϕc + ϕc ’ )  δ cc ’ + i ∑ λc λc ’
ελ − E
λ


,


ε
(166)
70
G λ1c/ 2 = g λc 2 Pc .
(167)
Notons que la forme de Kapur-Peierls de la matrice de collision (et donc des expressions
correspondantes de la section efficace totale) n’implique qu’une simple somme sur les niveaux alors
que l’expression (158) de Wigner-Eisenbud implique une double somme.
Les équations de la matrice-R passées en revue jusqu’ici représentent pratiquement tout ce qui
est nécessaire pour les applications utilisant la théorie des résonances. Elles doivent cependant être
pleinement comprise et l’expérience montre que ce n’est pas chose aisée pour un débutant. Il pourrait
par conséquent souhaiter voir une illustration simple qui montre les étapes essentielles dans le
développement de la théorie et présente la signification des différentes quantités sans les
complications de l’algèbre de spin et des notations matricielles. Une telle illustration est donnée par le
modèle optique sphérique, particulièrement avec un puit de potentiel carré complexe, pour lequel tout
peut être calculé explicitement (voir Fröhner 1996), les résultats étant de première utilité pour le
domaine des résonances non résolues.
3.3 Les approximations importantes d’un point de vue pratique
Un point de départ commode pour les versions pratiques de la théorie de la matrice-R est la
matrice inverse des niveaux. Nous allons considérer les représentations et approximations suivantes.
Représentation de Wigner-Eisenbud (exacte)
Avec Bc réel et constant :
(A )
−1
λµ
= (E λ − E )δ λµ − ∑ γ λc L0c γ µc
(168)
c
(valeurs propres Eλ et amplitudes de décroissance γλc réelles et constantes, dépendance en énergie de
L0c connue)
Représentation de Kapur-Peierls (exacte)
Avec Bc = Lc :
(A )
−1
λµ
= (ε λ − E )δ λµ
(169)
(valeurs propres ελ et amplitudes de décroissance gλc complexes, dépendances en énergie implicites,
obscures)
71
Approximation de Breit et Wigner simple niveau (SLBW)
Un seul niveau retenu, tous les autres sont négligés :
(A )
−1
λµ
→ E 0 − E − ∑ L0c γ c2 ≡ E 0 + ∆ − E − iΓ/ 2
(170)
c
(décalage de niveau ∆ et largeur totale Γ = ΣcΓc réels, dépendances en énergie explicites, bien
connues)
Approximation de Breit et Wigner multiniveaux (MLBW)
-1
Les éléments non diagonaux de A sont négligés :
(A )
−1
λµ


=  E λ − E − ∑ L0c γ λ2c δ λµ ≡ ( E λ + ∆ λ − E − iΓλ / 2)δ λµ
c


(171)
(décalage de niveau ∆λ et largeur totale Γλ = ΣcΓλc réels, dépendances en énergie explicite, bien
connues)
Approximation de Reich-Moore
Les contributions non diagonales des voies photons, c ∈ γ , sont négligées :
(A )
−1
λµ
= (E λ + ∆ λγ − E − iΓλγ / 2 )δ λµ − ∑ γ λc L0c γ µc
(172)
c∉γ
(décalage de niveau ∆λ réel des voies photon usuellement intégrées dans la valeur réelle et constante
de Eλ, largeur radiative Γγλ = c∈γ Γλc réelle considérée habituellement constante ; autres
∑
dépendances en énergie explicites).
Approximation de Adler-Adler
La dépendance en énergie de L0c est négligée :
(A )
−1
λµ
= ( E λ − E )δ λµ − ∑ γ λc L0c ( E λ )L0c (E µ )γ µc
(173)
c
Parmi ces approximations, celle de Reich-Moore est la plus précise et SLBW la moins. Avec un
choix judicieux des conditions limites des paramètres, les facteurs de décalage ∆λ s’annulent au moins
localement. Aux basses énergies, ceci est réalisé pour des voies neutron avec Bc = −l (voir
tableau 3) comme spécifié plus haut. Le tableau 3 montre également que les pénétrabilités de la
barrière centrifuge Pc = Pl pour les neutrons, et donc pour toutes les largeurs neutroniques,
72
Γλc (E ) ≡ 2 Pl (E )γ λ2c = Γλc ( E λ
) P (E ) (c ≡ {αJls}∈ n) ,
P (E )
l
l
(174)
λ
contiennent au moins un facteur E . Les facteurs additionnels dans les pénétrabilités p, d, … se
comportent aux basses énergies en E, E2,… Il en découle que les niveaux d’onde s dominent à basse
énergie alors que les niveaux d’onde p apparaissent seulement à plus haute énergie, les niveaux
d’onde d à encore plus haute énergie, etc.
Les valeurs absolues dans la définition conventionnelle des largeurs neutroniques (170) rendent
celle-ci applicable non seulement avec les états du noyau composé dont Eλ>0, mais aussi avec les
états sous le seuil (états liés, « négatifs ») dont Eλ<0 alors que, à strictement parler, les pénétrabilités
Pl (E ) de la barrière centrifuge et donc les largeurs s’annulent sous le seuil de la réaction (E<0). Les
largeurs neutroniques données dans les tables et les fichiers informatiques doivent être comprises
comme étant Γ λc E λ . Une autre convention concerne le signe des amplitudes de largeur. Il est
(
)
important dans les cas à plusieurs voies mais cette information est perdue lorsque les largeurs sont
calculées. C’est pourquoi il est coutumier de tabuler les largeurs partielles avec le signe (relatif à
l’amplitude de largeur neutronique) de l’amplitude de la largeur correspondante. D’un point de vue
général, il serait plus approprié (et moins confus) de tabuler les amplitudes de largeur plutôt que les
largeurs partielles – non seulement elles ne dépendent pas de l’énergie, mais encore elles ne
s’annulent pas en dessous du seuil, et enfin le signe ne doit pas être expliqué – mais il est trop tard
pour changer des habitudes fortement ancrées.
Les décalages et pénétrabilités pour les voies photon et fission peuvent d’ordinaire être
considérés constants. Par conséquent, ces décalages disparaissent si nous choisissons Bc = Sc, et les
largeurs de fission et radiatives ne dépendent pas de l’énergie. Regardons maintenant les expressions
des sections efficaces provenant des différentes représentations et approximations.
3.3.1 Expressions de Kapur-Peierls pour les sections efficaces
Pour anticiper l’étude de l’élargissement Doppler, nous écrivons la matrice de collision de
Kapur-Peierls (166) sous la forme
U cc ’ = e
−i ( ϕc + ϕ c ’ )


G λ1c/ 2 Gλ1c/ ’2
(ψ λ + iχ λ ) ,
δ cc ’ − ∑
Gλ / 2
λ


(175)
où les profils de résonance symétriques et asymétriques ou fonctions de forme ψ λ et χ λ sont définis
par
(
)
~
iG λ / 2
G λ2 / 4
E − E λ Gλ / 2
ψ λ + iχ λ ≡
=
+i
,
~ 2
~ 2
E −ελ
E − E λ + G λ2 / 4
E − E λ + Gλ2 / 4
~
les énergies réelles de Kapur-Peierls E λ des résonances et les largeurs Gλ par
(
ε
λ
)
(
~
≡ E λ − iGλ / 2 .
)
(176)
(177)
73
Le profil de résonance symétrique est essentiellement (si on néglige les faibles dépendances en
énergie de λ et de G λ ) une Lorentzienne, et le profil asymétrique est sa dérivée en énergie. Les
expressions des sections efficaces en résultant sont
ε


 
G
σ c = 4πD 2c g c sin 2 ϕ c + Re e − 2iϕc ∑ λc (ψ λ + iχ λ )  ,

λ Gλ

 
( ) (ψ
 G 1 / 2 G1 / 2
∗
σ cc ’ = σ c δ cc ’ − 4πD 2c g c Re ∑ λc λc ’ Wcc ’ ε λ
Gλ
λ
( )
Wcc ’ ε λ ≡ δ cc ’ + i ∑
∗
µ
Gµ1c/ 2 Gµ1c/ ’2
ε −ε
µ
∗
*
λ

+ iχ λ ) ,

.
(178)
(179)
(180)
λ
Les profils de résonance contiennent les variations rapides avec l’énergie, liées aux résonances,
qui sont sensibles à l’élargissement Doppler, alors que les autres quantités varient lentement avec
l’énergie. Nous insistons sur le fait que le formalisme de Kapur-Peierls est formellement exact bien
que les faibles dépendances des paramètres de Kapur-Peierls avec l’énergie ne soient pas connues
explicitement.
3.3.2 Expressions des sections efficaces dans le cadre de SLWB
La matrice de collision pour un seul niveau,


iΓc1 / 2 Γc1’/ 2
,
U cc ’ = e −i (ϕc + ϕc ’ )  δ cc ’ +

+
∆
−
−
Γ
E
E
i
/
2
0


(181)
est unitaire. Les expressions des sections efficaces en découlant sont
Γ


σ c = 4πD 2c g c sin 2 ϕ c + c (ψ cos 2ϕ c + χ sin 2ϕ c ) ,
Γ


σ cc’ = 4πD 2c g c
Γc Γc’
ψ,
Γ2
(c ≠ c’) ,
(182)
(183)
σ cc = σ c − ∑ σ cc ’ ,
(184)
c ’≠ c
avec les profils de résonance donnés par
ψ + iχ ≡
(E − E 0 )Γ / 2
iΓ / 2
Γ2 / 4
=
+i
.
2
2
E − E 0 + iΓ / 2 ( E − E 0 ) + Γ / 4
(E − E 0 )2 + Γ 2 / 4
(185)
La forme primordiale de la résonance, dans les différentes sections efficaces partielles telles que
c’ ≠ c, est principalement symétrique, alors que celle des sections efficaces totales et de diffusion est
74
la somme de trois termes : la section efficace pratiquement constante de diffusion potentielle, un
terme résonnant symétrique et un terme asymétrique venant de l’interférence entre la diffusion
potentielle (sphère dure) et résonnante. Il est facile de déduire des équations (182) et (185) que la
valeur du pic de la section efficace totale,
 Γ

σ c (E + ) = 4πD 2c g c 1 − a cos 2 ϕ c  ,
Γ


(186)
est atteinte à l’énergie
E+ = E0 +
Γ
tan ϕ c ,
2
(187)
tandis que la valeur minimale dans le creux d’interférence est
σ c (E − ) = 4πD 2c g c
Γa
Γ
sin 2 ϕ c = a σ p ,c ,
Γ
Γ
(188)
pour l’énergie
E− = E0 −
Γ
cot ϕ c ,
2
(189)
où Γa ≡ Γ − Γn est la largeur d’absorption et σp,c la section efficace de diffusion potentielle pour la voie
d’entrée c. Ces dernières expressions sont valables si les lentes dépendances en énergie de D 2c , ϕc, Γ et
Γn sont négligeables. Pour une diffusion élastique pure (Γa = 0), la valeur minimale de la section efficace
est zéro, la valeur au pic est égale à la limite unitaire 4πD 2c g c (par rapport à l’équation 153). Le facteur
de spin, c’est-à-dire le spin J des niveaux, peut donc souvent être obtenu en mesurant juste la hauteur de
56
la résonance. Cela marche le mieux pour les noyaux légers ou des matériaux de structure tels que Fe et
d’autres isotopes du fer, du nickel, et du chrome qui sont presque des diffuseurs purs, et pour de larges
résonances « isolées » qui sont virtuellement insensibles à l’élargissement Doppler, aux interférences
multiniveaux et observables avec une bonne résolution expérimentale. La profondeur du minimum dû à
l’interférence, qui est le point le plus important pour les calculs de protection, est essentiellement donné
par le rapport Γa/Γ multiplié par la section efficace de diffusion potentielle. Aux basses énergies, les
réactions d’onde s dominent, la section efficace de diffusion potentielle est pratiquement constante alors
que les sections efficaces de capture et de fission ont un comportement en 1/v. Ce comportement à basse
énergie est vrai de manière assez générale et pas uniquement dans l’approximation SLBW.
Du fait de la lente variation des sinus et cosinus en fonction de l’énergie, les résonances de la
section efficace totale ne se ressemblent pas quelle que soit l’énergie : à basse énergie, elles ont la
forme représentée sur la figure 11, avec le minimum (« fenêtre ») dû au terme d’interférence du côté
des basses énergies des résonances. Cette forme est caractéristique du domaine résolu. À plus haute
énergie, le terme symétrique devient de moins en moins important jusqu’à ce que le terme
asymétrique domine. À des énergies encore supérieures, lorsque ϕc ≈ π, les résonances apparaissent
comme des creux plutôt que comme des pics (un exemple bien connu est celui de la résonance de
16
O+n à 2.35 MeV) et éventuellement les fenêtres dues à l’interférence réapparaissent du côté des
hautes énergies des résonances.
75
Figure 11
En pratique, on doit cependant décrire les sections efficaces par de nombreuses résonances. On
peut simplement additionner les termes résonnants SLBW (et additionner la diffusion potentielle pour
σc et σcc). C’est la définition SLBW du format ENDF (cf. Rose et Dunford 1990) qui est utilisée au
niveau mondial pour les librairies, à but applicatif et consultable informatiquement, de données
neutroniques évaluées. Puisque ce principe ad hoc n’est pas issu d’une matrice de collision unitaire, la
contrainte unitaire 0 < σ c < 4πD 2c g c n’est pas garantie. En fait, cette approximation SLBW « à
plusieurs niveaux » est réputée pour l’apparition de sections efficaces totale et de diffusion négatives,
n’ayant aucun sens physique. La raison est simple à comprendre : à basse énergie, les contributions
négatives ne peuvent venir que des profils asymétriques des résonances d’énergie supérieure. En
moyenne, elles sont compensées par les contributions des résonances d’énergie inférieure, mais si les
résonances d’énergie supérieure sont inhabituellement grandes ou celles d’énergie inférieure
inhabituellement faibles, les sections efficaces de diffusion peuvent devenir négatives dans les
minima provenant de l’interférence. L’effet opposé est moins notable mais tout aussi mauvais : les
pics de section efficace dans l’approximation SLBW peuvent dépasser la limite unitaire si les
résonances au dessus sont faibles ou celles en dessous sont fortes.
3.3.3 Expressions des sections efficaces dans le cadre de MLWB
L’approximation MLWB est meilleure que l’approximation SLBW à plusieurs niveaux. La
matrice de collision issue de l’équation (171),
76
U cc ’ = e
−i ( ϕc + ϕ c ’ )


Γλ1c/ 2 Γλ1c/ ’2
,
 δ cc ’ + i ∑


E
E
i
/
2
+
∆
−
−
Γ
λ
λ
λ
λ


(190)
implique une simple somme sur les résonances à l’instar de la matrice de collision de Kapur-Peierls. Il
en découle que nous pouvons prendre les expressions de Kapur-Peierls en effectuant les
1/ 2
remplacements E ’λ → E λ + ∆ λ , G λ → Γλ = c Γλc , G 1/2
λc → Γλc , d’où
∑


Γ
σ c = 4πD 2c g c sin 2 ϕ c + ∑ λc (ψ λ cos 2ϕ c + χ λ sin 2ϕ c ) ,
c Γλ


( ) (ψ
 Γ1 / 2 Γ1 / 2
∗
σ cc ’ = σ c δ cc ’ − 4πD 2c g c Re ∑ λc λc ’ Wcc ’ ε λ
Γλ
λ
( )
Wcc ’ ε λ = δ cc ’ + i ∑
∗
µ
Γµ1c/ 2 Γµ1c/ ’2
Eµ − Eλ
− i (Γ
µ
+ Γ )/ 2
.
*
λ

+ iχ λ ) ,

(191)
(192)
(193)
λ
Puisque les sections efficaces partielles (192) sont issues de la matrice de collision sous forme de
carrés absolus (voir équation 152), elles sont garanties d’être positives, et ce sont à nouveau des
fonctions linéaires des profils de ligne ψ λ et χ λ définis exactement comme dans le cas du SLBW,
d’après l’équation (185). Nous reconnaissons ensuite que σc, équation (191), n’est autre que
l’approximation SLBW « à plusieurs niveaux ». Comme la matrice de collision du MLWB n’est pas
unitaire, σc n’est toutefois pas la somme des sections efficaces partielles, d’après l’équation (192).
L’approximation MLWB, telle que définie dans le format ENDF (cf. Rose et Dunford 1990) est même
plus grossière, c’est en fait un hybride SLBW/MLBW : seule la diffusion élastique est réellement
calculée dans l’approximation MLBW. Toutes les autres sections efficaces partielles sont calculées
dans l’approximation SLBW (à plusieurs niveaux), et la section efficace totale comme somme de
toutes les partielles. Cela évite que les sections efficaces deviennent négatives mais n’exclut
nullement des pics de sections efficaces sans signification physique ni des minima, dus aux
interférences, mal décrits pour des niveaux se recouvrant fortement. Pour des noyaux légers et
intermédiaires et pour les actinides fissiles, l’approximation MLBW est de ce fait souvent inadéquate,
alors qu’elle marche assez bien pour des noyaux composés avec des niveaux largement espacés et très
232
238
étroits tels que Th+n ou U+n.
Notons que le calcul des sections efficaces dans le cadre de MLBW, d’après les équations (192)
et (193), implique des doubles sommes sur les niveaux. Même avec les ordinateurs modernes, cela
peut prendre du temps si des centaines de niveaux doivent être considérés, ce qui n’est pas si rare avec
les fichiers d’évaluation modernes. Il est donc préférable de calculer les sections efficaces partielles
directement à partir de la matrice de collision (c’est-à-dire des équations (152) et (190)) qui
n’implique qu’une seule sommation sur les niveaux. Toutefois, pour l’élargissement Doppler, la
représentation (192), (193) en fonction des profils de forme a des avantages ainsi que nous le verrons
plus loin.
77
3.3.4 Expressions de Reich-Moore des sections efficaces
Très souvent, un grand nombre de voies photon contribue à la somme
∑
c
γ λc L0c γ µc intervenant
dans la matrice inverse des niveaux A-1, cf. équation (160). Tandis que leurs contributions
s’additionnent toutes avec le même signe dans les éléments diagonaux, elles tendent à s’annuler dans
les éléments non diagonaux car si les amplitudes de décroissance ont un signe pratiquement aléatoire,
elles ont des amplitudes comparables. C’est pourquoi l’erreur est assez faible si l’on néglige purement
et simplement les contributions de toutes les voies photon dans les éléments non diagonaux, comme
cela fut indépendamment proposé par Thomas (1955) et par Reich et Moore (1958). La matrice
inverse des niveaux ainsi obtenue, l’équation (172), correspond évidemment à un problème aux
valeurs propres où Eλ est remplacé par Eλ-iΓλγ/2, avec une matrice R « réduite »
Rcc ’ = ∑
λ
γ λc γ λc ’
,
E λ − E − iΓλγ / 2
(c, c’∉ γ ) ,
(194)
réduite dans le sens où elle est seulement définie dans un sous-espace de voies sans photon. Les seules
traces des voies photons éliminées sont les largeurs radiatives totales, Γλγ, dans les dénominateurs.
Une fonction R complexe semblable est rencontrée dans le traitement par la matrice-R du modèle
optique (voir Fröhner 1996) qui suggère de considérer la partie imaginaire des dénominateurs de la
matrice-R réduite et la partie imaginaire du potentiel complexe comme des conséquences différentes
du même phénomène : l’absorption dans les états du noyau composé et la décroissance associée dans
les voies exclues.
De la matrice-R réduite, on obtient une matrice de collision réduite et, de là, comme d’habitude,
les sections efficaces pour toutes les voies non photoniques retenues grâce aux équations (152) et
(153). La matrice-R réduite est de rang faible, et donc l’inversion de 1-RL0 est aisée. En fait, le plus
haut rang employé dans l’analyse des résonances neutroniques est jusqu’à présent de 3 (1 voie
élastique, 2 de fission). Les cas de rang 2 impliquent 1 voie élastique plus 1 de fission ou
1 inélastique. Pour l’écrasante majorité des données de résonance neutronique, les seuls processus
autorisés d’un point de vue énergétique sont la diffusion élastique et la capture radiative, pour
lesquels des expressions de Reich-Moore à une voie, avec les fonctions-R plutôt que les matrices-R,
56
sont suffisantes. (L’ajustement des données de la section efficace totale de Fe, avec l’approximation
de Reich-Moore à une voie, représenté sur la Figure 10 en est un exemple.) La section efficace de
capture peut être obtenue à partir de
[(
)
−1
]
2
Pc1 / 2 1 − RL0 Pc−’1 / 2 Γλ1c/ ’2
,
σ cγ = πD g c ∑ Γλγ ∑
E λ − E − iΓλγ / 2
λ
c ’∉γ
2
c
(195)
(cf. Reich et Moore 1958). Nous insistons sur le fait que cette approximation est exacte dans la limite
de l’annulation des largeurs radiatives (plus généralement : l’annulation des largeurs pour les voies
éliminées) où elle se réduit au formalisme général de Wigner-Eisenbud. Elle est également exacte
pour un seul niveau puisque, dans ce cas, la matrice des niveaux A de Reich-Moore se ramène à la
matrice des niveaux correspondante dans SLBW. Par ailleurs, s’il est également vrai que la matrice de
collision réduite ne peut être unitaire – du fait des transitions entre les voies exclues – la matrice de
collision globale peut toujours être considérée unitaire, c’est-à-dire qu’elle conserve le flux des
probabilités, si bien que la section efficace de capture peut également être obtenue par la différence
78
σ cγ = σ c − ∑ σ cc ’ ,
(196)
c ’∉γ
avec σc calculée à partir des éléments de la matrice de collision réduite Ucc d’après l’équation (153).
L’expérience a montré qu’avec cette approximation toutes les sections efficaces expérimentales dans
le domaine des résonances pouvaient être décrites en détail, dans les fenêtres aussi bien qu’au niveau
des pics, y compris les exemples d’interférences multiples entre les niveaux les plus étranges (voir
figure 10). Elle marche tout aussi bien pour les noyaux légers, intermédiaires ou lourds, fissiles ou
non. On croit souvent que l’approximation de Reich-Moore ne peut s’appliquer qu’aux noyaux
fissiles, mais les voies conservées peuvent réellement être de tout type-voie élastique, inélastique, de
fission, même des voies photon individuelles comme celles pour les transitions vers l’état
fondamental ou des états métastables spécifiques. De plus, les programmes informatiques écrits pour
le formalisme de Reich-Moore peuvent être utilisés pour les calculs de la matrice-R de
Wigner-Eisenbud – on doit simplement mettre toutes les largeurs radiatives (largeurs de voies
éliminées) égale à 0.
On pourrait s’attendre à ce qu’avec tous ces avantages le formalisme de Reich-Moore soit le plus
largement utilisé, mais ce n’est pas vrai. La raison principale est que les sections efficaces de
Reich-Moore ne peuvent pas s’exprimer en tant que somme de profils de résonance de Breit-Wigner,
tout au moins pas sans travail de préparation. C’est souvent considéré comme un désavantage pour les
calculs d’élargissement Doppler. Nous verrons plus loin, toutefois, que ce n’est pas un problème aussi
sérieux que certains le croient. Pour les spécialistes de l’analyse des résonances, la question de la
supériorité de l’approximation de Reich-Moore sur les autres variantes simple ou multi-niveaux de la
théorie de la matrice-R ne se pose pas.
3.3.5 Expressions d’Adler-Adler des sections efficaces
-1
L’approximation (173) pour la matrice A est une généralisation de l’expression pour les ondes s
utilisée par Adler-Adler (1970), une généralisation qui préserve la symétrie par rapport aux indices de
niveau λ et µ. La diagonalisation de la matrice des niveaux A donne une matrice de collision de la
forme de Kapur-Peierls, équations (172) et (173), mais avec des paramètres ελ et gλc qui ne dépendent
pas de l’énergie, contrairement aux authentiques paramètres de Kapur-Peierls. Les expressions des
sections efficaces correspondantes sont souvent exprimées non pas en fonction de voies particulières
(c, c’, …), mais pour des types de réaction spécifique (x = f, γ,…, totale), en se limitant à l = 0 :
1 ( )
(G ψ
∑
ν
E
σ ≡ ∑ σc = σ p +
1
σ x ≡ ∑ ∑ σ cc ’ =
1
c∈n
c∈n c ’∈x
λ
T
λ
− H λ(T ) χ λ ,
λ
− H λ( x ) χ λ ,
λ
1 ()
(G ψ
∑
ν
E
λ
)
λ
λ
x
)
λ
(197)
(x = γ, f, …)
(
où σp est la section efficace de diffusion potentielle, G λ( x ) / ν λ E
(198)
) et
(
H λ( x ) / ν λ E
)
sont les
sommes sur tous les coefficients de ψλ et χλ dans les équations (178) à (180), avec νλ ≡ Γλ/2 et E
provenant de Pc(E). Les sommes sur λ se font sur les niveaux sans se soucier de la valeur de JΠ, avec
les facteurs de spin inclus dans les coefficients G λ( x ) et H λ( x ) . Ces coefficients, ainsi que les énergies
des niveaux µ λ ≡ E ’λ , les (demi-) largeurs νλ et les sections efficaces de diffusion potentielle σp
79
(ou un rayon effectif) sont les paramètres de Adler-Adler. En principe, on pourrait même les définir
pour des mélanges isotopiques, en intégrant d’une façon similaire les abondances dans les
coefficients. L’approximation (173) signifie principalement que la dépendance énergétique des
décalages de niveaux et des largeurs totales sont négligées dans les dénominateurs des résonances.
C’est pourquoi, l’approximation de Adler-Adler marche bien pour les noyaux fissiles, pour lesquels
Γλ ≈ Γλγ + Γλf mais pas aussi bien pour les noyaux légers ou intermédiaires, pour lesquels
Γλ ≈ Γλn = 2 Pc ( E )γ λ2n .
3.3.6 Conversion des paramètres de Wigner-Eisenbud en paramètres de Kapur-Peierls
Les paramètres de Wigner-Eisenbud peuvent être convertis en paramètres de Kapur-Peierls de la
manière suivante (Fröhner 1980). La matrice de collision doit être invariante par changement des
~
paramètres aux limites, par exemple de Bc = −l à Bc = L0c . (Nous allons utiliser la notation tilde
~
pour les quantités de Kapur-Peierls). L’équation (155) montre que cela implique que (1-RL0)-1R = R ,
ce qui, avec les abréviations
~
~
K ≡ L01/2 RL01/2
K ≡ L01/2 RL01/2 ,
(199)
donne
(1 - K )−1 = 1 + K~ .
(200)
Les énergies de Kapur-Peierls des résonances
solutions de
ε
~
λ
sont les pôles complexes de K , c’est à dire les
det[1 - K (ε λ )] = 0
(201)
car A-1 = C[A]/det(A) pour toute matrice non singulière A, où nous utilisons la notation det(A) pour le
déterminant et C[A] pour la matrice des cofacteurs. Les résidus sont obtenus à partir de l’équation
(200). En passant à la limite E →
ε
λ
g λc g λc ’ =
~
]
ε ) du
λ
ε )]} / det[1 - K (ε )] , où le développement de Taylor
det[1 - K ( E )] ≈ (E − ε ) tr{C[1 - K (ε )]K’ (ε )}. Les résidus au pôle ε
côté droit, alors qu’à gauche on a {C[1 - K (
du déterminant donne
sont donc
[
/2
/2
, on obtient 1 + K (E ) cc ’ ≈ L01
g λc g λc ’L01
/ (E −
c
c’
λ
λ
cc ’
λ
λ
{C[1 - K (ε λ )]}cc ’
,
L0c (ε λ )L0c ’ (ε λ ) tr{C[1 - K (ε λ )]K’ (ε λ )}
1
λ
λ
(202)
où tr réfère à la trace et K’ est la dérivée de K,
K ’cc ’ (E ) =
γ µc γ µc ’
∂ 01 / 2
/2
Lc Rcc ’L01
≈ L0c ( E )L0c ’ (E ) ∑
.
c’
2
∂E
µ (E µ − E )
(203)
Nous savons donc calculer les résidus pour des pôles donnés, mais comment trouver les pôles
correspondant à des paramètres de Wigner-Eisenbud donnés, c’est-à-dire comment pouvons nous
résoudre l’équation (201) dont la simplicité apparente est trompeuse ? Fort heureusement, nous
connaissons déjà l’approximation MLBW λ ≈ E λ + ∆ λ − iΓλ / 2 , voir l’équation (190). Nous
ε
80
devons la considérer comme une proposition initiale à améliorer par itération. Pour trouver un schéma
d’itération, nous écrivons le déterminant (201) sous la forme
det (1 - K ) = 1 − tr K + F (K ) ,
(204)
où-tr K + F(K) est la somme de det(-K) et de tous ces principaux mineurs (voir par exemple Korn et
Korn 1968), en particulier
F=0
F = det(-K)
F = det(-K) + tr C[-K]
pour 1 voie (élastique),
pour 2 voies,
pour 3 voies.
Ensuite, nous extrayons le λ-ème terme de tr K,
tr K (ε λ ) = ∑
µ
1
Eµ − ε λ
∑L γ
0 2
c µc
c
=
∆ − iΓµ / 2
∆ λ − iΓλ / 2
+∑ µ
,
Eλ − ε λ
Eµ − ε µ
µ ≠λ
(205)
qui, avec l’aide de l’équation (204) nous permet de réécrire l’équation (201) sous la forme
ε
λ
= Eλ +
∆ λ − iΓλ / 2
.
∆ µ − iΓµ / 2
1+ ∑
+ F (ε λ )
Eµ − ε µ
µ≠λ
(206)
Cette équation est pratique pour l’itération : en insérant l’approximation initiale MLBW dans le
membre de droite, on obtient une valeur améliorée qui peut être réinsérée à droite, et ainsi de suite.
Après quelques itérations, le résultat devient stable avec une précision raisonnable et peut être inséré
dans l’équation (202) afin de donner les résidus. Une fois que tous les paramètres de Kapur-Peierls
λ et gλc gλc’ sont connus, on peut les insérer dans les expressions de Kapur-Peierls des sections
efficaces faisant intervenir les profils des résonances.
ε
La conversion des paramètres de Reich-Moore en paramètres de Kapur-Peierls fonctionne de la
même manière, le seul changement étant que Eµ doit être remplacé partout par Eµ–iΓµγ/2, et Γµ par
Γµ - Γµγ. La Figure 12 montre des sections efficaces calculées directement à partir des paramètres de
Reich-Moore et à partir des paramètres de Kapur-Peierls après conversion. La conversion des
Paramètres de Wigner-Eisenbud en ceux de Adler-Adler par inversion de matrice est possible, avec le
code POLLA, par exemple (de Saussure et Perez 1969).
81
Figure 12. Vérification de la technique de conversion des paramètres expliquée
dans la sous-partie 3.3.6 : les sections efficaces de Reich-Moore à 3 voies (croix)
sont en accord avec les sections efficaces de Kapur-Peierls calculées à partir des
paramètres de résonances convertis (ligne continue). (D’après Fröhner 1978)
3.4 Niveaux externes
La théorie de la matrice-R montre que, dans un intervalle d’énergie limité, les sections efficaces
ne dépendent pas seulement des niveaux « internes » de cet intervalle mais également des niveaux
« externes » situés avant et après cet intervalle. Des problèmes surviennent dans l’ajustement des
résonances et le travail de paramétrisation car sous le seuil de séparation du neutron ou du proton
(E<0), les niveaux du noyau composé ne sont pas observables et par conséquent inconnus. Au-delà de
l’intervalle analysé, les résonances peuvent encore être observables, mais elles sont de moins en
moins bien résolues lorsque l’énergie augmente, car la résolution expérimentale se détériore tandis
que la densité de niveaux et la largeur des résonances augmentent – tout ceci faisant que la distinction
entre des résonances simple et des multiplets non identifiés devient progressivement plus difficile
voire impossible. Si les niveaux externes sont omis, on ne peut ajuster les données expérimentales de
manière satisfaisante. En particulier, pour les sections efficaces de diffusion et totales, on observera
des effets de bord assez gênants et des problèmes au niveau de la section efficace de diffusion
potentielle entre les résonances. Différentes méthodes ad hoc ont été développées par le passé afin de
venir à bout des niveaux externes inconnus, allant de simulations à l’aide du « modèle de haie » ou de
séquences (« échelles ») de résonances fictives échantillonnées par Monte Carlo en répétant
périodiquement les niveaux internes avant et après l’intervalle de ces niveaux. Les parties suivantes
présentent des méthodes plus fondées, testées avec succès et plus pratiques qui existent depuis
plusieurs décennies mais ne sont pas aussi largement utilisées qu’elles le mériteraient.
82
3.4.1 Représentation statistique des niveaux externes
Les librairies modernes de données nucléaires évaluées contiennent des paramètres pour des
centaines de résonances par isotope. Des nombres aussi grands suggèrent de traiter statistiquement les
niveaux plus éloignés si une section efficace doit être calculée à une énergie donnée. De plus, il y a
toujours des nombres gigantesques de niveaux inconnus de part et d’autre du domaine des résonances
résolues contribuant de manière notable à la matrice-R, en particulier à proximité des limites de ce
domaine. Afin d’inclure ces niveaux au moins statistiquement, nous divisons la matrice-R
(de Reich-Moore) pour une séquence de niveaux donnée (une valeur de JΠ) en une somme sur les
niveaux inconnus (« éloignés » ou « externes ») et en une autre sur les niveaux connus (« locaux » ou
« internes »),
Λ
Rcc ’ = Rcc0 ’ + ∑
λ =1
γ λc γ λc ’
,
E λ − E − iΓλγ / 2
(207)
et nous remplaçons les sommes sur les termes des niveaux éloignés par des intégrales,
Λ
γ λc γ λc ’


Rcc0 ’ =  Σ − Σ 
 λ λ =1  E λ − E − iΓλγ / 2
(208)
E ’− E − i Γγ / 2
E +I / 2
∞
 dE ’ γ γ
≈  ∫ − ∫
,

c c’
 − ∞ E − I / 2  Dc
(E ’− E )2 + Γγ2 / 4
où E et I sont la valeur centrale et la longueur de l’intervalle contenant les niveaux locaux,
1/Dc = 1/Dj est la densité des niveaux de spin J (et de parité donnée) qui est nécessaire pour
l’approximation des sommes par des intégrales et Γγ est la largeur radiative moyenne. En particulier
pour les noyaux lourds, la largeur radiative, somme de très nombreuses largeurs radiatives partielles,
varie peu d’un niveau à l’autre, si bien que Γλγ ≈ Γγ . Puisque ( E ’−E ) >> Γγ2 / 4 , nous pouvons
2
négliger Γγ2 / 4 pour les niveaux éloignés dans la dernière expression. De plus, nous pouvons
négliger les éléments non diagonaux de la matrice des moyennes
γ c γ c’
du fait du signe
pratiquement aléatoire des γλc. En utilisant la définition usuelle de l’intensité de pôle sc et de sa
transformée de Hilbert, le paramètre des niveaux éloignés Rc∞ ,
sc ≡
où C
∫
+∞
−∞
γ c2
Dc
,
(209)
+∞
s (E ’)
Rc∞ ( E ) ≡  C ∫ dE ’ c
,
−
∞


E ’− E
(210)
indique une intégrale en valeur principale (de Cauchy), et en négligeant la (faible) variation
de l’énergie de ces deux quantités dans l’intervalle interne, nous trouvons avec l’approximation de
Reich-Moore


i Γγ I / 4
E−E
Rcc0 ’ (E ) =  Rc∞ + 2 s c  ar tanh
+ 2

I /2
I /4− E − E2


(
)

δ cc ’ .


(211)
La fonction cyclométrique ou fonction d’aire ar tanh x = (1/2) ln[(1+x)/(1-x)] (où ar signifie aire et
non arc) est l’inverse de la tangente hyperbolique, également écrite de façon quelque peu abusive,
83
-1
tanh x ou arc tanh x. La contribution analogue des niveaux éloignés à la matrice-R générale de
Wigner-Eisenbud est obtenue en mettant simplement partout Γλγ = 0 et Γγ = 0 :

E−E
Rcc0 ’ (E ) =  Rc∞ + 2s c ar tanh
δ cc ’ .
I / 2 

(212)
Si l’intensité de pôle n’est pas considérée constante dans l’intervalle interne mais comme variant
linéairement, la seule modification est que sc doit être interprétée comme sc( E ) et qu’un terme
additionnel − s ’c E I apparaît, qui peut toutefois être incorporé dans Rc∞ . L’expérience a montré
qu’il est d’ordinaire assez acceptable dans les ajustements de ne laisser varier que deux constantes,
Rc∞ et sc.
( )
L’intensité de pôle sc est reliée à la fonction densité S l , couramment employée dans les études
appliquées des résonances neutroniques, par
1 eV
.
E
S l ≡ 2k c a c s c
(213)
Cela vient de la définition (historique) des largeurs neutroniques réduites comme étant les
largeurs neutroniques à l’énergie de référence arbitraire de E r = 1 eV . Pour des résonances d’onde s,
on a Γn0 = 2 P0 ( E r )γ 2n . La même convention fut utilisée par la suite également pour les résonances
d’onde p, d, …, de sorte que les largeurs neutroniques réduites pour une seule voie c = {nJls} sont
définies assez généralement comme étant Γnc = 2 P0 (E r )γ c2 . En moyennant et divisant par
l’espacement moyen de niveaux Dc, on obtient avec P0 (E r ) = k c a c 1 eV / E la fonction densité
S c = 2 P0 (E r )s c qui est le membre de droite de l’équation (213). Le modèle optique suggère, et les
expériences le confirment, que l’on puisse prendre sc = sl , donc S c = S l que nous utilisons dans le
membre de gauche.
Le paramètre des niveaux éloignés Rc∞ (E ) est essentiellement la différence entre les
contributions à la matrice-R provenant des résonances d’énergie inférieure et supérieure à E. Il est
négatif si les niveaux d’énergie inférieure (y compris les niveaux liés) ont une force plus élevées que
les niveaux d’énergie supérieure et positif dans le cas contraire. Autour de E, l’intégrand est
pratiquement une fonction impaire de E’-E, si bien que les contributions des niveaux proches tendent
à s’annuler. Par conséquent, la plupart des niveaux éloignés contribuent, d’où l’appellation, et les
valeurs typiques sont faibles, Rc∞ << 1 . Dans les études appliquées des résonances neutroniques, le
rayon nucléaire effectif,
(
R ’c = a c 1 − Rc∞
)
(pour des voies d’ondes s),
(214)
est souvent utilisé à la place du paramètre des niveaux éloignés. La raison est qu’à basse énergie, la
section efficace de diffusion potentielle apparaît modifiée par une contribution régulière des niveaux
éloignés avec comme résultat
(
σ cpot → 4πa c2 1 − R c∞
)
2
= 4πR ’2
pour k c → 0 .
84
(215)
Il fut conclu que les phases de sphère dure devaient être calculées comme des fonctions de k c R ’c
plutôt que de k c a c mais ceci est faux, ne résistant pas à la première utilisation un tant soit peu
rigoureuse et corrompant les formats ENDF. Le rayon effectif n’est bien défini et applicable que dans
la cas limite des basses énergies et uniquement pour les ondes s. Pour des calculs précis de la section
efficace totale et de diffusion au delà de l’énergie thermique, il faut utiliser le paramètre des niveaux
éloignés comme le concept le plus fondamental et le plus valable d’un point de vue général. Il modifie
la matrice-R et non le déphasage de sphère dure.
Nous concluons que les paramètres initiaux issus des calculs du modèle optique, par exemple à
partir des graphes de fonctions densité d’ondes s ou p et des rayons nucléaires effectifs donnés dans le
« BNL-325 » (Mughabghab et al. 1981, 1984), peuvent être utilisés pour estimer la contribution des
niveaux éloignés. Si on néglige cet aspect, on obtient des effets de bords anormaux à proximités des
bornes de l’intervalle interne (avec les résonances données explicitement).
3.4.2 Représentations des termes de bord par deux larges résonances
La représentation statistique des niveaux externes est assez commode pour paramétriser les
sections efficaces, mais une représentation encore plus simple est obtenue en faisant l’approximation
que les termes de « bord » dépendant de l’énergie (fonction d’aire) dans les équations 211 et 212
peuvent être décrits par les queues de deux résonances très larges de force égale, située
symétriquement de part et d’autre de l’intervalle interne,

Γγ
E−E

2 s c ar tanh
+i
I /2
I

  E − E 2 
 
1 − 
  I / 2  
−1

γ 2n
γ 2n

≈
+
.

−
−
Γ
/
2
−
−
Γ
/
2
E
E
i
E
E
i
−
γ
+
γ

(216)
Nous voulons fixer les paramètres E + − E = E − E − , γ 2n , et Γγ de manière à ce que le membre
de droite deviennent semblable au membre de gauche. Un degrés de similarité suffisant est atteint, par
exemple, si les deux membres ont des valeurs, des pentes (première dérivée) et des courbures
(deuxièmes dérivées) égales à l’énergie centrale E . Les trois équations obtenues pour les trois
inconnues peuvent être résolues rigoureusement. La solution peut ensuite être simplifiée en
considérant Γγ << I , ce qui donne les approximations finales
E± ≈ E ±
Γn ± ≈
3
I,
2
(217)
E±
3
IS l
,
2
1 eV
(218)
Γγ ≈ Γγ .
(219)
Leur insertion dans le membre de droite de l’équation (216) révèle qu’elles sont équivalentes aux
(
) (
)(
)
approximations ar tan x ≈ 3 x / (3 − x ) et 1 / 1 − x 2 ≈ 3 3 + x 2 / 3 − x 2 . La figure 13 montre que
les différences entre les fonctions originales et leur approximations sont faibles sur pratiquement tout
2
85
2
l’intervalle. À proximité des bornes, elles deviennent plus importantes, mais puisque les
approximations restent finies, contrairement aux fonctions originales, ce n’est pas nécessairement
mauvais pour nos études. L’expérience a montré que la représentation des niveaux externes par un
paramètre de niveaux éloignés constant ainsi que par deux niveaux externes très larges placés
symétriquement est acceptable pour les effets de bord dépendant de l’énergie et est une entrée adaptée
à l’ajustement de résonance, aisément ajustable elle même (si nécessaire) avec les résonances
internes. Dans le format ENDF actuel, il est trivial d’ajouter deux résonances supplémentaires, mais il
n’y pas de place prévue pour le paramètre des niveaux éloignés. Il est par conséquent préférable de
mettre sa valeur à zéro dans les ajustements de résonance orientés ENDF (ce qui signifie que
R’c = a c à basse énergie, voir équation 214) et d’ajuster les deux grands niveaux indépendamment
l’un de l’autre (en même temps que les résonances internes). Ainsi, l’un d’entre eux peut devenir plus
fort que l’autre, ce qui produit le déséquilibre initialement décrit par le paramètre des niveaux
éloignés. La figure 14 montre à quel point cette méthode fonctionne pour un ajustement récent de
52
données de transmission de Cr.
Afin d’améliorer la rapidité du calcul des sections efficaces ponctuelles lorsqu’un très grand
nombre de résonances est explicitement donné, on peut ne retenir que celles situées dans un intervalle
limité autour de l’énergie considérée et laisser les autres être décrites sommairement par la partie des
niveaux externes (211) de la matrice-R. L’introduction explicite de quelque chose comme
50 résonances en dessous et au dessus de l’énergie d’intérêt ( I ≈ 100 Dc ) est suffisant dans la plupart
des cas.
86
Figure 13. Comparaison des fonctions décrivant les effets de bord. Lignes continues : niveaux
externes moyennés statistiquement (membre de gauche de l’équation 216) ; en tirets :
approximation par deux grandes résonances fictives (membre de droite de l’équation 216)
87
Figure 14. Données de transmission provenant de ORNL (Harvey 1995) ajustées par O.
Bouland (1999) en utilisant le code SAMMY (Larson et Perey 1980). La prise en compte des
niveaux externes par deux larges résonances fictives (avec Rc∞ = 0 ) semble suffisante pour une
description correcte de la section efficace sur toute la longueur de l’intervalle interne jusqu’à
la borne inférieure (et en fait également jusqu’à la borne supérieure), 45-1 400 keV
3.4.3 Niveaux liés étroits pour imposer les sections efficaces thermiques prescrites pour les
niveaux liés
La simulation des niveaux externes par le paramètre de niveaux éloignés ainsi que par le terme
statistique de niveaux (fonction d’aire) pour les bords dans les équations (211) et (212) ou une paire
fictive de larges résonances dont les paramètres sont donnés par les équations 217 à 219 est
d’ordinaire insuffisante pour répondre, avec les niveaux internes connus, de la section efficace
thermique qui, pour la plupart des noyaux, est connue avec une grande précision. Les sections
efficaces thermiques données peuvent néanmoins être parfaitement reproduite en ajoutant juste un
niveau fictif supplémentaire (Fröhner 1978, 1981).
Considérons un noyau non fissile ( σ c = σ cc + σ cγ , Γ = Γn + Γγ ) pour lequel les paramètres de
toutes les résonances internes sont donnés, ainsi que l’approximation statistique des niveaux Rcc0 pour
la partie externe de la matrice-R. Ces paramètres, habituellement déterminés en ajustant les
résonances internes sur les données, ne reproduiront pas exactement les sections efficaces thermiques,
mais nous pouvons obtenir un excellent accord en ajoutant un niveau lié (négatif) ayant des
paramètres appropriés. Aux énergies thermiques, seules les ondes s doivent être considérées, toutes
88
les autres résonances étant négligeables du fait des faibles facteurs de pénétrabilité Pl de la barrière
centrifuge. En effectuant le choix naturel B0 = 0 , on a L0c = iϕ c = ik c a c , si bien que la fonction de
collision de Reich-Moore pour chaque voie d’onde s (une pour une cible de spin nul, deux pour une
cible de spin non nul) est
U cc = e − 2ikc ac
Γλn / 2
λ E λ − E − iΓλγ / 2
Γλn / 2
1 − i∑
λ E λ − E − iΓλγ / 2
1 + i∑
(c ∈ n) .
(220)
La somme se fait sur tous les niveaux d’onde s, aussi bien internes qu’externes, dont le spin et la
parité est sous-entendue par c. Nous divisons maintenant la somme en trois parties à savoir la partie
des niveaux internes ( λ = 1,2,...Λ ), la partie des niveaux externes Rcc0 calculée soit à partir de
l’équation (211) soit à l’aide de deux résonances larges, d’après les équations (217) à (219), et enfin
la partie du niveau lié supplémentaire ( λ = 0 ). Nous obtenons pour la troisième partie ( λ = 0 )
∆ cc
Λ
iΓn / 2
iΓλn / 2
U cc − e −2ikc ac
0
≡
= −∑
− ik c a c Rcc +
.
E 0 − E − iΓγ / 2
U cc + e − 2ik c ac
λ =1 E λ − E − iΓλγ / 2
(221)
Le membre de droite, identifié par ∆ cc , peut être calculé à partir des paramètres des résonances
connues et des sections efficaces thermiques prescrites avec
U cc

σc
= 1 −
2πD 2c g c


 σc
σ cc
±i

−
2

πD c g c  2πD 2c g c

2

 ,


(222)
d’après les équations basiques (152) et (153). En séparant les parties réelles et imaginaires de
l’équation (221) on obtient
Re ∆ cc =
Im ∆ cc =
− Γn Γγ / 4
(E − E 0 )2 + Γγ2 / 4
− ( E − E0 ) Γn 2
(E − E 0 )2 + Γγ2 / 4
< 0,
(223)
< 0 , pour E0 < 0,
(224)
et finalement
E0 = E −
Im ∆ cc Γγ
,
Re ∆ cc 2
(225)
∆ cc Γγ
Γn
=−
.
2
Re ∆ cc 2
2
(226)
89
Avec seulement deux équations pour trois inconnues E0, Γn et Γγ, nous pouvons choisir l’une
d’elle arbitrairement. La faible variation des largeurs radiatives d’une résonance à une autre suggère
d’appliquer à Γγ la valeur de la largeur radiative moyenne des niveaux internes,
Γγ = Γγ ,
(227)
mais la reproduction exacte des sections efficaces dans le domaine thermique est également assurée
avec d’autres choix. L’ambiguïté sur le signe dans l’équation (122) vient du fait que les sections
2
efficaces dépendent uniquement de Re U cc et de U cc . D’ordinaire, le signe plus peut être écarté
immédiatement car il conduit à E 0 > 0 qui est contraire à l’hypothèse d’un niveau lié.
Pour des noyaux fissiles par neutrons thermiques, on trouve que les équations (225) et (226),
quoique n’étant plus rigoureuses, sont des approximations correctes au moins dans le cas où il n’y a
pas de résonance très proche du domaine thermique, de sorte que σ c << 4πD 2c g c . Il y a maintenant
une équation supplémentaire pour la largeur de fission,
Γf
2
=−
∆ cf
2
Γγ
Re ∆ cc 2
,
(228)
avec
∆ cf
2
≡
σ cf
Γλn Γnf / 4
Λ
−∑
πD 2c g c
λ =1
(E − E λ )2 + Γλ2 / 4
− S0
E Γ f   E − E 

1 − 
1 eV I   I / 2 
−1
,
(229)
où σcf est la section efficace thermique de fission pour la voie d’entrée c.
Pour un noyau cible de spin non nul, si les spins des résonances sont inconnus et que seul gΓn
est connu pour les niveaux non liés, mais ni g ni Γn séparément, on obtient les équations
E0 = E −
Im ∆ nn gΓγ
,
Re ∆ nn 2
(230)
∆ nn gΓγ
gΓn
=−
,
2
Re ∆ nn 2
2
gΓ f
2
=−
∆ nf
2
Re ∆ nn
gΓγ
2
(231)
,
(232)
avec
Λ
∆ nn = −i ∑
λ =1
( gΓn )λ / 2
E λ − E − iΓλγ / 2
− ikaR +
0
nn
U nn − e −2ika
U nn + e − 2ika
90
,
(233)
( gΓn )λ Γλf / 4
− S0
2
2
λ =1 ( E λ − E ) + Γλ / 4
Λ
∆ nf = −∑
σf
E
,
−
1 eV πD 2
(234)
et
U nn
σ 

= 1 −
±i
2πD 2 

(2kacoh )
 σ 
−
.
2 
 2πD 
2
2
(235)
Les sections efficaces totales et de fission directement observables à l’énergie thermique sont des
sommes sur deux voies c d’onde s (avec les spins I+½ et I-½), σ c = c σ c et σ f = c c ’∈ f σ cc ’ .
∑∑
∑
La valeur approchée des largeurs totales est prise comme étant Γλ ≈ (2 gΓn )λ + Γλγ + Γλf . Le terme
0
des niveaux externes R nn
, c’est à dire les paramètres de niveaux éloignés, les fonctions densité et les
largeurs radiatives moyennes sont supposés les mêmes pour les deux états de spin, et l’indice de voie
de λ c et k c a été enlevé. De plus, nous utilisons la relation entre la longueur de diffusion cohérente
acoh et les sections efficaces de diffusion élastique pour les deux états de spin,
a coh = ∑
c
g c σ cc
.
4π
(236)
En se limitant à un état de spin (cible de spin nul, g λ = g c ) ou à un noyau non fissile
( σ f = 0, Γλf = Γ f = 0 ) on retrouve les équations précédentes.
Avec les paramètres du niveau lié calculés analytiquement de cette façon, les sections efficaces
ne sont pas seulement correctement reproduites à l’énergie thermique, E = 0.0253 eV, mais dans
l’ensemble du domaine thermique en dessous de la première résonance. Il arrive cependant parfois
que le niveau lié fictif soit plus proche du seuil de séparation du neutron que le premier niveau non lié
(c’est à dire E 0 < E1 ). Bien que la courbe de la section efficace calculée de capture ou de fission
passe par le point prescrit, elle ne présente un comportement normal en 1/v qu’en dessous de l’énergie
« miroir » E 0 . Au niveau de cette énergie, la courbe acquiert un comportement en 1/v5 (avant que la
résonance à E1 ne la fasse remonter). Les formules de Breit-Wigner simple niveau (183) et (185)
permettent de l’expliquer : le comportement asymptotique à basses et hautes énergies dû à un niveau
lié à E0 < 0 est le même que celui d’un niveau non lié à l’énergie miroir E 0 > 0 (voir Figure 15).
Il est facile, toutefois, de rétablir une forme réellement observée en 1/v jusqu’à la première résonance
non liée, sans changer pour autant les sections efficaces correctement calculées au point thermique, en
augmentant tout simplement la largeur radiative (choisie arbitrairement) qui multiplie les autres
paramètres de résonance, voir les équations (225), (226) et (230) à (232). Le point calculé de passage
de 1/v en 1/v5 peut ainsi être décalé vers des énergies supérieures à E1 où il est sans effet car la
contribution des autres résonances domine.
91
Figure 15. Section efficace de capture SLBW pour une résonance d’onde s liée et
non liée, telle que décrite dans les équations (183) et (185), avec Γn ( E ) = Γn ( E 0
)
E E0 .
Dans les deux cas, on observe le même comportement à basse et haute énergie
3.5 Élargissement Doppler
Dans les applications pratiques, les sections efficaces sont la plupart du temps demandées sous
forme élargie par effet Doppler. Il est parfois affirmé que l’élargissement Doppler peut être négligé
pour les noyaux légers. Cela peut s’avérer vrai pour les larges niveaux d’onde s mais certainement pas
pour les niveaux étroits d’ondes p, d, …, qui dans le cas de ce qu’on appelle matériaux de structure
(fer, nickel, chrome, cobalt, manganèse, etc.) contribuent de manière significative à l’absorption
résonnante et à l’activation.
3.5.1 Approximation du gaz libre
L’élargissement Doppler dans les réactions nucléaires est dû à l’agitation thermique des noyaux
cibles. Considérons un faisceau parallèle de particules mono-énergétiques, ayant une vitesse v dans le
laboratoire, qui entre en collision avec des noyaux cibles dont les vitesses u sont distribuées de telle
façon que p (u )d 3 u est la fraction des vitesses situées dans une petite région tridimensionnelle d 3 u
autour de u dans l’espace des vitesses. Si ρ1 et ρ2 sont respectivement les densités des particules du
faisceau et de la cible, le nombre de réactions intervenant par unité de temps et de volume est
92
ρ1ρ 2 ∫ d 3 u p (u ) v − u σ( v − u ) ≡ ρ1ρ 2 vσ(v ) ,
(
(237)
)
où σ v − u est la section efficace non élargie pour une vitesse relative v − u entre les partenaires
de la collision et σ (v ) la section efficace effective, ou élargie par effet Doppler, pour des particules
incidentes de vitesse v. Il est évident, d’après cette définition, que les sections efficaces en 1/v ne sont
pas affectées par l’élargissement Doppler. Supposons maintenant que les noyaux cibles aient la même
distribution de vitesses que les atomes dans un gaz idéal, c’est-à-dire la distribution de
Maxwell-Boltzmann
 u2
1
− 2
exp
 u
π3 2
 T
p(u )d 3 u =
 d 3u
 3
 u
 T
 Mu T2


,
≡
kT
 2



(238)
où M est la masse du noyau cible et kT la température du gaz en unité d’énergie. En intégrant sur
toutes les vitesses relatives possibles w ≡ v − u et en utilisant les coordonnées polaires avec l’axe
polaire parallèle au faisceau, d 3 u = d 3 w = w 2 dw dµ dϕ avec µ = cos θ , on obtient facilement
l’expression exacte pour la section efficace élargie par effet Doppler (Solbrig 1961)
2
  w + v  2   w 2
dw    w − v  
  − exp − 
 
σ (v ) =
σ(w)
∫ exp− 
u T    v 2
π 0 u T    u T  





∞
1
(239)
  w − v 2  w w
1 dw
=
∫ exp−  uT   v 2 σ( w ).
π 0 uT


∞
( )
Cela signifie un élargissement Gaussien de la fonction impaire v v σ v
sur une échelle de
vitesse allant de -∞ à +∞, uT étant la largeur correspondant à cet élargissement. En fonction des
énergies dans le laboratoire, E = mv 2 2 , on a
2
  
  E + EE ’  2   E ’
   E − EE ’  
σ (E ) =
∫ dE ’exp−  ∆ / 2   − exp−  ∆ / 2    E σ(E ’) ,
∆ π0
 


 
1
∞
(240)
où
∆≡
4 EkT
M m
(241)
est appelée largeur Doppler. Pour E>>∆, ce qui est généralement vérifié au-delà de quelques eV, on
peut simplifier en ne gardant dans les exponentielles que les deux premiers termes du développement
EE ’ = E + ( E ’− E ) 2 + ... , en négligeant la seconde exponentielle et en changeant la limite
inférieure de l’intégrale, mise à -∞. Le résultat s’écrit
  E ’− E  2 
E σ (E ) =
∫ dE ’exp−  ∆   E ’σ(E ’) ,
∆ π −∞


1
∞
(242)
qui traduit un élargissement Gaussien du taux de réaction sur l’échelle en énergie avec une largeur ∆.
93
3.5.2 Cristal cubique
Lamb (1939) retrouva l’expression (241) pour la capture radiative de neutrons par des noyaux
d’un cristal de Debye, dans le cas le plus important d’un point de vue pratique où Γ + ∆ > 4kTD , où
TD, température de Debye, est la mesure des forces de liaison maintenant les atomes à leur position
dans le cristal, fortes pour des atomes fortement liés et faibles pour des atomes faiblement liés. La
seule différence entre un gaz idéal et un cristal de Debye est que l’on doit calculer la largeur Doppler
non pas avec la température réelle T mais avec une température effective TL donnée par
T
TL = T 
 TD
3


 3 TD T
1 TD2
x
 ∫
dx x 3 coth = T 1 +
+ ... 
2
0
2
20 T
 2


(243)
qui est habituellement-à température ambiante-plus grande de quelques pour-cents par rapport à T.
Dans l’approximation de diffusion quasi-libre, on trouve le même résultat pour la diffusion et pour
des cristaux cubiques en général (Fröhner 1970). La correction sous forme de fonction de TD/T est
donnée graphiquement par Lamb (1939). Les problèmes avec la température de Debye pour des
238
cristaux contenant à la fois des noyaux légers et lourds-exemple : UO2 sont discutés par Lynn
(1968).
3.5.3 Élargissement Gaussien avec profils de Voigt
Dans la représentation de Kapur-Peierls, équations (178) à (180), toutes les résonances de
sections efficaces apparaissent en tant que superpositions linéaires de profils de formes de raies
symétriques et asymétriques (ainsi que d’une section efficace de diffusion potentielle lentement
variable dans le cas de σc et σcc). Puisque les profils de forme contiennent les variation rapides,
typiques des résonances alors que tout le reste varie lentement, nous obtenons une bonne
approximation des sections efficaces élargies par effet Doppler en remplaçant simplement les formes
de raies non élargies (« naturelles ») des expressions de Kapur Peierls par les profils élargis par une
Gausienne introduits par Voigt (1912)
ψλ =
χλ =
1
∆ π
1
∆ π
∞
∫ dE ’e
− ( E ’− E )2 ∆2
−∞
∞
∫ dE ’e
−∞
− ( E ’− E )2 ∆2
Gλ2 4
,
~ 2
E ’− E λ + G λ2 4
(244)
(E ’− E~ )G 2 ,
(E ’− E~ ) + G 4
(245)
(
)
λ
2
λ
λ
2
λ
~
où ∆, E λ et Gλ doivent être pris à E’ = E. Cela signifie que toutes les faibles dépendances
énergétiques sont localement négligées, sur l’intervalle (quelques largeurs Doppler) de la fonction de
pondération Gaussienne, mais que leur effet à longue portée est totalement pris en compte.
L’élargissement Doppler au moyen des profils de Voigt est populaire car il existe des
sous-programmes rapides pour leur calcul (voir par exemple Bhat et Lee-Whiting 1967). Dans
l’approximation de Adler-Adler, leur utilisation est directe. Dans les autres représentations, on doit
d’abord convertir les paramètres de Wigner-Eisenbud en paramètres de Kapur-Peierls. Dans les
~
approximations SLBW et MLBW, c’est trivial : on a simplement E λ = E λ + ∆ λ , G λ1c2 = Γλ1c2 ,
G λ = Γλ (cf. équations 170-171). Dans l’approximation de Reich-Moore, on doit d’abord convertir
par itération ainsi qu’expliquer dans la sous partie 3.3.6. C’est facile à programmer et n’augmente pas
94
significativement le temps de calcul, en particulier avec un algorithme rapide pour les élargissement
Gaussiens.
3.5.4 Élargissement Gaussien avec la méthode de Turing
Un algorithme rapide pour calculer des élargissements Gaussiens de fonctions ayant des pôles
dans le plan complexe (fonctions méromorphes) fut proposé par Turing (1943). La fonction
méromorphe la plus simple, avec un seul pôle, est la combinaison ψ + iχ des profils de résonance
naturels que nous avons rencontrés dans les formules de résonance de la partie 3.3. La méthode de
Turing est donc largement utilisée pour le calcul des profils de Voigt. Turing introduisit des pôles
artificiels et équidistants le long de l’axe réel et appliqua une intégration de contour (voir par exemple
Bhat et Lee-Whiting 1967) pour obtenir
ψ + iχ =
1
∆
∞
δE e (
∑
π
− E n − E )2 ∆2
−∞
iΓ 2
En − E0 + i Γ 2
Γ e −( E − E0 +i Γ 2 ) ∆
+ π
P + F,
∆ 1 − e − 2 πi ( E − E0 + i Γ 2 ) δE
2
2
,
(246)
où δE est l’espacement (arbitraire) des pôles artificiels, E n = E + nδE est un point de la grille (pôle
artificiel), et
 0 
 
P = 1 / 2
 1 
 
pour
2   E − E0
1 + 
F ≥
π   Γ 2



2



1/ 2
> 
Γ 2   π∆
,
= 
∆   δE
< 
 2π∆2
1 − 
 ΓδE



2 −1
e −( π∆ δE )
(247)
2
1 − e − 2( π∆ δE )
2
.
(248)
Nous reconnaissons que l’approximation de Turing consiste en (i) une approximation de
l’intégrale par une simple somme avec une largeur de pas de δE, (ii) un terme impliquant l’énergie
E 0 + i Γ 2 du pôle et un facteur discontinu P et (iii) un terme d’erreur F qui devient petit pour
[
]
δE < ∆ du fait du facteur exp − (π∆ δE ) . Le terme polaire est une correction sur la somme,
2
seulement nécessaire au voisinage de pics étroits (pôles proche de l’axe réel) pour lesquels la
longueur du pas de la somme approchée est trop grossière, mais négligeable ailleurs ainsi que le
spécifie le facteur P. En choisissant δE ≈ 0.7 ∆ , on peut complètement négliger le terme d’erreur et
-7
toujours obtenir une précision relative de l’ordre de 10 ou mieux (Bhat et Lee-Whiting 1967). En
appliquant la méthode de Turing à chaque terme des expressions de Kapur-Peierls des sections
efficaces (178) ou (179), on obtient
E σ(E ) ≈
1
N
∑ δE e (
∆ π n=− N
- E n − E )2 ∆2
E n σ( E n )
e −( E −ελ ) ∆
+ π E Re∑ C λ Gλ
Pλ ,
1 − e −2 πi ( E −ελ ) δE
λ
2
2
95
(249)
où Cλ est le coefficient de ψ λ + iχ λ dans l’équation (178) (pour la section efficace totale) ou (179)
(pour les sections efficaces partielles), et les facteurs Pλ sont semblables à P dans l’équation (226).
Le premier terme du membre de droite est à nouveau l’approximation de l’intégrale par une
somme. Dû au poids rapidement décroissant dans les ailes de la Gaussienne, seuls les termes de la
somme tels que − 5 ≤ n ≤ 5 sont nécessaires pour obtenir la précision de 0.1% habituellement requise
dans les applications courantes. De plus, la section efficace naturelle (non élargie) σ(E n ) peut être
calculée directement, sans conversion, à partir des paramètres de Wigner-Eisenbud ou de Adler-Adler
donnés dans les fichiers d’évaluation. Des doubles sommations ne sont pas nécessaires : les sections
efficaces naturelles MLBW sont directement obtenues à partir de la matrice de collision (190), les
sections efficaces de Reich-Moore à partir de la matrice-R réduite (194). Dans les deux cas, seules de
simples sommations sur les niveaux sont nécessaires. Le temps de calcul nécessaire pour
l’approximation en histogramme (première somme dans l’équation 250) est par conséquent
pratiquement le même dans les quatre approximations : SLBW, MLBW, Reich-Moore et Adler-Adler.
D’un autre côté, le terme polaire dans l’équation (249) demande des paramètres de
Kapur-Peierls, mais uniquement pour des résonances étroites (valeurs de Pλ ne s’annulant pas) et à
proximité de leur pic où les faibles dépendances en énergie peuvent être négligées. Les paramètres de
Adler-Adler n’ont pas du tout besoin d’être convertis, pour ceux de SLBW et MLBW la conversion
est triviale. C’est seulement dans l’approximation de Reich-Moore que l’on doit convertir par
itération ainsi qu’expliqué dans la sous-partie 3.3.6, mais simplement à quelques énergies, plus
précisément aux énergies formelles des résonances étroites. Le temps supplémentaire nécessaire pour
cette préparation est seulement une petite fraction du temps total requis pour des calculs de vastes
sections efficaces ponctuelles pour lesquels les gains de temps sont importants.
La méthode de Turing peut bien évidemment s’appliquer non seulement à des élargissements
Gaussiens sur l’échelle en énergie, équation (242), mais également à des élargissements Gaussiens sur
l’échelle des vitesses (ou des quantités de mouvement) avec le modèle du gaz libre, voir équation
(239). Dans ce dernier cas, il y a même un avantage supplémentaire : la largeur de la fonction de
pondération Gaussienne ne dépend plus de l’énergie (ou de la quantité de mouvement) si bien que la
pondération Gaussienne nécessaire (c’est-à-dire pour − 5 ≤ n ≤ 5 ) peut être déterminée une fois pour
toutes avant même le début des calculs. Un autre avantage de la méthode de Turing est l’introduction
d’une grille naturelle ne dépendant que de la température effective, qui est adaptée pour des calculs
rapides de sections efficaces ponctuelles, créant automatiquement moins de points aux hautes énergies
où les sections efficaces élargies sont moins structurées. Cette méthode est pratique non seulement
pour l’ajustement de sections efficaces, comme on le pense parfois, mais de manière assez générale
dès que des sections efficaces ponctuelles multi-niveaux élargies sont demandées. Le programme
DOBRO (Fröhner 1980) a été écrit d’après ce qui précède. En employant le modèle du gaz libre exact,
il génère des sections efficaces MLBW ou de Reich-Moore élargies par effet Doppler presque aussi
rapidement que des sections efficaces SLBW à partir de paramètres donnés. L’idée la plus importante
n’est pas les profils de Voigt par eux-mêmes, mais plutôt la meilleure méthode pour les calculer – la
méthode de Turing – à appliquer directement aux expressions des sections efficaces multi-niveaux.
3.5.5 Elargissement de données ponctuelles tabulées et linéairement interpolables
Une méthode largement utilisée pour générer des sections efficaces dans le domaine des
résonances élargies par effet Doppler est de partir de sections efficaces naturelles σk données et
d’énergies Eκ telles que pour chaque énergie intermédiaire E une interpolation est possible,
96
σ( E ) =
(E − E k )σ k +1 + (E k +1 − E )σ k
(E k
E k +1 − E k
≤ E ≤ E k +1 )
(250)
avec une certaine précision spécifiée. La variation linéaire en énergie se traduit par une variation
quadratique en fonction de la vitesse,
σ(v ) = a k + bk v 2 ,
(251)
où ak et bk sont des coefficients constants. Les tables de sections efficaces ponctuelles linéairement
interpôlables sont courantes dans les fichiers de données nucléaires évaluées. Par insertion dans
l’équation (239), on obtient
∞
σ (v ) = ∑ ∫
k
0
[
dw w 2 −( w −v )2
e
uT v 2
uT2
− e −(w+ v )
2
uT2
](a
k
)
+ bk w 2 .
(252)
Chaque terme de la somme correspond à une portion linéaire de la représentation de la section
efficace. En effectuant le changement de variable x = (w − v ) u T , nous trouvons que pour chaque
terme de la somme nous avons besoin des intégrales
2
∫
π
xk +1
xk
dt e −t t n = I n ( x k ) − I n ( x k +1 ) pour
2
n = 0,1,2,3,4
(253)
avec
I n (x ) ≡
2
∫
π
∞
x
dt e −t t n =
2
1
π
e − x x n −1 +
2
n −1
I n−2 (x) .
2
(254)
I0 et I1 sont calculables facilement et ainsi les autres peuvent être obtenues à partir de la dernière
relation de récursion (résultant d’une intégration partielle) :
I 0 ( x ) = erfc x,
I 1 (x ) =
1
π
,
I 2 (x ) =
1
1 − x2
erfc x +
e x,
2
π
1 − x2 2
I 3 (x) =
e
x +1,
π
3
1 − x2  3 3 
I 4 ( x ) = erfc x +
e  x + x .
4
4 
π

(
(255)
)
C’est l’idée de base du code SIGMA1 (Cullen et Weisbin 1976). Il faut noter qu’en dépit du titre
de la publication, la méthode n’est pas exacte puisque l’interpolation linéaire entre les sections
efficaces tabulées est une approximation qui introduit une erreur. (Dans les fichiers d’évaluation
modernes, des écarts relatifs jusqu’à 0.5% ou dans le meilleur des cas 0.1% sont admis entre chaque
portion linéaire). Il faut également réaliser que les exponentielles et les fonctions d’erreur doivent être
97
calculées pour chaque portion linéaire de la représentation de la section efficace. Si les sections
efficaces σk ne sont pas données mais doivent d’abord être calculées, le code SIGMA sera
définitivement plus lent et dans les cas moins précis que l’approche de Turing, et le choix d’une grille
irrégulière permettant l’interpolation avec une précision voulue, avec un minimum de points de grille,
peut être problématique, alors que la méthode de Turing fournit automatiquement une grille adaptée.
3.6 Analyse pratique des sections efficaces expérimentales dans le domaine des résonances
Nous avons mentionné dans la partie 2 que la meilleure détermination des sections efficaces à
partir de données expérimentales s’obtient par l’extraction des paramètres de résonance. En fait,
toutes les sections efficaces dans le domaine des résonances résolues qui sont utilisées dans les
calculs de réacteurs et autres applications sont générées à partir des paramètres de résonances. On
pourrait se demander pourquoi ne pas utiliser directement les meilleures sections efficaces mesurées
avec une haute résolution et ainsi éliminer la nécessité d’extraire des paramètres de résonance.
Il y a plusieurs raisons pour lesquelles la détermination des paramètres de résonance ne peut être
évitée si les réactions résonnantes doivent être décrites et prédites avec prédiction.
1. permet de représenter la structure souvent incroyablement détaillée des sections efficaces par
comparativement peu de nombres.
238
Exemple : Le nombre de résonances actuellement analysées du système composé U+n est
de l’ordre de 1 000. Si la fission sous le seuil est négligée, elles sont décrites par Les
paramètres de résonance suivis de l’utilisation d’une théorie des résonances nous environ
4 000 paramètres (E0, Γn, Γγ, JΠ) alors qu’une représentation ponctuelle, ayant une précision
4
raisonnable, des sections efficaces de diffusion et de capture requerraient 5⋅10 données
5
ponctuelles soit 10 nombres. Si l’on considère également les distributions angulaires et les
différentes températures, on obtient facilement plusieurs millions de données ponctuelles qui
238
seraient nécessaires pour décrire le comportement de U dans un réacteur.
2. L’élargissement Doppler des résonances pour des températures arbitraires ne peut être
calculé rigoureusement qu’à partir de paramètres de résonance et non de données ponctuelles.
3. Les paramètres de résonance et le formalisme de la matrice-R garantit l’accord avec des
contraintes physiques telles que limites unitaires de la section efficace dans chaque voie de
réaction ( 0 ≤ σ c ≤ 4πD 2c g c ) ou limite de Wick pour la diffusion vers l’avant
( dσ cc (0 ) dΩ ≤ σ c2
(4πD c )2 ).
4. Un autre accord est plus subtil mais, d’un point de vue pratique, au moins aussi important,
particulièrement pour les calculs d’auto-protection. La théorie nous dit qu’il y a une relation
stricte entre les formes de raie dans une voie de réaction et la forme de raie correspondant au
même niveau du noyau composé dans les autres voies. Cette relation est vérifiée si les
sections efficaces sont générées de façon cohérente à partir des paramètres de résonance,
alors que pour des jeux de données expérimentales, une échelle commune en énergie est
toujours problématique.
98
5. Au moins tout aussi important est le fait que même les meilleures mesures sont affectées par
la résolution expérimentale, l’effet Doppler et (exception faite des données de transmission)
par l’auto-protection et les diffusions multiples. La seule manière rigoureuse de corriger ces
effets est une paramétrisation sur tout le domaine par ajustement de courbes théoriques sur
les données. Les quantités ajustées ne devront pas être un genre de données réduites
ressemblant aux sections efficaces, telles que valeurs logarithmiques de la transmission, mais
les observables elles-mêmes, par exemple les transmissions, les taux de capture, de fission ou
de diffusion. Les élargissement dus à la résolution expérimentale ou à la température,
l’auto-protection, les diffusions multiples, les impuretés dans l’échantillon et les autres effets
doivent donc être inclus dans le modèle théorique.
6. L’extrapolation dans le domaine des résonances non mesurées ou non résolues par des
calculs de section efficace avec le modèle statistique des niveaux (Hauser-Fesbach) requiert
des paramètres statistiques tels que densités de niveaux ou fonctions densité. Ceux-ci doivent
être estimés à partir des paramètres des résonances résolues.
7. Afin de comprendre la plupart des problèmes pratiques rencontrés lors de l’ajustement,
passons en revue, avec quelques détails, les principaux types de données expérimentales dans
le domaine des résonances qui doivent être modélisées par des algorithmes d’ajustement. Les
observables sont des fonctions ou fonctionnelles plus ou moins compliquées des sections
efficaces, plutôt que les sections efficaces elles-mêmes.
3.6.1 Les observables
Comme nous l’avons déjà mentionné dans la partie 2.1, la mesure la plus simple est celle de la
section efficace totale σ. On mesure la fraction d’un faisceau de particules d’énergie donnée qui
traverse sans interaction un échantillon d’une épaisseur n (en noyaux/barn).
T = e − nσ .
(256)
La section efficace totale est donc proportionnelle au logarithme de l’observable.
Les taux de réaction (n,x) Yx (x = f, γ, n’, p, α, …), c’est-à-dire la fraction des particules du
faisceau induisant une réaction (n,x) dans l’échantillon, est une somme de contributions d’événements
où la réaction (n,x) est précédée de 0, 1, 2, … diffusions,
Y x = Yx 0 + Y x1 + Y x 2 + ... .
(257)
avec
99
σx
,
σ
σ
σ
Yx1 = (1 − T ) n (1 − T1 ) x1
σ1
σ
Yx 0 = (1 − T )
Yx 2 = (1 − T )
σn
σ
,
.
1
(1 − T1 ) σ n1 (1 − T2 ) σ x 2
σ1
σ2
(258)
,
2
1
etc.
L’indice numérique indique le nombre de collisions précédentes de sorte que 1-T1, par exemple,
est la probabilité qu’après la première collision le neutron diffusé interagisse à nouveau quelque part
dans l’échantillon. Les parenthèses
, 2 , ... traduisent des moyennes spatiales et angulaires sur
1
toutes les premières, deuxièmes, etc. collisions possibles. À chaque collision élastique, l’énergie du
projectile passe de E à
E ’= E
A 2 + 2 Aµ c + 1
(259)
( A + 1)2
si la particule cible est initialement au repos. Ici µc est le cosinus de l’angle de diffusion dans le centre
de masse et A est le rapport de masse entre le projectile et la cible. Notons que dans le domaine des
résonances, de petites variations d’énergies peuvent entraîner des variations dramatiques de la section
efficace. Les taux de collisions multiples Y x1 , Y x 2 , ... sont donc des fonctions de plus en plus
complexes des sections efficaces σx, σn et σ. Si la diffusion inélastique est autorisée d’un point de vue
énergétique, alors les parenthèses
etc. comprennent également les moyennes sur les différents
1
modes possibles de diffusion (réactions résiduelles). L’approximation d’échantillon mince,
Y x = nσ x
si
nσ << 1 ,
(260)
est souvent suffisamment précise pour les taux de fission puisque les échantillons fissiles doivent être
extrêmement fins afin que les fragments de fission signalant la réaction (n,f) puissent en sortir. Dans
l’analyse des données de capture, d’un autre côté, on doit habituellement inclure le facteur
d’auto-protection (1 − T ) nσ et les contributions des diffusions multiples car la faible absorption des
photons signalant des événements (n,γ) permet aux expérimentateurs d’augmenter les taux de
comptage en utilisant des échantillons épais.
Les effets de l’épaisseur de l’échantillon, c’est à dire auto-protection et diffusions multiples, sont
également importants dans les mesures de diffusion. En analogie avec les équations (257) et (258),
nous avons
dYn = dYn1 + dYn 2 + dYn 3 + ... .
(261)
avec
100
1 − T dσ n
T1 1 dΩ
σ dΩ
1 − T1 dσ n1
1−T
=
σn
T2
σ
σ1 dΩ1
dYn1 =
dYn 2
dYn 3 =
dΩ
2
.
1
1 − T1
1 − T2 dσ n2
1−T
σn
σ n1
T3
σ
σ1
σ 2 dΩ 2
(262)
dΩ
3
2
1
etc.
où dΩ est l’élément d’angle solide couvert par le détecteur.
À la suite de notre discussion sur les taux de réactions, il devrait être clair que, à moins
d’échantillons très minces, l’extraction des sections efficaces (n,x) à partir des taux (n,x) fait
également intervenir la section efficace totale. De manière assez générale, on peut dire que les
données de section efficace totale sont une condition préalable pour une bonne analyse des sections
efficaces partielles. Un autre type de données, intéressantes en particulier pour des tests de statistique
de niveaux dans le domaine des résonances non résolues, est obtenu par des mesures
d’auto-indication. On place deux échantillons dans le faisceau, un échantillon filtre (épaisseur n1) et
un échantillon détecteur (épaisseur n2), tous deux constitués de la même matière. La probabilité qu’un
faisceau de particule induise une réaction (n,x) dans le second échantillon est
S x (n1 , n 2 ). = T (n1 )Y x (n 2 ) .
(263)
De cette façon, on mesure essentiellement la transmission de l’échantillon filtre avec un système
de détection dont l’efficacité est augmentée au niveau des pics des résonances (au niveau des creux de
transmission).
Idéalement, l’analyse des paramètres de résonance se base sur des mesurées avec des échantillons
isotopiquement purs et procède plus ou moins de la manière suivante :
1) Des données de transmission, on détermine fondamentalement
E 0 , Γn , Γ, g
E 0 , gΓn
pour l = 0 ,
pour l ≥ 0 .
2) Les résultats de transmission permettent de calculer les corrections d’échantillon épais pour les
données de taux de réaction (n,x) à partir desquelles on obtient fondamentalement
E 0 , Γx
E 0 , gΓx
si Γn et g sont connus,
si seul gΓn est connu.
3) Si les données de transmissions ne sont pas disponibles (les niveaux d’onde p, d, … ne sont pas
facilement visibles dans les mesures de transmission) on obtient uniquement
E 0 , gΓn Γx Γ
si seul gΓn n’est pas connu.
101
Dans les cas moins idéaux, il y a des complications provenant d’impuretés dans les échantillons,
le plus souvent d’autres isotopes du même élément dans les matériaux enrichis, la présence d’oxygène
dans les oxydes ou due à la corrosion, mais également de l’hydrogène provenant de vapeur d’eau
absorbée. D’autres complications expérimentales inévitables sont brièvement décrites dans la
sous-partie suivante.
3.6.2 Complications expérimentales
Les bruits de fond sont une source principale des incertitudes dans l’analyse des résonances.
Dans les mesures de temps de vol, il y a toujours deux types de bruit de fond : constant et dépendant
du temps. Les bruits de fond constants peuvent être dus à la radioactivité de l’échantillon et de son
environnement ou à des rayons cosmiques. Les bruits de fond dépendant du temps sont induits par les
impulsions de l’accélérateur ou par des effets provenant de l’échantillon. Un exemple est le bruit de
fond provoqué par des neutrons diffusés par les résonances dans les mesures de transmission ou de
capture neutronique par temps de vol. Dans ce bruit de fond, la structure résonnante de la section
efficace de diffusion se reflète, et par conséquent il présente des fluctuations violentes en fonction du
temps de vol (ou de l’énergie). Cette influence de l’échantillon rend souvent les déterminations du
bruit de fond « sans échantillon » discutables. C’est pourquoi, on utilise des écrans « noirs », des
échantillons spéciaux placés devant l’échantillon étudié. L’écran noir idéal possède un petit nombre
de résonances très espacées et est suffisamment épais pour qu’au niveau des creux correspondant
(les pics des résonances noires) toutes les particules du faisceau soient éliminées et que seul le bruit
de fond soit observé durant l’expérience en cours. Bien sûr, aucune donnée ne peut être mesurée au
niveau des résonances noires, aussi utilise-t-on plusieurs écrans complémentaires. Les écrans noirs
sont une amélioration par rapport à la détermination du bruit de fond sans échantillon, mais
n’éliminent pas complètement les problèmes engendrés par la présence de l’échantillon.
L’élargissement par la résolution expérimentale est une autre source de complications. Toutes les
données expérimentales sont élargies par la résolution. Les vraies observables sont
T (E ) = ∫ dE ’r (E ’, E )T ( E ) ,
(264)
Y x (E ) = ∫ dE ’r (E ’, E )Y x (E ) ,
(265)
etc., où dE’r(E’,E) est la probabilité qu’un événement observé à l’énergie E (ou au temps de vol
correspondant) soit réellement dû à une particule du faisceau ayant une énergie E’ à dE’ près. Les
principales raisons de l’écart E-E’ dans les données de temps de vol sont
•
Largeur finie de l’impulsion de l’accélérateur
(tb).
•
Largeur finie du canal de temps de vol
(tc).
•
Dérive électronique, « jitter »
(td).
•
Incertitude sur le point de départ de la base de vol (par exemple dans le modérateur ou le
« booster ») et sur le point d’arrivée (par exemple dans l’échantillon ou le scintillateur en
verre au lithium)
(∆L).
•
Résolution angulaire finie
(∆θ).
102
La fonction de résolution r(E’,E) est souvent approximée par une Gaussienne,
r ( E ’, E ) =
1
W π
e −( E ’− E )
2
W2
(266)
avec, par exemple (Fröhner et Haddad 1965),
  ∆L  2

E
2
2
2
+
+
W = 2 E 2
t
t
t
 +

b
c
d
3mL2
  L 

(
)
12
= E c1 + c 2 E .
(267)
En variant légèrement c1 et c2, on peut améliorer l’ajustement mais, généralement, la vraie
fonction de résolution possède des queues et les Gaussiennes doivent être remplacées par d’autres
fonctions asymétriques telles que fonctions χ2 (Fröhner 1978) ou des Gaussiennes avec des queues.
L’efficacité des détecteurs et le flux sont une troisième source importante d’incertitudes pour les
mesures de sections efficaces partielles où les observables sont des taux de comptages,
c = ϕYx ε
(≈ ϕnσ x ε
si
nσ << 1) .
(268)
La détermination absolue du flux ϕ et de l’efficacité ε est difficile et est donc évitée dès que
possible. Souvent, on mesure relativement à un échantillon de référence (indice r) dans le même flux
afin d’obtenir
Yε
c
= x
c r Yr ε r

 nσ x ε
 ≈
nσ << 1, n r σ r << 1  ,

 nr σ r ε r
(269)
où Yr est connu avec une bonne précision. Cela enlève la nécessité de connaître le flux mais on peut
toujours avoir des problèmes avec n/nr et ε/εr comme le montre l’approximation d’échantillon mince.
Si la dépendance en énergie de ε/εr est connue, on peut calibrer en se normalisant sur une valeur de
section efficace connue avec précision, par exemple une section efficace au point thermique. Si
aucune valeur n’est suffisamment connue, on peut souvent utiliser la technique de la résonance
saturée (« échantillon noir »). On utilise un échantillon spécial qui est suffisamment épais pour qu’une
résonance bien connue ait une transmission très faible. De manière assez générale, on a
(1 − T )
σx
< Yx < 1 − T .
σ
(270)
Du fait que c = ϕY x ε , on obtient au pic de la résonance, E = E0, où l’échantillon est noir, T ≈ 0 ,
c < εϕ < c
σ( E 0 )
.
σ x (E 0 )
(271)
Si σ(E 0 ) ≈ σ x (E 0 ) (c’est à dire Γ ≈ Γx ) ceci définit, sans autre calcul, une valeur assez précise
de εϕ. La résonance à 4.91 eV de Au+n , par exemple, a fréquemment été utilisée de cette manière
pour la normalisation par résonance saturée des données de capture. De sérieux problèmes sont
rencontrés si l’efficacité du détecteur varie d’un isotope à l’autre, ou même pire, d’une résonance à
197
103
l’autre. Cela a été une source persistante de difficultés pour les mesures de capture. Ici, la réponse du
détecteur dépend du spectre gamma (énergie de liaison, intensité de transition vers les niveaux peu
liés, etc.) qui fluctue d’un niveau à l’autre de manière imprévisible, particulièrement dans le cas des
noyaux légers et intermédiaires. Le problème ne peut être surmonté qu’à l’aide d’imposants
scintillateurs liquides ou cristallins qui entourent l’échantillon dans une géométrie 4π et absorbe la
plupart des rayons gamma de capture.
L’auto-protection et les diffusions multiples affectent principalement les données de capture et
de diffusion neutroniques. Comme le montrent les équations (257)-(258) et (261)-(262), les deux
effets sont interdépendants et ne peuvent être traités séparément. Ils sont tous deux considérés comme
des effets d’épaisseur d’échantillon. Un traitement analytique n’est pas possible dans le domaine des
résonances résolues du fait des brusques variations des sections efficaces de diffusion et de capture
ainsi que de la nécessité de décrire les données en détail et non pas en terme de moyennes. Le seul
moyen valable est la simulation Monte Carlo de l’histoire des collisions multiples des neutrons basée
sur une description détaillée des résonances des sections efficaces, sur les distributions de probabilité
appropriées pour les libres parcours et les angles de diffusion, et sur la géométrie exacte de
l’échantillon (cf. Fröhner 1989 pour plus de détails). La faisabilité de simulations Monte Carlo
directes des effets d’épaisseur d’échantillon dans l’ajustement des résonances de capture fut
démontrée avec le code FANAC (Fröhner 1978).
3.6.3 Attribution de spin et de parité
L’algorithme conventionnel d’ajustement par moindres carrés utilise des dérivées (sensibilités),
et donc n’est directement applicable qu’à des distributions de probabilités continues. Par conséquent,
la détermination des paramètres de résonance par des ajustements par moindres carrés non linéaires
ne peut s’effectuer que pour les énergies et largeurs des résonances pour lesquelles existe un
continuum de valeurs possibles tel que les dérivées pour itérations de Newton-Raphson puissent être
calculées. Les spins et les parités ayant des valeurs discrètes ne disposent pas de dérivées. On pourrait
imaginer une généralisation combinant la méthode des moindres carrés avec des distributions de
probabilité discrètes, mais dans des analyses de résonances impliquant des dizaines ou mêmes des
centaines de niveaux, le nombre possible de combinaisons spin-parité, pour lesquelles les moindres
carrés doivent être entrepris, est rebutant. C’est pourquoi, une première attribution des spins et des
parités est d’ordinaire basée sur l’étude des données de transmission. La plupart des résonances
d’onde s sont facilement reconnaissables car les importantes interférences entre les diffusions
résonnantes et potentielles les rendent relativement asymétriques (voir figure 11), alors que les
résonances d’ondes p et d tendent à être plus étroites et symétriques du fait de la faible valeur des
sections efficaces de diffusion potentielle et des pénétrabilités de la barrière centrifuge aux basses
énergies.
Un premier rangement grossier par catégorie de ces niveaux étroits, dont on ne connaît que gΓn par
l’analyse de la transmission, peut se baser sur la valeur moyenne attendue des largeurs neutroniques. Si
les valeurs attendues gΓn lJ pour les combinaisons possibles (l, J ) sont données, on peut calculer les
probabilités correspondantes pour (l, J ) au moyen du théorème de Bayes (Bollinger et Thomas 1968).
L’a priori est proportionnel à la densité des niveaux de spin J et parité Π = (− ) qui peut être
l
considérée comme indépendante de la parité : ρ lJ = ρ J . Avec l’approximation grossière ρ J ∝ 2 J + 1 ,
on obtient, par exemple, des densités de niveaux d’ondes s, p, d dans les proportions 1 :3 :5 si le spin de
104
∑g
la cible est nul (voir la colonne
dans le tableau 2). La fonction de vraisemblance est donnée par
J
la distribution de Porter et Thomas (voir Chapitre 4, ci dessous)
 e − x x ν 2 dx 
p(gΓn l, J )d ( gΓn ) = 
 ,
ν
x 
 Γ 2
lJ
()
où Γ
( ) est une fonction gamma et ν
ν
2
lJ
0 < x lJ ≡
ν lJ gΓn
< ∞,
2 gΓn lJ
(272)
le nombre de spins de voie (1 ou 2) qui peuvent être combinés
avec l pour donner J (cf. équations 139-140 et le tableau 2). Puisque dx/x ne dépend pas de l ou J,
la probabilité a posteriori en résultant est
P(l, J gΓn ) =
[
ρ J e−x xν 2
∑ ρ [e
J
l, J
−x
x
]
lJ
ν 2
]
,
l = 0,1,2,...,
l − I −1 2 ≤ J ≤ l + I +1 2 ,
(273)
lJ
où I est le spin de la cible. Les largeurs moyennes font intervenir des produits entre les espacements
de niveaux D J = 1 ρ J et les fonctions densités S l ,
gΓn
lJ
= g J ν lJ D J S l E 1 eV v l ( E ) .
(274)
Les estimations des largeurs moyennes peuvent donc être basées sur les espacements moyens
observés et sur les fonctions densités S l observées ou du modèle optique. Les fonctions v l ≡ Pl / P0
(avec P0 = ka ) sont les pénétrabilités relatives de la barrière centrifuge, égale à 1 pour l’onde s. Pour les
autres ondes partielles, on a v l ≈ (ka )
2l
[(2l − 1)!!]2 si ka << l(l + 1) (c’est-à-dire à basse énergie).
Cela signifie que dans le domaine des résonances, seules les ondes partielles avec l = 0, 1, 2 et (au plus)
3 doivent être considérées. Les autres sont effectivement supprimées par des barrières centrifuges
élevées. Une attribution de spin et parité, fondée purement et simplement sur la comparaison de la
largeur observée par rapport aux largeurs moyennes estimées est, bien entendu, purement probabiliste, à
réviser si de nouveaux éléments apparaissent tels que des minima caractéristiques des interférences
d’onde s dans la section efficace totale.
L’information réelle sur le couple spin-parité est fournie par les données de diffusion puisque les
distributions angulaires diffèrent de façon marquée pour les niveaux s, p et d. Habituellement, on
compare des distributions angulaires calculées par avance pour des résonances isolées avec celles
observées. En pratique, les résonances sont toutefois rarement isolées et interfèrent avec les autres
niveaux de même spin et parité. De plus, les distributions angulaires présentent des interférences
même entre des ondes partielles différentes, par exemple entre les amplitudes d’onde s et p. Un
certain nombre d’essais et d’erreurs sur les spins et les parités ne peut donc être évité durant la phase
initiale d’ajustement des résonances, même dans le cas idéal où existent des données doublement
différentielles de haute résolution. Les effets des interférences deviennent de plus en plus gênants
lorsque l’énergie augmente et l’analyse des résonances résolues doit éventuellement être remplacée
par l’analyse de la section efficace moyenne ainsi que nous allons en discuter dans le chapitre suivant.
105
4.
THÉORIE STATISTIQUE DES RÉSONANCES POUR LE DOMAINE NON RÉSOLU
Nous avons déjà commencé à utiliser la statistique des résonances lorsque nous avons estimé la
contribution des niveaux externes (« éloignés ») à la matrice-R dans la sous-partie 3.4.7. Nous allons
maintenant l’appliquer de manière systématique au domaine des résonances non résolues, ainsi qu’on
l’appelle, où la résolution expérimentale limitée ne permet que d’observer des moyennes de
résonances, ressemblant à des sections efficaces lisses alors que des résonances existent et se font
sentir au travers de phénomènes tels qu’absorption dépendant de la température et auto-protection.
Les sections efficaces moyennes, les carrés des fluctuations moyennes (variances) et autres fonctions
des sections efficaces, telles qu’atténuation du faisceau ou auto-protection dépendant de la
température, peuvent être prédites au moins par les probabilités si on connaît la statistique des
résonances non résolues, en particulier les distributions de probabilité de leurs espacements et de leurs
largeurs partielles. Le Modèle Statistique des réactions nucléaires (et atomique), avec résonances,
apparût dans les années 50 (voir Porter 1965, pour les publications majeures). Il est basé sur la théorie
des probabilités des matrices hamiltoniennes, c’est-à-dire sur les distributions de probabilité conjointe
(« ensembles ») de leurs éléments de matrice ayant pour contrainte leurs symétries et autres
caractéristiques globales. Il a été établi que l’Ensemble Gaussien Orthogonal des matrices symétriques
réelles introduit des distributions théoriques de largeurs partielles et d’espacements de niveaux, en
accord avec celles observées. Les expressions analytiques des sections efficaces, en terme
d’espacements moyens des niveaux et de largeurs partielles moyennes, pourraient être d’abord
déduites pour les sections efficaces totales moyennes tandis que les expressions trouvées pour les
sections efficaces partielles sont approximatives, valables uniquement pour des résonances bien
séparées, ne se recouvrant que faiblement. Le cas des recouvrements importants entre les niveaux,
appelé problème de Hauser-Feshbach, ne fut résolu qu’en 1985.
4.1 Statistique des niveaux
Nous commençons par les bases de la statistique des niveaux, en particulier par les distributions
(locales) des paramètres de résonance de la matrice-R, les énergies Eλ des niveaux et les amplitudes
de voie γλc.
4.1.1 Hypothèse de Porter et Thomas
Les amplitudes de décroissance γλc de la théorie de la matrice-R sont essentiellement des valeurs
des fonctions propres radiales internes pour la voie d’entrée, représentant le recouvrement de la
λ−ème fonction propre et de la fonction d’onde externe (« voie ») pour la même valeur du rayon
rc = ac (voir Lane et Thomas 1958, Lynn 1968). Pour un système composé ayant A + 1 nucléons, ce
sont des intégrales à (3A + 2) dimensions sur la surface de la région interne dans l’espace des
configuations. Les intégrands oscillent rapidement, si bien que les contributions positives et négatives
tendent à s’annuler. Les intégrales sont donc attendues proches de zéro avec la même probabilité
d’être positives ou négatives, dépendant des particularités inconnues de la λ−ème fonction propre.
107
Dans ces circonstances, une distribution Gaussienne de moyenne nulle des γλc semble être une
proposition raisonnable. En effet, le principe du maximum d’entropie de la théorie des probabilités
(voir partie 1.7) nous dit que, si nous savons seulement que la distribution possède une moyenne nulle
et une variance finie γ c2 , la distribution de probabilité la plus raisonnable et objective pour toutes
les nouvelles inférences est la Gaussienne,
(
)
p γ c γ c2 dγ c =
1
π
e − x dx
−∞< x≡
2
(
)
(
γc
2 γ c2
< ∞.
(275)
)
Avec dγ c2 = 2 γ c dγ c et p γ c γ c2 dγ c ≡ p γ c2 γ c2 dγ c2 , cela devient la distribution supposée
par Porter et Thomas (1956),
(
)
p γ c2 γ c2 dγ c2 =
e−y
πy
dy
0< y≡
γ c2
2 γ c2
<∞,
(276)
pour les largeurs partielles Γλc = 2 Pc γ λ2 c de voie unique (et à une énergie donnée). Des exemples de
largeurs de voie unique sont les largeurs neutroniques pour I = 0 ou l = 0 (voir Tableau 2) ou les
largeurs radiatives pour une seule transition radiative, non seulement en spectroscopie nucléaire mais
également atomique et moléculaire. Les distributions de Porter et Thomas d’une seule voie sont en
bon accord avec les distributions observées pour les largeurs neutroniques réduites de voie unique et
pour les largeurs radiatives de simple transition. Il faut toutefois réaliser que les niveaux les plus
faibles – ceux ayant les largeurs de voie d’entrée les plus petites – tendent à être perdus dans les bruits
de fond expérimentaux. D’après l’hypothèse de Porter et Thomas, ce sont les plus fréquents. Les
distributions empiriques des largeurs et en particulier les valeurs empiriques des densités de niveaux
doivent donc être invariablement corrigées des niveaux manquants. La figure 16 montre un exemple
du bon accord entre les distributions des largeurs observées et théoriques au dessus du seuil de
détection des faibles niveaux. D’un autre côté, on peut voir que plus de 20% des niveaux sont
238
manquants. (L’échantillon comprenait des résonances de U+n comprises dans l’intervalle d’énergie
0–3 keV, d’onde s avec une probabilité estimée de 99% ou plus.)
108
Figure 16. Distribution de Porter et Thomas. Histogramme : nombre de résonances d’onde s de
238
U+n d’énergie inférieure à 3 keV dont la largeur neutronique réduite est plus grande que la
valeur en abscisse. Courbes continues : distribution cumulative de Porter et Thomas avec sa
bande de confiance, valeur estimée par le maximum de vraisemblance
Beaucoup de largeurs observables sont cependant la somme de largeurs de plusieurs voies, par
exemple des largeurs neutroniques avec pour I>0 et l > 0 (voir tableau 2), des largeurs radiatives
totales ou des largeurs de fission. Si les moyennes γ c2
sont les mêmes pour les ν voies intervenant,
une telle largeur observée suivra la distribution généralisée de Porter et Thomas, c’est-à-dire une
distribution du χ2 à ν degrés de liberté,
(
)
p γ 2x γ 2x dγ 2x =
où Γ
e − y y ν 2 dy
,
Γ ν2
y
()
0< y≡
ν γ 2x
< ∞,
2 γ 2x
(277)
( ) est une fonction Gamma (non une largeur), et
ν
2
γ 2x ≡ ∑ γ c2 ,
c∈x
(278)
γ 2x = ν γ c2 .
(279)
La distribution de Porter et Thomas généralisée s’applique aux largeurs neutroniques à deux
voies (ν = 2, distribution exponentielle) et, avec un nombre ν effectif (pas nécessairement entier) de
voies de fission, aux largeurs de fission (ν petit) et aux largeurs radiatives totales (ν grand,
distribution proche d’une fonction delta : les largeurs radiatives ne fluctuent que faiblement d’un
niveau à l’autre). De grandes valeurs effectives de ν ne sont pas rares du fait du nombre
habituellement grand des transitions radiatives permises vers les états moins liés du système composé.
Que ν soit petit pour les largeurs totales de fission fut par contre une surprise. Les centaines de paires
possibles de fragments de fission, chacun avec de nombreux états excités possibles, semblaient
109
impliquer également beaucoup de largeurs partielles de fission et une grande valeur correspondante
pour ν.
L’énigme fut résolue par A. Bohr (1955). Il montra qu’avant que la fission puisse avoir lieu, le
noyau composé doit passer le point selle de la surface d’énergie potentielle (dans l’espace des
paramètres de déformation) au delà duquel la répulsion coulombienne prévaut sur la cohésion
nucléaire. Au point selle, la plupart de l’énergie d’excitation est sous forme d’énergie de déformation,
et donc seule reste une faible partie pour les autres modes d’excitation dont le spectre ressemble à
celui des états peu liés observés pour les déformations de l’état fondamental. La conservation de
l’énergie, du moment angulaire et de la parité ne permet d’accéder qu’à peu de ces états de transition,
indépendamment de la multitude des fragmentations finales. C’est pourquoi les voies de fission sont
corrélées de telle manière que la largeur de fission peut être considérée approximativement comme
une somme sur un petit nombre de termes, un pour chaque état de transition (« voie au point de
selle »). Pour la fission, ν est par conséquent le nombre effectif de voies ouvertes au point selle plutôt
que le nombre de voies de réaction au sens habituel.
Ceci illustre que les « lois » de statistique des niveaux ne sont pas aussi rigides que le formalisme
des résonances discuté au Chapitre 3. Elles s’appliquent principalement pour des états hautement
excités du système composé pour lesquels les modèles à particules indépendantes, collectifs ou autres
simplicités ne peuvent être utilisés. Reflétant plus notre ignorance que des phénomènes réellement
aléatoires, ces lois ne sont pas réellement applicable là où les états considérés sont simples et bien
compris. La connaissance du rôle joué par les états collectifs de transition d’un noyau fissile, par
exemple, nous permet de modifier et, en fait, de simplifier la description statistique des résonances de
fission. Dans le cas d’école des interactions neutroniques avec un puits de potentiel carré complexe,
où tout peut se calculer explicitement, rien n’est aléatoire ou non spécifié, et les largeurs neutroniques
réduites (à peu de chose près le carré des amplitudes de décroissance) apparaissent être toutes égales
plutôt que de suivre une distribution de Porter et Thomas (voir Fröhner 1998a).
4.1.2 Loi de Wigner et l’ensemble Gaussien orthogonal
Il s’avéra bien plus difficile de trouver la distribution des espacements de niveaux dans une
famille de niveaux de JΠ donné que de déterminer les distributions des largeurs partielles. Dès le
début, Wigner (1957) tenta une hypothèse hardie. Il tira une conclusion, avec la distribution de
Poisson essayée par d’autres, selon laquelle la probabilité de trouver un espacement de niveaux
Eλ+1-Eλ dans un intervalle dD autour de D est seulement proportionnel à dD et est indépendant de la
distance du niveau précédent. Il montra que les énergies des niveaux sont des valeurs propres de
matrices hamiltoniennes, et que les ensembles de matrices présentent toujours une répulsion des
valeurs propres (la probabilité devient négligeable si l’espacement de niveaux tend vers zéro) si bien
qu’au moins pour les faibles espacements, la probabilité devrait être proportionnelle à DdD. En
faisant l’hypothèse que la proportionnalité est également vérifiée pour les grandes valeurs de D, il
obtint immédiatement ce qui est connu aujourd’hui sous le nom de loi de Wigner,
 D

2
p (D D )dD = exp − c ∫ D’dD’cDdD = ce − cD 2 DdD , 0 < D < ∞ ,
 0

110
(280)
où la constante de proportionnalité est liée à l’espacement moyen des niveaux
(
c=π 2 D
2
).
D
par
La théorie des ensembles de matrices hamiltoniennes (soit des distributions de probabilité des
matrices hamiltoniennes) fut développé par la suite par Wigner, Porter, Dyson, Mehta et d’autres (voir
Porter 1965, Brody et al. 1981, Mehta 1991). Les matrices hamiltoniennes nucléaires sont, bien
entendu, hermitiennes mais également, du fait de l’invariance pratique des interactions nucléaires par
inversion du temps, symétriques et donc réelles. Si nous connaissons une distribution de probabilité
de telles matrices, nous pouvons en déduire la distribution de probabilité correspondante des valeurs
propres. L’ensemble le plus simple est obtenu si nous ne supposons rien d’autre qu’une dispersion
finie du spectre des valeurs propres, ce qui est très bien réalisé par des distributions de valeurs propres
similaires à des Gaussiennes issues des calculs du modèle en couche (voir Brody et al. 1981). En
maximisant l’entropie de la distribution avec la condition d’une dispersion finie (voir par exemple
Fröhner 1990, 1991a), on trouve comme choix le plus objectif
(
)
(
)
(
)
2
2
p H σ 2 d (H ) ∝ ∏ exp − λH µµ
dH µµ ∏ exp − 2λH µν
dH µν , λ =
µ
µ<ν
où N est le rang de la matrice H (le nombre de valeurs propres), d (H ) =
N +1
,
4σ 2
∏
µ≤ν
(281)
dH µν l’élément de
volume dans l’espace des éléments de matrices indépendants, et σ la dispersion du spectre des valeurs
propres (autour de son centre E = 0). Ayant l’entropie maximale (contenu minimal en information)
parmi toutes les distributions de matrices réelles symétriques avec un écart-type σ donné, cet
ensemble joue un rôle similaire pour ces matrices à celui que joue les distributions Gaussiennes pour
les distributions scalaires de dispersion donnée. Il est appelé l’Ensemble Gaussien Orthogonal (EGO)
car il est invariant par transformation orthogonale et parce que les éléments de matrice ont des
distributions Gaussiennes indépendantes. En réalité, Wigner l’obtint à partir des exigences de
l’invariance par rotation (toutes les bases orthogonales doivent être équivalentes en mécanique
quantique) et d’éléments de matrice distribués indépendamment, mais la condition d’indépendance
requise fut jugée comme non physique, en conflit avec la caractéristique des forces nucléaires à faire
intervenir deux corps de façon prédominante. Dans l’approche du maximum d’entropie,
l’indépendance est une conséquence naturelle de l’information limitée à l’entrée. En tous cas, la
suggestion de Wigner que l’EGO fournit un modèle mathématiquement simple de la statistique des
niveaux a été parfaitement confirmée. Porter et Rosenzweig (1960) démontrèrent que pour des très
grandes matrices (un très grand nombre d’états du système composé), l’EGO aboutit à la distribution
de Porter et Thomas des largeurs partielles. La distribution des espacements de niveaux de l’EGO
pour des matrices 2 × 2 est exactement la loi de Wigner, tandis que pour des matrices plus grandes
elle en est très proche comme le montrèrent Mehta (1960) et Gaudin (1961), voir figure 17.
111
Figure 17. Distribution des espacements entre les niveaux voisins pour l’Ensemble Gaussien
Orthogonal des matrices réelles symétriques. Ligne continue : grandes matrices N × N, avec
N → ∞ (Gaudin 1961). En pointillé : matrices 2×2 (Distribution de Wigner, équation 280)
Les espacement de niveaux sont corrélés de telle façon qu’un espacement relativement important
aura plutôt tendance à être suivi d’un espacement faible, et vice versa. Le coefficient de corrélation en
résultant est
ρ( Dλ , Dλ +1 ) ≡
cov(Dλ , Dλ +1 )
var(Dλ ) var(Dλ +1 )
≈ −0.27
(282)
pour de grandes matrices. L’ensemble des valeurs propres est par conséquent remarquablement
régulier (« rigide »), avec des positions de niveaux presque équidistantes, ce qui le différencie
notablement d’un ensemble aléatoire avec une distribution de Poisson pour les intervalles. Tout ceci
est en excellent accord avec la statistique observée des niveaux nucléaires (ou atomiques), au moins
dans des intervalles d’énergie limités où les lentes variations de l’espacement moyen des niveaux et
des largeurs partielles moyennes peuvent être négligées. Les écarts apparents par rapport aux
prédictions de l’EGO disparaissent habituellement si les lentes variations sur un grand intervalle
(« variations séculaires ») des paramètres statistiques de niveaux sont correctement prises en compte.
On ne peut s’attendre à ce que l’ensemble Gaussien orthogonal, ayant comme seule condition
une dispersion finie du spectre des valeurs propres, reproduise des caractéristiques nucléaires plus
spécifiques telles que densités de niveaux d’un gaz de fermions, effets de couches, résonances
dipolaires géantes ou barrières de fission. En fait, la densité de niveaux semi-circulaire de l’EGO
obtenue par Wigner (1957) diffère des densités similaires à des Gaussiennes obtenues dans des
calculs du modèle en couche, plus réaliste (voir Brody et al. 1981). Alors que les distributions des
énergies et des largeurs partielles des niveaux peuvent localement être prises comme celles de l’EGO,
leurs paramètres (densité de niveaux, largeurs moyennes) varient lentement avec l’énergie. Ces
variations séculaires sont décrites par des modèles macroscopiques du noyau, la densité de niveaux,
par exemple, l’est par le modèle du gaz de Fermi ou, à plus haute énergie, par le modèle en couche
avec interaction résiduelle ; les fonctions densités des neutrons, protons et particules alpha par le
112
modèle optique ; les fonctions densités des rayons gamma par le modèle de la résonance dipolaire
géante ; les fonctions densité de fission par les modèles de barrière de fission.
4.1.3 Coefficients de transmission
La théorie appropriée pour le domaine des résonances non résolues est la théorie de
Hauser-Feshbach avec correction des fluctuations des largeurs. Elle est obtenue si on moyenne les
expressions des sections efficaces de la matrice-R sur l’EGO. Les paramètres essentiels sont les
fonctions densités ou les coefficients de transmission qui leur sont intimement liés. Pour des voies de
particules (neutron, proton, particule alpha), ces derniers sont définis par
2
Tc ≡ 1 − U cc
=
4πs c Pc
0 2
c
1 − Rcc L
.
(283)
Le dénominateur, avec
Rcc ≡ Rc∞ + iπs c ,
(284)
rend compte des recouvrements et effets d’interférence dus au niveaux voisins et éloignés, s c et Rc∞
étant les intensités de pôle et le paramètre des niveaux éloignés déjà rencontré dans le contexte des
niveaux externes, voir les équations 209 et 210. Le coefficient de transmission est donc
essentiellement 2π fois le rapport entre les largeurs effectives de particule (par exemple neutronique)
et l’espacement moyen des niveaux. Pour les voies photons ou fission, on utilise de façon analogue
Tγ = 2 π
Γγ
Dc
,
T f = 2π
(285)
Γf
Dc
.
(286)
Les coefficients de transmission pour les voies de particule peuvent être obtenus à partir du modèle
optique qui décrit l’interaction entre une particule incidente et le noyau cible par un potentiel complexe,
en analogie avec la diffraction et l’absorption de la lumière par la proverbiale boule de cristal opaque. Le
potentiel complexe est ajusté de manière à ce que la section efficace totale moyenne soit bien reproduite
sur tout le domaine des résonances non résolues et bien au-delà. Pour des noyaux de dimension
235
238
239
similaires, par exemples les actinides tels que U, U et Pu, on s’attend à avoir des barrières
potentielles semblables et donc des sections efficaces totales moyenne similaires. Et c’est en fait ce que
nous observons-voir par exemple les mesures de transmission neutronique et les ajustements avec le
modèle optique effectués par Poenitz et al. (1981) sur toute une série de noyaux lourds. Le modèle
optique a par conséquent un pouvoir prédictif et systématisant considérable.
Il faut toutefois garder en mémoire que c’est essentiellement un modèle à particules
indépendantes ou la diffusion ne définit que la diffusion directe (potentielle), alors que l’absorption
signifie qu’il y a formation du noyau composé et inclut non seulement des captures radiatives ou des
fissions, mais également des diffusions résonnantes, c’est-à-dire la réémission de la particule
incidente (ou d’une particule indiscernable de celle-ci) à partir du noyau composé. De plus, les
distributions angulaires calculées avec un potentiel complexe qui reproduit correctement la section
efficace totale ne sont pas exactement égales aux diffusions doublement différentielles moyennes
dérivées du formalisme de la matrice-R. Le seul type de section efficace observable directement
obtenu avec le modèle optique est donc la section efficace totale (moyenne). Les ajustements sur les
113
données de diffusion ou d’autres sections efficaces partielles demandent une prise en compte
convenable des diffusions résonnantes excepté loin au-delà du domaine des résonances non résolues
où les processus par formation du noyau composé sont négligeables.
La principale information obtenue par les études à l’aide du modèle optique sur les réactions
induites par neutrons est que les fonctions densité et les paramètres des niveaux éloignés ne varient
que faiblement sur le domaine relativement étroit des résonances résolues ainsi que d’un noyau à
l’autre. De plus, ils peuvent habituellement être considérés comme ne dépendant que du moment
orbital angulaire, ainsi que cela fut mentionné dans le contexte de l’équation (213). Les coefficients
de transmission pour les voies inélastiques, par exemple (n,n’) ou (p,p’), peuvent être calculés avec
les mêmes expressions que pour les voies élastiques (n,n) ou (p,p) mais avec l’énergie E de la
particule remplacée par E – Ec, où Ec est l’énergie d’excitation transférée au noyau rédiduel.
Le coefficient de transmission total des photons pour les familles JΠ de résonances est dominé
par les transitions dipolaires électriques et magnétiques,
TγJΠ =
∑ [T
c ’∈γ , JΠ
E1
c’
]
+ TcM’ 1 ,
(287)
où les sommes portent sur toutes les voies de sorties accessibles c’, c’est-à-dire toutes les transitions
dipolaires permises d’un état de spin J et parité Π du noyau composé vers un niveau moins lié. Les
contributions dipolaires électriques sont communément considérées comme ayant la forme
Lorentzienne classique des résonances dipolaires géantes,
E1
c’
T
∝
(E
E γ4
2
γ
− E 02
) + (ΓE )
2
2
,
(288)
γ
où Eγ est l’énergie des photons de la transition, E0 et Γ sont l’énergie et la largeur de la résonance
dipolaire géante où tous les protons vibrent contre tous les neutrons. De manière empirique, on trouva
que pour un noyau composé sphérique ayant A nucléons, on a E 0 ≈ MeV / A1 / 6 ,
Γ ≈ 33 MeV / A1 / 3 . Pour des noyaux magiques, Γ est plus petit d’un facteur 0.6, pour un noyau
presque magique avec Z ou N différent d’un nombre magique de 1 ou 2, le facteur est environ de 0.8,
et pour des noyaux déformés il vaut environ 1.2 (voir Holmes, Woosley, Fowler et Zimmerman 1976).
Les contributions dipolaires magnétiques sont plus petites. Elles sont souvent approchées par
l’estimation simple de Weisskopf
TcM 1 ∝ E γ3 ,
(289)
ou sont toutes négligées. La somme (287) sur les niveaux finaux, pour une énergie d’excitation
arbitraire U, peut être calculée comme une intégrale
∫
U
0
dE γ ρ J (U − E γ )... , avec par exemple une
densité de niveau de Gilbert-Cameron ρ J , et normalisée sur la fonction densité gamma 2πρ J ΓγJΠ
dans le domaine des résonances résolues (obtenue empiriquement, au moins pour les résonances
d’onde s, à partir de leurs largeurs radiatives et espacements, déduites pour les autres via les
distributions théoriques de spin discutées ci-dessous).
Les coefficients de transmission de fission sont dus à Hill et Wheeler (1939). Pour des barrières
de fission à simple bosse de forme parabolique identique pour tous les états de transitions, ils
s’écrivent
114
1
,
c ’∈γ , JΠ 1 + exp[2 π( E c − E ) / hω]
∑
T fJΠ =
(290)
où E est l’énergie de la particule incidente, Ec la hauteur de la barrière sur la même échelle d’énergie,
hω est proportionnel à l’inverse de la courbure de la parabole, et la somme se fait sur tous les états de
transition (voies au point selle) en accord avec J et Π. Pour des barrières à double bosse, il est souvent
suffisant de combiner les coefficients de transmission TA pour la première barrière et TB pour la
seconde en additionnant les inverses,
1
T
JΠ
f
=
1
T
+
JΠ
A
1
TBJΠ
,
(291)
en analogie avec les résistances en série. Des expressions plus générales sont données par exemple par
Vandenbosch et Huizenga (1973). Là encore, la somme (290) doit être calculée comme une intégrale
sur une densité convable d’états de transition, voir Lynn (1974).
Les espacements moyens de niveaux ou leurs inverses, les densités des niveaux nucléaires,
apparaissent devoir jouer le rôle de facteurs d’échelle dans la théorie. Leur dépendance en spin et en
énergie a une forte influence sur le comportement des sections efficaces moyennes et va être discuté
dans la suite.
4.1.4 Densités des niveaux nucléaires
Les niveaux du noyau composé peuvent être observés dans deux domaines d’énergie – à
proximité de l’état fondamental jusqu’à quelques MeV (par exemple, à l’aide de spectroscopie de
rayons gamma de capture neutronique ou d’excitation coulombienne), et au niveau de l’énergie de
séparation du neutron d’environ 7 MeV (par l’observation des résonances dans les réactions induites
par neutrons et protons). À ces énergies d’excitation plus élevées, la densité de niveaux se trouve être
supérieure de plusieurs ordres de grandeur par rapport à l’état fondamental. Une explication d’une
augmentation si rapide des densités de niveaux en fonction de l’énergie d’excitation doit s’appuyer
sur les caractéristiques fondamentales du noyau que contient le modèle en couche nucléaire : les
nucléons, obéissant à la statistique de Fermi-Dirac et donc au principe d’exclusion de Pauli, se
déplacent pour la plupart indépendamment dans le puits de potentiel généré par leurs interactions
mutuelles.
Notons
εν la ν-ème valeur propres de l’énergie du puits, et niν le nombre d’occupation (0 ou 1 pour des
fermions) du ν-ème niveau dans le i-ème état nucléaire. Pour des nucléons indépendants, le nombre
total de nucléons et l’énergie totale du i-ème état nucléaire sont donc
N i = ∑ niν ,
ν
E i = ∑ niν ε ν ,
ν
niν = 0, 1 .
(292)
εν > 0 .
(293)
La densité réelle à deux dimensions des états du noyau composé,
ρ( N , E ) = ∑ δ( N − N i )δ(E − E i ) ,
(294)
i
115
n’admet que des valeurs discrètes. Une densité continue peut être obtenue si nous imposons des
valeurs arbitraires non négatives de N et E en tant que moyennes pondérées
N = ∑ pi N i ,
(295)
i
E = ∑ pi Ei .
(296)
i
Le principe du maximum d’entropie nous dit comment choisir les poids pi avec ces deux
conditions. Le choix le plus raisonnable, assurant un minimum d’information factice, est l’ensemble
grand-canonique (introduit pour la première fois par Gibbs en thermodynamique),
pi =
1 αN i −β E i
e
,
Z
(297)
Z = ∑ e αN i − β E i ,
(298)
i
avec les multiplicateurs de Lagrange α et β. En remarquant que la fonction de partition Z est la
transformée de Laplace de la densité de niveaux ρ, de l’équation (294), nous concluons que la densité
de niveaux doit être reliée à la fonction de partition par une transformation de Laplace inverse,
∞
∞
Z (α, β ) = ∫ dN ∫ dE ρ( N,E ) e αN −βE ,
0
(299)
0
i∞
i∞
1
ρ( N , E ) =
dα ∫ dβ Z (α, β ) e −αN +βE
∫
2πi −i∞ −i∞
i∞
(300)
i∞
1
=
dα ∫ dβ e S ,
∫
2πi −i∞ −i∞
où S est l’information entropie pour les paramètres de Lagrange arbitraires α et β,
S = −∑ p i ln p i = ln Z − αN + β E .
(301)
i
L’intégration au point selle, c’est-à-dire le développement de S autour de son maximum pour
α = αˆ , β = βˆ et la troncation après les termes quadratiques, donne la relation remarquable entre la
densité de niveaux et l’entropie
ρ( N , E ) ≈
ˆ
(
eS
det 2π∇∇ Sˆ
T
)
,
(302)
(
)
T
ˆ ∂ ∂βˆ . Les paramètres de
où nous introduisons l’opérateur de dérivée vectorielle ∇ ≡ ∂ ∂α
Lagrange α̂ , β̂ pour le maximum sont justement ceux provenant de l’algorithme de l’entropie
( )
ˆ , βˆ est l’entropie thermodynamique des
maximale, et l’information entropie maximale Sˆ ≡ S α
physiciens divisée par la constante de Bolzmann.
Considérons la fonction de partition. Nous remarquons que la somme sur tous les états du noyau
composé revient à la somme sur toutes les séries possibles des nombres d’occupation des fermions,
116
(
)
Z = ∑ e αN i −βEi = ∏ 1 + e α −βε ν .
ν
i
(303)
En développant le dernier produit, on remarque en fait que chaque état est représenté par un
terme de somme, chaque terme de somme étant un produit d’exponentielles pour tous les niveaux
occupés avec un facteur unité pour les niveaux vides, ainsi que le demandent les équations (292) et
(293). En passant au logarithme et en faisant l’approximation de la somme par une intégrale, on
obtient
(
)
∞
(
)
ln Z = ∑ ln 1 + e α −βε ν ≈ ∫ dε g (ε ) ln 1 + e α −βε ,
ν
(304)
0
où g(ε) est la densité des niveaux à une particule. Dans l’état fondamental, avec l’énergie totale E0,
tous les niveaux sont occupés jusqu’à celui qu’on appelle niveau de Fermi εF, de sorte que
εF
εF
N = ∫ dε g (ε ) ,
(305)
0
E 0 = ∫ dε g (ε )ε .
(306)
0
Le noyau est ainsi décrit comme un gaz condensé (« dégénéré ») de fermions. La condensation
diminue lorsque l’excitation augmente et de plus en plus de niveaux vides sont créés sous le niveau de
Fermi alors que des niveaux situés au-delà se remplissent. Tant que seul un intervalle relativement
faible autour du niveau de Fermi est affecté, où la variation de g(ε) est négligeable, on peut utiliser
l’approximation
2
g (ε F )  (α − βε F )
π2 
ln Z ≈ αN − β E 0 +
+


β 
2
6 
(307)
(voir par exemple Bohr et Mottelson 1969). La maximisation de l’entropie avec la fonction de
partition donne deux équations couplées pour α̂ et β̂ ,
αˆ = βˆ ε F ,
(308)
E − E0 =
π 2 g (ε F )
,
6 βˆ 2
(309)
et finalement la formule de la densité de niveau pour un gaz de fermion
ρ( N , E ) ≈
exp 4aU
48U
,
(310)
(
)
où U ≡ E − E0 est l’énergie d’excitation et a ≡ π 2 6 g (ε F ) , appelé paramètre de densité de
niveaux du gaz de fermions, dépend de N du fait de l’équation (305).
Van Lier et Uhlenbeck mirent en lumière, en suivant un conseil de Goudsmit, que dans le cas
particulier de niveaux à particule unique équidistants, soit pour un potentiel décrit par un oscillateur
harmonique, la densité de niveaux d’un gaz de fermion peut être calculée de manière exacte (voir
Ericson 1960). Les énergies d’excitation possibles sont des multiples entiers de l’espacement
d ≡ 1 g . Pour U d = 1, 2, 3, 4,... on a 1, 2, 3, 5 … états différents (arrangements d’occupation).
Comme on peut le voir sur la figure 18 (en haut), le nombre d’états est égal au nombre des différentes
117
partitions de l’entier U/d, la partition étant ici définie au sens de la théorie des nombres comme une
décomposition en terme de somme d’entiers naturels. Le nombre de partition peut être calculé par une
formule récursive venant d’Euler (1753). L’histogramme de densité de niveaux rigoureuse en
résultant est tracé avec la courbe approximative du gaz de fermions sur la figure 18 (en bas). L’accord
est bon sauf aux plus faibles énergies d’excitation. L’augmentation rapide, pratiquement
exponentielle, de la densité de niveaux avec l’énergie est évidente.
Figure 18. Fermions occupant des niveaux à particule unique équidistants. En haut : état
fondamental et premiers état excités. En bas : densité exacte des niveaux d’après la théorie des
nombres (courbe en escalier) et approximation par la maximisation de l’entropie (courbe lisse)
118
Jusque ici nous avons négligé la différence entre protons et neutrons et leurs spins. Il convient de
généraliser à des noyaux à des noyaux ayant Z protons, N neutrons et un nombre quantique de
direction de spin M. Le résultat est la fameuse formule de Bethe (1937) pour la densité de niveaux
(voir également Gilbert et Cameron 1965)
ρ(Z , N , E , M ) ≈
[
(
)]
[U − M (2 g m )]
exp 4a U − M 2 2 g m 2
12 2 g m 2
2
2
32
(311)
avec
g ≡ g p + gn ,
g m 2 ≡ g p m 2p + g n m n2 ,
(312)
(313)
où gp et gn sont les densités des niveaux à particule unique pour les protons et les neutrons, mp et mn
leurs nombres quantiques d’orientation de spin. (Le puits de potentiel et donc les niveaux à particule
unique des protons diffèrent de ceux des neutrons du fait de l’interaction coulombienne.)
(
Habituellement M 2 2 g m 2
) est bien plus petit que U. Cela mène à une factorisation approchée de
ρ(Z , N , E , M ) ≡ ω M (U ) ≈ ω(U )
e −M
2
2σ2
(314)
2πσ 2
en un produit de la densité d’état totale
∞
2π e 4 aU
ω(U ) = ∑ ω M (U ) =
a,
3 (4aU )5 4
M = −∞
(315)
avec une distribution Gaussienne sur tous les nombres quantiques d’orientation de spin M, de variance
σ2 = g m2
U
.
a
(316)
La Gaussienne est correctement normalisée à 1 puisque la formule de somme d’Euler-MacLaurin
donne
∑
∞
e −M
M = −∞
2
2σ 2
∞
= ∫ dM e − M
−∞
2
2σ 2
= 2πσ 2 pour des valeurs de M entières, mais également
demi-entières. L’écart-type σ est souvent appelé facteur de coupure de spin. Les valeurs typiques sont
de σ ~ 3 pour des noyaux intermédiaires tels que les matériaux de structure Fe, Ni, Cr et σ ~ 4.5 pour
des actinides tels que Th, U, Pu.
Il faut toutefois réaliser qu’en l’absence de champs extérieurs, on ne peut distinguer et identifier
comme résonances séparées que les états nucléaires J , M de moment angulaire total J (spin du
niveau) différent. Les états ayant pour seule différence la direction du spin, M = -J, -J+1, … J, sont
dégénérés et donc indiscernables. Cela signifie que nous devons compter qu’une seule de ces
alternatives, par exemple uniquement les états avec M = J, J , J , si nous voulons la densité ρJ des
niveaux ayant un J donné. Les états contribuant à ωJ et ωJ+1 peuvent alors être rangés en deux
colonnes de la manière suivante,
119
J, J
J + 1, J
J + 1, J + 1
J + 2, J
J + 2, J + 1
les états sur la même ligne, par exemple
J + 1, J
et
...
...
J + 1, J + 1 , étant dégénérés. Si nous effectuons la différence à ωJ-ωJ+1 , toutes les contributions de
la première colonne sont par conséquent annulées par celles de la seconde, exception faite de la
contributions des états J , J qui est égale à la densité des niveaux ρJ voulue (Bethe 1937). On a
ainsi, avec l’approximation par factorisation (314),
ρ J = ω J − ω J +1 ≈
  J2
exp −
2
2πσ 2   2σ
ω
2ω
1

=
exp − 2
 8σ
2πσ 2
 ( J + 1)2

 − exp −

2σ 2






 ( J + 1 2 )2
 J +1 2

−
−
sinh
exp




2σ 2 
2σ 2



(317)

.


C’est la densité de tous les niveaux de spin J, sans considérations sur la parité. La densité de
niveaux pour telle ou telle parité (+ ou -) peut normalement être prise simplement comme la moitié
(voir Ericson 1960, Gilbert et Cameron 1965). Des approximations largement utilisées consistent à
remplacer le sinus hyperbolique par son argument, ou de manière plus drastique, en écrivant
ρ J ∝ 2 J + 1 ∝ g c , ce qui n’est toutefois vérifié correctement que si J<<σ, c’est-à-dire pour les deux
ou trois plus faibles valeurs possibles de spin. La figure 19 montre la distribution exacte
[
]
[
]
f J = exp − J 2 2σ 2 − exp − ( J + 1) 2σ 2 pour σ = 3.0 et σ = 4.5, valeurs qui s’appliquent,
2
grossièrement, dans le domaine des résonances résolues aux matériaux de structure tels que Fe, Ni, Cr
et aux actinides tels que Th, U, Pu, respectivement. Remarquons que la distribution est normalisée à
un, exactement pour les spins entiers et pratiquement pour les spins demi-entier ( e −1 / 8 σ ≈ 1 ).
2
120
Figure 19. Distribution de fj pour σ = 3 (correspondant grossièrement aux
noyaux intermédiaires tels que Fe, Ni, Cr) et σ = 4.5 (correspondant grossièrement
aux actinides tels que Th, U, Pu). Points : spins entiers, croix : spins demi-entiers
Bien que l’approche des densités de niveaux nucléaires par la théorie des nombres apparaisse
également prometteuse pour les systèmes de niveaux à particule unique réalistes (non équidistants)
(Anzaldo 1995), la plupart des théories actuelles de la densité de niveaux qui contiennent
explicitement les niveaux du modèle en couche, les interactions résiduelles, la déformation, les
mouvements collectifs rotationnels et vibrationnels et la superfluidité de la matière nucléaire à basse
énergie d’excitation, sont fondées sur l’approche thermodynamique (entropie maximale) de Bethe.
Un exemple est la formule composite largement employée de la densité des niveaux de Gilbert et
Cameron (1965). Elle explique de manière heuristique les effets d’appariement des nucléons et le
comportement empiriquement observé des densités de niveaux à proximité de l’état fondamental où
les modes collectifs interdisent un traitement purement statistique des états composés. Elle est
constituée de deux parties, une partie constante en fonction de la température valable aux basses
énergies d’excitation à laquelle se rattache en continuité une partie se comportant comme un gaz de
fermions (Bethe) valable aux grandes énergies, avec une systématique des paramètres déduites d’un
grand ensemble de données sur la structure nucléaire près de l’état fondamental et de données des
résonances au dessus des énergies de séparation des neutrons ou protons. La densité des niveaux de
spin J et de parité quelconque est décrite par l’équation (317) avec
121


ω

=
2
2πσ



2 exp 4aU
a
32
3 (4aU )
c A1 3
2 exp 4aU x
a
U −U x 
exp

32
13
3 (4aU x )
cA
 T 
si U ≥ U x ,
(318)
si U ≤ U x ,
dont la partie à haute énergie est obtenue en appliquant, d’après Jensen et Luttinger (1952),
m 2 = cA 2 3 avec A = Z + N et c = 0.146. L’énergie d’excitation effective,
U = B + E − P (Z ) − P ( N ) ,
(319)
est prise comme la somme de l’énergie de liaison B et de l’énergie cinétique E du neutron, corrigée
des énergies P(Z) et P(N) nécessaires pour briser les paires si tous les protons ou tous les neutrons
sont appariés, c’est-à-dire si le nombre Z de protons ou le nombre N de neutrons est pair. En dessous
de l’énergie de raccordement, le facteur de coupure de spin est souvent pris comme une fonction
linéaire de U, s’annulant à l’état fondamental, de sorte que
 cA 2 3 4aU ,

U + P(Z ) + P( N )
2σ =  2 3
4aU x
cA

U x + P (Z ) + P ( N )

2
si U ≥ U x ,
si U ≤ U x ,
(318)
la formule pour le gaz de fermions de Bethe à haute énergie et celle à température constante à basse
énergie doivent se rejoindre en continuité à l’énergie de raccordement Ux. La température T (en unité
d’énergie) découlant de la condition de continuité est donnée par


J min
3

+
T = 1 −
23 

aU
cA
4
aU
4
x
x


−1
pour A pair
0
Ux
, J = 1
a
 2 pour A impair
(321)
où le troisième terme est habituellement négligeable. Les valeurs typiques dans le domaine des
résonances résolues sont T ~ 1.4 MeV pour les matériaux de structures tels que Fe, Ni, Cr et T ~ 0.4
MeV pour les actinides tels que U et Pu. Gilbert et Cameron donnent les paramètres empiriques a, Ux,
P(Z) et P(N) pour un nombre important de noyaux composés, ainsi que des formules analytiques pour
leur systématique, par exemple
150 

U x =  2 .5 +
 MeV ,
A 

(322)
si bien que les densités de niveaux peuvent être estimées même en l’absence de données de structure
nucléaire (schémas de niveaux) pour les niveaux inférieurs ou les données de résonances (sections
efficaces) au-delà de l’énergie de liaison du neutron. C’est particulièrement important, par exemple, si
les sections efficaces de fission doivent être calculées, pour lesquelles on a besoin des densités des
états de transition au point selle de déformation. Celles-ci ne sont pas directement observables, mais
sont attendues similaires aux densités des états pour la déformation au voisinage de l’état fondamental
et, par conséquent, descriptibles, au moins grossièrement, par la partie constante en fonction de la
température de la formule composite de densité de niveaux. D’autres exemples sont les noyaux dans
des états métastables ou les radionucléides de courte durée de vie, dont les données sont difficiles à
mesurer mais sont nécessaires pour les calculs d’incinération et de transmutation en technologie
nucléaire ou pour les études de nucléosynthèse en astrophysique.
122
Comme nous l’avons déjà mentionné, l’Ensemble Gaussien Orthogonal a une distribution des
valeurs propres selon la loi du demi-cercle, et des ensembles plus physiques tels que le modèle en
couche avec les interactions résiduelles traitées statistiquement ont des spectres de valeurs propres
ressemblant à des Gaussiennes. Est-ce en conflit avec l’augmentation quasi exponentielle de la densité
de niveaux dans la formule de Bethe ? La réponse est que la formule de Bethe est valable pour des
excitations modestes, où seul un petit nombre de niveaux à particule unique autour du niveau de
Fermi est affecté, et que ni la profondeur du potentiel des particules indépendantes ni les états non liés
du continuum n’ont ici d’effets. Toutefois, lorsque l’énergie d’excitation augmente, de plus en plus de
nucléons sont déplacés de niveaux situés sous le niveau de Fermi vers des niveaux situés au-dessus et
même vers des états du continuum qui ne font plus intervenir seulement le noyau composé. La densité
de niveaux d’un noyau composé donné augmente donc jusqu’à un maximum mais décroît ensuite à
nouveau, de manière Gaussienne, du fait de l’augmentation de la compétition des états non liés
représentant la transmutation et la destruction nucléaires. La formule de Bethe apparaît ainsi comme
une approximation de la queue à basse énergie d’une fonction de densité pratiquement Gaussienne
(voir Grimes 1980), certainement applicable dans le domaine des résonances non résolues mais pas à
des énergies d’excitation de l’ordre du GeV.
4.1.5 Information provenant des résonances résolues
L’information globale sur les fonctions densité ou les coefficients de transmission peut être obtenue
à partir des systématiques du modèle optique. Une information a priori plus spécifique pour un système
composé donné provient toutefois des résonances résolues. Le coefficient de transmission pour une voie
d’entrée c = {αJls} est relié à la largeur partielle moyenne correspondante par Tc = 2πΓc Dc (nous
intégrons le dénominateur de la correction multi-niveaux de l’équation 283 dans la largeur partielle) mais
les largeurs neutroniques observables (« globales ») sont des sommes de largeurs partielles pour toutes
les voies compatibles avec les caractéristiques J et Π des niveaux. En négligeant la faible dépendance
des coefficients de transmission en fonction du spin des voies prédite par le modèle optique, on obtient
pour la largeur neutronique moyenne
Γn
lJ
= ν lJ D J S l E 1 eV υ l ( E ) ,
(323)
où ν lJ est le nombre de spins des voies (1 ou 2) qui peut être combiné avec l pour donner J. C’est
essentiellement l’équation (274) que nous employons pour trouver la probabilité Bayesienne des
caractéristiques J et l (ou plus exactement Π) d’une résonance ayant une valeur de gΓn donnée. On
peut alors introduire la définition usuelle de la largeur neutronique réduite,
Γnl ≡
Γn
E 1 eV υ l (E )
,
(324)
remplacer la moyenne sur l’ensemble par la moyenne sur l’échantillon,
g J Γnl ≈
1
N
∑ (gΓ )
N
λ =1
l
n λ
,
(325)
multiplier les deux membres par g J ρ J et sommer sur tous les J compatibles avec l . Avec
∑
J
g J ν lJ = 2l + 1 et N
∑
J
ρ J ≈ ∆E , on trouve en fin de compte la formule largement utilisée
123
pour estimer les fonctions densités neutroniques à partir de toutes les valeurs de gΓnl trouvées dans
un intervalle d’énergie ∆E,
∑ (gΓ )
N
Sl ≈
λ =1
l
n λ
(2l + 1)∆E
.
(326)
Elle présente l’avantage que ni les spins des résonances ni les densité de niveaux ne doivent être
connus. Seuls les produits gΓnl sont nécessaires, ce qui est souvent tout ce que nous connaissons pour
les plus petites résonances. De plus, l’estimateur est passablement insensible aux niveaux manquants
puisque ceux-ci possèdent de faibles largeurs neutroniques réduites et contribuent peu de ce fait à la
somme, et est de façon similaire insensible aux mauvaises attributions de l qui, encore une fois,
affectent surtout les petits niveaux.
Le problème des niveaux manquant est crucial si la densité de niveaux doit être calculée. Bien
souvent, les petites résonances ne sont pas du tout vues dans les mesures de transmission alors qu’au
moins quelques unes d’entre elles apparaissent dans les données de taux de capture ou de fission. Un
simple comptage des niveaux observés dans certains intervalles d’énergie ∆E est donc rarement
suffisant. Un ajustement sur la distribution de Wigner n’est pas beaucoup plus utile car les niveaux
manquants tendent à déformer la distribution des espacements de niveaux observés. Une meilleure
solution pour estimer la fraction de niveaux manquants consiste à regarder la distribution des largeurs
neutroniques où seule une portion située sous un seuil de détection est affectée. Sans seuil, nous avons
la distribution complète de Porter et Thomas (277) que nous écrivons maintenant, avec les
abréviations G ≡ gΓnl , Θ ≡ gΓnl , et n ≡ ν lJ 2 , comme
P(G Θ, n )dG =
e − x x n dx
,
Γ(n ) x
0< x≡n
Avec la fonction de vraisemblance
∏ p(G
j
j
G
<∞.
Θ
(327)
)
Θ, n pour un échantillon G1, G2, …GN de largeurs
réduites et avec l’a priori de Jeffreys dΘ Θ pour le paramètre d’échelle Θ , on obtient l’a posteriori
P(Θ G1 ,..., G n , n )dΘ =
e − y y nN dy
,
Γ(nN ) y
0 < y ≡ nN
G
,.
Θ
(328)
où G ≡ (G1 + ... + G N ) N est la moyenne sur l’échantillon. Avec cette distribution gamma, il est
facile de calculer les valeurs attendues
y −1 = 1 (nN − 1) et y −2 = 1 [(nN − 1)(nN − 2 )] et donc
les estimations par perte quadratique,
Θ =
nN
G,
nN − 1
(329)
∆Θ
1
=
,
Θ
nN − 2
(330)
avec n = 1/2 pour les largeurs neutroniques à une seule voie ( l = 0 et I = 0) et n = 1 pour les largeurs
neutroniques à deux voies ( l > 1 et I>0). Notons à quel point l’incertitude est importante même pour
de grands échantillons-10% pour un échantillon de 204 résonances d’onde s, par exemple.
124
Le cas d’un seuil de détection donné Gc > 0 peut être traité de manière strictement analogue. La
distribution d’échantillonnage est cette fois une distribution de Porter et Thomas de G tronquée
(distribution gamma de x),
P(G Θ, n, G c )dG =
e − x x n dx
,
Γ(n, x c ) x
xc ≡ n
Gc
G
< x ≡ n < ∞,
Θ
Θ
(331)
normalisée par la fonction gamma incomplète,
∞
Γ(n, x c ) = ∫ e − x x n −1 dx ,
(332)
xc
que nous reconnaissons comme la probabilité pour un niveau d’être observable. Elle dépend des
paramètres estimés, contrairement à la fonction gamma Γ(n) que nous avions précédemment.
L’a posteriori pour l’échantillon G1, G2, …GN est alors
P(Θ G1 ,..., G n , n )dΘ =
où c ≡ G c
1 e − y y nN dy
,
Z Γ(n, cy ) N y
0 < y ≡ nN
G
,.
Θ
(333)
(NG ), et donc cy = x . La normalisation est donnée par
c
∞
e − y y nN dy
.
Z =∫
N
y
0 Γ(n, cy )
(334)
Les valeurs attendues nécessaires y −1 et y −2
y
−k
1
=
Z
impliquent des intégrales similaires,
∞
e − y y nN − k dy
∫0 Γ(n, cy )N y ,
k = 1, 2,
(335)
et c’est également vrai pour la fraction attendue de niveaux inobservables (manquants), 1 − Γ(n, cy )
avec
Γ(n, cy ) =
1
Z
∞
e − y y nN
∫ Γ(n, cy )
0
N −1
dy
,
y
(336)
Les fonctions gamma incomplètes particulières requises pour les largeurs neutroniques (et
protoniques) sont
(
)
Γ 12 , x c = π erfc x x ,
(337)
Γ(1, x c ) = exp(− x c ) .
(338)
Ceci montre qu’au moins pour n = 1, c’est-à-dire pour deux spins de voie possibles, les intégrales
peuvent être calculées analytiquement : la largeur estimée par perte quadratique est
125
Θ = NG y −1 =
∆Θ
=
Θ
N
(G + Gc ) , (339)
N −1
1
N −2
,
(340)
tandis que la fraction des niveaux observées est attendue comme étant


Gc

Γ(1, cy ) = 1 +

(
)
N
G
G
−
c 

−N
.
(341)
Pour n = 1/2 on doit intégrer numériquement, ou utiliser l’approximation de Laplace qui donne la
même estimation de Θ que la méthode du maximum de vraisemblance. Pour une discussion plus
générale des estimateurs de niveaux manquants, comprenant des seuils inconnus, dépendants de
l’énergie et diffus ainsi que des multiplets non résolus, voir Fröhner (1983).
4.2 Sections efficaces résonnantes moyennes
Le travail habituel dans le domaine des résonances non résolues consiste à calculer des sections
efficaces moyennes ou des fonctions de sections efficaces telles que la transmission moyenne, la
moyenne s’effectuant sur un intervalle suffisamment large pour contenir plusieurs résonances mais
suffisamment étroit pour que les variations séculaires de la statistique des niveaux et les autres faibles
dépendances en énergie puissent être négligées. Nous pouvons donc simplifier nos équations en
choisissant des conditions limites telles que L0c = iPc , et en incorporant Pc dans les amplitudes de
décroissance γλc. En outre, nous allons noter la matrice-S S plutôt que U, comme le veut la coutume
dans la littérature sur les sections efficaces moyennes. La matrice moyenne de collision est alors
à comparer avec les équations (155-160, 209-210, 284)
[
]
S ab = e −i (ϕa −ϕb ) (1 − iR ) (1 + iR ) ab
−1


= e −i (ϕ a −ϕb )  δ ab + 2i ∑ γ λa Aλµ γ λb ,
λ ,µ


avec
(A )
−1
λµ
(342)
= (E λ − E )δ λµ − i ∑ γ λc γ µc .
(343)
c
4.2.1 Section efficace totale moyenne
Afin d’obtenir la moyenne de la section efficace totale, nous devons déterminer la moyenne des
éléments Scc de la matrice de collision sur des intervalles d’énergies, des profils de faisceau ou des
fonctions de résolution appropriés. Avec une fonction de pondération Lorentzienne, la chose est aisée
S (E ) =
∞
I π
∫ dE ’ (E ’− E )
−∞
2
+ I2
S( E ’)
∞
1
1
1


=
dE ’
−
S( E ’),
∫
2πi −∞  E ’− E − iI E ’− E + iI 
126
(344)
où 2I est la largeur à mi-hauteur de la Lorentzienne. Du fait de la causalité, la matrice de collision n’a
pas de pôles au dessus de l’axe réel (voir Lane et Thomas, 1958) et donc si nous fermons le contour
par un grand demi-cercle supérieur (dont la contribution est nulle), il ne contient que le pôle à E + iI
de la Lorentzienne, d’où le résidu
S ( E ) = S(E + iI )
(345)
Comme nous pouvons négliger les faibles dépendances en énergie, nous avons seulement besoin
de remplacer R(E) par R(E + iI), avec
Rab ( E + iI ) = ∑
λ
γ λa γ λb
Eλ − E − iI
∞
dE ’ γ a γ b
= ∫
≈ Ra∞ + iπs a δ ab .
Dc E ’− E − iI
−∞
(
)
(346)
Dan la dernière approximation, nous exploitons le fait qu’à cause du signe des γλc, la matrice des
moyennes γ a γ b est pratiquement diagonale. En outre, nous avons introduit les définitions d’intensité
de pôle et de paramètre des niveaux éloignés, équations (209)-(210), et négligé la variation de
l’intensité des pôles autour du pic de la Lorentzienne, exactement comme lors du traitement des
niveaux externes (sous-partie 3.4.1). Le résultat final est
σ c = 2πD 2c g c (1 − Re S cc ) ,
S cc = e
− 2 iϕ c
(
(
(347)
)
)
1 + i Rc∞ + iπs c
.
1 − i Rc∞ + iπs c
(348)
La section efficace totale moyenne s’exprime ainsi en fonction de l’intensité du pôle et du
paramètre des niveaux éloignés, des quantités qui peuvent être obtenues soit par l’analyse statistique
des résonances résolues, soit à partir des décalages de phase dans le modèle optique (après
spécification d’un rayon de voie).
4.2.2 Sections efficaces partielles moyennes : Formules heuristiques
Contrairement à la section efficace totale, les sections efficaces partielles moyennes
σ ab = πD 2a g a δ ab − S ab ,
2
(349)
ne sont pas des fonctions linéaires de S mais leur moyenne doit être calculée à partir de termes
*
quadratiques tels que S ab
S cd . Elles ont des pôles aussi bien au dessus qu’en dessous de l’axe réel ce
qui empêche l’intégration de contour avec une fonction de pondération Lorentzienne. Sous les
conditions habituelles d’ergodicité et de constance d’une bonne statistique – grand nombre de
résonances et variation négligeable des distributions des paramètres dans l’intervalle où se calcule la
moyenne – on peut remplacer la moyenne sur l’énergie par une moyenne d’ensemble (c’est-à-dire une
valeur attendue) sur l’EGO, donc sur la distribution conjointe des énergies des niveaux et des
amplitudes de décroissance. La moyenne d’ensemble est facilement obtenue dans le cas limite de
127
résonances très espacées (« isolées ») qui se recouvrent si faiblement que les effets multi-niveaux et
les corrélations des valeurs propres peuvent être négligés. En supposant que les largeurs partielles
suivent des distributions de Porter et Thomas généralisées (χ2), on obtient dans l’approximation
SLBW à niveaux multiples
σ ab = σ p , a δ ab
TT
+ πD g a a b
T
2
a

∞

2T 
2
1 +
δ ab  ∫ dx∏ 1 + c x 
νa
ν cT 
c 

0
− δ ac − δ bc − ν c 2
(350)
(Dresner 1957, Lane et Lynn 1957), où σp,a est la section efficace de diffusion potentielle,
Tc ≡ 1 − S cc
2
est le coefficient de transmission pour la voie c, T ≡
∑T
c
c
, et νc le degré de liberté
pour les largeurs partielles Γλc = 2 γ λ2 c (gardons en mémoire que Pc est inclus dans γ λ2c ).
L’approximation Tc ≈ 2π Γc Dc , valable pour de très faibles recouvrements entre niveaux, a été
utilisée pour écrire le résultat en fonction de Tc. C’est la formule de Hauser-Feshbach avec
renforcement élastique (premières parenthèses) et correction des fluctuations des largeurs
(l’intégrale), voir Moldauer (1975). Nous rappelons que νc = 1 pour des voies simples mais que, dans
les applications pratiques, on utilise souvent des voies groupées, avec un ν c effectif différent de un,
afin de représenter par exemple toutes les voies de fission ou de capture ou toutes les voies de
particules ayant le même moment angulaire total et la même parité et qui font ainsi intervenir les
mêmes niveaux du noyau composé. Le nombre de voies photon est d’ordinaire si important (sauf pour
les noyaux légers ou magiques) qu’il est possible de considérer

2T
1 + c
∏
ν cT
c∈γ 
où Tγ ≡
∑
c∈γ

x 

−ν c 2

2Tγ
≈ lim 1 +

ν γ →∞
 ν γT

x


− νγ 2
=e
− xTγ T
,
(351)
Tc . Les nombreuses voies photon peuvent ainsi être représentées approximativement
par un facteur exponentiel dans l’intégrale (« facteur de Dresner ») de l’équation (331). La
généralisation de la formule de Hauser-Fesbach à des recouvrements quelconques entre les niveaux
s’avère être extrêmement difficile. Bien entendu, on pourrait toujours avoir recours à l’échantillonage
des espacements de niveaux et des amplitudes de décroissance par calculs Monte Carlo à partir de
leurs distributions de probabilité, avec des calculs de sections efficaces ponctuelles et de moyennes
qui suivraient. La section efficace moyenne désirée est ainsi obtenue, bien qu’avec l’incertitude
statistique et avec le manque de transparence analytique typique des méthodes Monte Carlo. À partir
de telles études numériques par Monte Carlo, deux formules analytiques importantes d’un point de
vue pratique furent déduites de manière heuristique, par essai et erreur et avec des hypothèses
pertinentes.
La première formule, due à Moldauer (1980), consiste à étendre l’utilisation de la formule de
Hauser-Feshbach, strictement valable que pour les faibles recouvrements entre niveaux, aux forts
recouvrements, mais avec σp,a interprétée comme section efficace « directe » ou « de forme
élastique »,
2
σ p ,a = πD 2a g a 1 − S aa ,
(352)
et avec l’expression exacte pour les coefficients de transmission de voie de particule,
128
Ta =
4πs a
1 − iRaa
2
.
(353)
De plus, les νc sont considérés comme dépendant de Tc. La dépendance est choisie de façon à
ajuster un grand ensemble de résultats par Monte Carlo tout en donnant la limite correcte pour les
petits recouvrements entre niveaux (petits coefficients de transmission). La recommandation
heuristique de Moldauer est
[
(
)
]
ν c = 1.78 + Tc1.218 − 0.78 e −0.228T ν c .
(354)
La deuxième prescription importante pratiquement est due à Hofmann, Richert, Tepel et
Weidenmüller (1975) qui, en conservant l’esprit du modèle original du noyau composé de Bohr (pas
de mémoire de la formation du noyau composé), considérèrent les sections efficaces partielles
factorisables,
σ ab = σ p ,a δ ab + πD 2a g a
avec V ≡
∑V
c
c
V a Vb
[1 + (ω a − 1)δ ab ] ,
V
(355)
. Les facteurs de renforcement élastique ωc sont attendus comme valant à peu près
3 pour des recouvrements nuls et 2 pour des forts recouvrements entre les niveaux (Satchler 1963).
Les auteurs trouvèrent leurs résultats par Monte Carlo reproduits de manière adéquate par
ωa = 1 +
2
2
1 + Ta0.3+1.5Ta
T
1
T
+ 2 a −  ,
 T n
(356)
où n est le nombre de voies ouvertes. Avec ces valeurs heuristiques de ωa, on peut calculer les Va à
partir de
Va =
Ta
.
1 + (ω a − 1)Va V
(357)
par itération, en commençant avec Vc = Tc. La dernière équation provient de l’unitarité de S.
Les deux prescriptions mènent à des résultats similaires pour les absorptions intermédiaires et
fortes (recouvrements moyens et importants entre les niveaux). La formule de Moldauer est commode
pour les voies groupées et, par construction, elle donne la limite correcte pour les recouvrements nuls
et pour les petits nombres de voies (non photoniques) à basse énergie où l’approximation par
factorisation n’est pas applicable. D’autres expressions analytiques approchées furent obtenus à partir
de modèles de haie (par exemple Janeva et al. 1985) et de modèles de haie désordonnés (Müller et
Harney 1987).
4.2.3 Sections efficaces partielles moyennes : moyenne exacte sur l’EGO
Des dizaines d’années durant, toutes les tentatives pour résoudre le problème de
Hauser-Feshbach échouèrent. Dans cette situation, le principe d’entropie maximale de l’information
théorique semblait offrir la possibilité de contourner tous les détails « microscopiques » des
résonances en les traitant comme un sorte de bruit superposé au comportement moyen
129
« macroscopique » décrit par le modèle optique. Les distributions de probabilité des éléments de
matrice-S et-R furent obtenue par la maximisation de l’entropie avec des contraintes imposées par des
moyennes S et R données (modèle optique) (Mello 1979, Mello et al. 1985, Fröhner 1986) qui
offrait en principe la possibilité d’obtenir les expressions moyennes des sections efficaces sur ces
distributions plutôt que sur l’EGO. En pratique, pour de nombreuses voies, cela semblait toujours très
difficile.
Seulement quelques mois après que les distributions d’entropie maximale des matrices-S et –R
furent publiées, Verbaarschot, Weidenmüller et Zirnbauer (1985) présentèrent une solution directe au
problème de Hauser-Feshbach pour trouver une expression analytique des sections efficaces partielles
moyennes, c’est-à-dire pour calculer analytiquement la moyenne sur les distributions de paramètres de
résonance de l’EGO, avec des coefficients de transmission connus. Ces auteurs partirent d’une
expression faisant intervenir un hamiltonien de l’EGO couplé avec les voies. Avec nos notations cela
se traduit par
2
S ab
= δ ab + i ∑ ~γ λa Aλµ ~γ µb ,
2
(A )
−1
(358)
λ ,µ
λµ
= H λµ − Eδ λµ − i ∑ ~γ λµ ~γ µc ,
(359)
c
2
qui est une généralisation de ce que donnent les équations (158)-(160) pour S ab . Le tilde indique
γ λa remplacent
que l’hamiltonien est sous sa forme générale, non diagonale, si bien que H λµ et ~
E λ δ λµ et γ λa dans l’équation (160). Avec une formidable démonstration de talent d’analyse, les
auteurs réussirent, à l’aide de nouveaux outils venant des systèmes désordonnés de la théorie à
plusieurs corps, à réduire la moyenne d’ensemble (valeur attendue) de S ab
2
sur l’EGO à une
intégrale triple. En utilisant complètement les propriétés symétriques de l’EGO, d’une fonction
génératrice impliquant à la fois des variables commutables et anti-commutables (grassmannienne), des
transformations de Hubbard-Stratonovitch pour simplifier les intégrations, puis en passant au cas
limite d’un nombre infini de niveaux ( n → ∞ pour le rang de H) par la méthode de la plus grande
pente, ils aboutirent sur l’impressionnante expression à trois intégrales
S ab
2
= S ab

× ∏
 c

2
∞
1
λ(1 − λ ) λ 1 − λ 2
Ta Tb ∞
+
λ
λ
λ
d
d
d
1
2
∫0 ∫0 λ (1 + λ ) λ (1 + λ )(λ + λ )2 (λ + λ )2
8 ∫0
1
1
2
2
1
2
2


 λ1
λ2
2λ 

δ ab (1 − Ta )

+
+
+
λ
+
λ
−
λ
T
T
T
1
1
1


a 1
a 2
a 




1 − Tc λ
λ 1 (1 + λ 1 )
λ 2 (1 + λ 2 )



+


1 + Tc λ 1 1 + Tc λ 2 
 (1 + Ta λ 1 )(1 + Tb λ 1 ) (1 + Ta λ 2 )(1 + Tb λ 2 ) 
+ (1 + δ ab )

2λ(1 − λ )

 +

(
)(
)
−
λ
−
λ
1
T
1
T

a
b

 (360)
pour le carré de la valeur absolue de l’élément de la matrice de collision qui pose problème avec ses
pôles situés en dessous et au dessus de l’axe réel dans le plan d’énergie complexe. Le produit des
130
voies permet un traitement similaire à la formule de Hauser-Feshbach pour les nombreuses voies de
photons faiblement absorbantes :
1 − Tc λ
∏
1 + Tc λ 1 1 + Tc λ 2
c
avec Tγ ≡
∑
c∈γ
≈e
− ( λ1 + λ 2 + 2 λ )Tγ 2
∏
c∉γ
1 − Tc λ
1 + Tc λ 1 1 + Tc λ 2
,
(361)
Tc comme dans l’équation (351).
Verbaarshot (1986) vérifia que pour la limite de faibles recouvrements entre niveaux, la triple
intégrale sur l’EGO (360) se ramène à la formule de Hauser-Feshbach (350) avec renforcement
élastique et correction des fluctuations des largeurs. Ainsi, la triple intégrale sur l’EGO est la solution
rigoureuse, longtemps recherchée, au problème de Hauser-Feshbach, éliminant toutes les incertitudes
associées au modèle de haie ou aux formules analytiques heuristiques inférées à partir des résultats
obtenus par méthode Monte Carlo. Ces incertitudes ont toujours été gênantes car les corrections des
fluctuations des largeurs sont souvent assez importantes (voir par exemple Lynn 1968, Gruppelaar et
Reffo 1977). Un point important est que, au dessus de quelques eV, les sections efficaces moyennes
sont pratiquement indépendantes de la température : les moyennes sur l’énergie font essentiellement
intervenir les sommes sur les aires des pics, et puisque celles-ci sont invariantes par élargissement
Doppler (dans les formalismes de Kapur-Peierls, Adler-Adler, MLBW et SLBW nous avons
∫ dE ψ
λ
= πΓλ 2 et
∫ dE χ
λ
= 0 , indépendamment de la température, voir annexe B), il en va de
même pour les sections efficaces moyennes. Ainsi, la triple intégrale sur l’EGO, valable pour des
résonances non élargies, donne également des moyennes correctes pour des résonances élargies par
effet Doppler.
4.2.4 Analyse de données moyennes
Les figures 20 à 22 montrent des données de section efficace totale, de capture et de diffusion
238
élastique moyennes pour U et des courbes théoriques ajustées simultanément sur toutes ces
données. L’ajustement a été réalisé par moindres carrés sur les paramètres de résonance moyens, à
savoir les fonctions densités neutroniques pour les ondes s, p, d et f (qui sont essentiellement les
coefficients de transmission dans le cas des voies neutroniques) et les largeurs radiatives pondérées
par l’espacement moyen (coefficients de transmission pour les voies groupées photoniques) avec le
code FITACS (Fröhner et al. 1982). Les principales dépendances en énergie sont introduites, pour les
largeurs neutroniques, par le facteur de pénétration de la barrière centrifuge Pc et par l’emploi de la
formule composite de Gilbert et Cameron (1965) de la densité de niveaux, alors que les fonctions
densités et les largeurs radiatives ne varient que faiblement dans l’intervalle d’énergie considéré. La
section efficace totale a été calculée avec les équations (347)-(348), les sections efficaces partielles
avec la formule de Hauser-Feshbach sous la forme proposée par Moldauer (1980), équations
(350)-(354), et contrôlée par la triple intégrale sur l’EGO, équations (360) et (361). Des ajustements
238
similaires sur bien plus de données de U définirent en fin de compte une nouvelle évaluation de
238
U dans le domaine des résonances non résolues qui fut adoptée dans les librairies de données
évaluées JEF-2 et ENDF/B-VI (Fröhner 1989). Les paramètres de résonances moyens ajustés sont
parfaitement en accord avec les paramètres des résonances résolues déterminés à basse énergie, et
également avec les calculs du modèle optique à plus haute énergie, jusqu’à 10 MeV. L’estimation de
l’erreur venant des ajustements par moindres carrés indique que, après des décennies d’efforts à
238
l’échelle mondiale, les sections efficaces totales et de capture de U dans le domaine des résonances
résolues sont finalement connues avec à peu près la précision requise pour les applications en
131
technologie nucléaire (1-3%). Pour les diffusions inélastiques, ce but n’est pas encore atteint, les
incertitudes étant encore de l’ordre de 5-15%.
Figure 20. Ajustement simultané de Hauser-Feshbach sur les données
238
neutroniques de U dans le domaine des résonances non-résolues :
section efficace totale (pour les références, voir Fröhner 1989)
Figure 21. justement simultané de Hauser-Feshbach sur les données neutroniques
238
de U dans le domaine des résonances non-résolues : section efficace de capture
(pour les références, voir Fröhner 1989). La discontinuité (pointe de Wigner) à
45 keV est due au démarrage de la diffusion inélastique à cette énergie. Les seuils
inélastiques sont indiqués par les caractéristiques spin-parité des niveaux résiduels
132
Figure 22. Ajustement simultané de Hauser-Feshbach sur les données neutroniques de
238
U dans le domaine des résonances non-résolues : section efficace de diffusion
inélastique (pour les références, voir Fröhner 1989). Les seuils inélastiques sont
indiqués par les caractéristiques spin-parité des niveaux résiduels
Avoir des sections efficaces moyennes précises n’est toutefois qu’une partie de l’histoire. L’autre
partie concerne la structure résonnante, c’est-à-dire les fluctuations dues aux résonances autour des
courbes de sections efficaces moyennes. Elles sont implicitement données par le modèle statistique
des niveaux, en particulier par les distributions EGO des espacements de niveaux et des largeurs
partielles en même temps que la valeur moyenne paramétrisant ces distributions. La présence de
structures résonnantes non résolues se manifeste dans les effets liés à l’épaisseur de l’échantillon et
d’auto-protection. Comme exemple le plus simple, considérons la relation entre la transmission
moyenne d’une couche de matière d’épaisseur n (atomes/barn) et la section efficace moyenne σ ,
e − nσ = e
−n σ
e
− n (σ − σ
)
=e
−n σ
 n2

1 +
var σ − +... .
2


(362)
Les dernières parenthèses représentent une correction pour les effets des résonances, contenant la
variance de la section efficace (moyenne du carré des fluctuations) et des moments plus élevés de la
distribution de la section efficace qui quantifient la structure résonnante. Pour la section efficace
moyenne, on obtient
σ =

1
1  n2
ln e −nσ + ln1 +
var σ − +... .
2
n
n 

(363)
Souvent, le premier terme du membre de droite est présenté par les expérimentateurs comme
étant la section efficace totale, mais la véritable moyenne apparaît être toujours supérieure. Alors que
la correction est faible pour les données résolues, elle devient importante pour les données moyennes.
133
Il est dangereux de calculer la transmission d’un écran à partir des sections efficace moyennes, par
exemple les sections efficaces multigroupes pour une dilution infinie, sans la correction pour les
fluctuations de la section efficace. La correction est importante pour des échantillons épais et pour des
sections efficaces très fluctuantes comme celles dans le domaine des résonances non résolues. Des
mesures de transmission d’échantillons épais peuvent par conséquent fournir une information sur la
structure résonnante. Si nous voulons comparer les expériences avec les calculs, nous devons
toutefois calculer la moyenne de la transmission sur les résonances. À la vue de l’expérience sur le
calcul de la moyenne dans l’EGO des sections efficaces partielles, nous nous attendons à des
problèmes encore plus graves pour la transmission moyenne. La difficulté d’avoir affaire à des
sections efficaces élargies par effet Doppler rend la difficulté insurmontable tant qu’une solution
analytique est envisagée.
Seule la variance de la section efficace peut être calculée théoriquement dans le cas où
l’élargissement Doppler n’est pas trop important (comme pour les noyaux légers et les matériaux de
structures tels que le fer ou le nickel). En calculant la moyenne avec une fonction de pondération
Lorentzienne et en utilisant la causalité, comme dans la dérivation de l’expression de la section
efficace, on trouve S cc2 = S cc et
(
)
var σ = 2πD 2 ∑ g c σ CN
− σ cnon ,
c
(
c
où σ CN
= πD 2 g c 1 − S cc2
c
modèle optique et
(364)
) est la section efficace habituelle de formation du noyau composé dans le
(
σ cnon = πD 2 g c 1 − S cc
2
) la section efficace moyenne non élastique de la
théorie de Hauser-Feshbach qui doit être calculée à partir des coefficients de transmission du modèle
optique, soit dans l’approximation SLBW à plusieurs niveaux, équation (350), soit plus
rigoureusement avec la triple intégrale sur l’EGO, équation (360). La Figure 23 montre les
56
fluctuations quadratiques moyennes relatives calculées de cette manière pour Fe ainsi que les
valeurs obtenues directement de récentes données de transmission à haute résolution. L’accord est
raisonnable si l’on tient compte du fait que l’équation (364) n’est exacte que pour des réactions
purement par noyau composé et pour des élargissements par effet de Doppler ou par résolution
négligeables, chacun d’eux tendant à réduire les fluctuations dues aux résonances.
134
Figure 23. Fluctuations quadratiques moyennes relatives de la section efficace totale du fer
( ∆σ = var σ ). Ligne continue : calcul avec l’équation (364). Ligne en tirets : calcul avec les
processus non élastiques négligés. Cercles vides : valeurs obtenues directement de données
prises avec une très haute résolution (Berthold et al. 1994). D’après Fröhner (1994)
Alors que les expressions analytiques générales pour des fonctions de sections efficaces
moyennes ne sont pas disponibles, il est parfaitement possible de les calculer par des méthodes de
Monte Carlo. Un exemple est montré sur la figure 24, où des données de transmission d’un
échantillon épais mesurées à température ambiante sont comparées avec les courbes calculées par
Monte Carlo. Des « échelles » de résonances furent définies en échantillonnant les espacements entre
résonances à partir des distributions de Wigner et les largeurs partielles à partir des distributions de
Porter et Thomas, avec des paramètres de résonance moyens pris dans l’évaluation JEF-2. La section
efficace totale correspondante a été calculée, élargie par effet Doppler, mise sous forme exponentielle
et sa valeur moyenne a été prise. De cette façon 100 000 valeurs de transmission ont été
échantillonnées et leur moyenne a été calculée pour chaque donnée ponctuelle, si bien que l’erreur
statistique des résultats par Monte Carlo est négligeable comparée à l’incertitude sur les données. Le
bon accord entre l’expérience et le calcul dans la figure 24 indique que l’évaluation JEF-2 décrit bien
non seulement la section efficace totale (voir figure 20) mais également sa structure résonnante, par
exemple le rapport des sections efficaces résonnantes (réactions par noyau composé) sur celles de
diffusion potentielle (réactions directes), et les « fenêtres ».
135
Figure 24. Données de transmission d’un échantillon épais de Bokhovko et al.
(1988) (points) et courbes générées avec les techniques de Monte Carlo à partir
des paramètres de résonance moyens de JEF-2 (lignes continues). Les courbes
de transmission obtenues sans correction de structure résonnante sont
également représentées (lignes en tirets). D’après Fröhner (1991)
Plus d’informations sur la structure des sections efficaces sont obtenues des mesures
d’auto-indication. Celles-ci diffèrent des mesures de transmission seulement par le fait que le
détecteur mesurant la fraction transmise des neutrons du faisceau est un échantillon mince
(« émetteur »), constitué de la même matière que l’échantillon épais (« filtre ») de transmission, et
regardé par des détecteurs de rayonnements gamma. Des expériences « avec filtre » et « sans filtre »,
on obtient le taux d’auto-indication
e −nσ σ γ
σγ


cov(σ, σ γ )
= e − nσ 1 − n
+ −...


σγ


(365)
qui fait intervenir la covariance entre la structure des sections efficaces totales et de capture,
(
cov(σ, σ γ ) ≡ (σ − σ ) σ γ − σ γ
)=
σσ γ − σ σ γ .
(366)
(Pour une covariance positive, les deux arguments tendent à varier dans le même sens – si l’un
augmente, l’autre va également vraisemblablement augmenter – pour une covariance négative, ils
tendent à varier dans des sens opposés). En pratique, les émetteurs ne sont pas idéalement fins, si bien
que la section efficace de capture σγ doit être remplacée par le taux de capture yγ qui tient compte de
l’auto-protection et des captures après collisions multiples. Les deux effets nécessitent des techniques
de Monte Carlo, on doit, en plus de l’échantillonnage d’échelle, simuler maintenant des événements
de collisions multiples dans l’émetteur (pour plus de détails voir Fröhner 1989a). La figure 25 montre
que les données mesurées et les résultats par Monte Carlo sont à nouveau en bon accord, indiquant
que la structure de la section efficace de capture est également correctement représentée par les
paramètres de résonance moyens de l’évaluation JEF-2.
136
Figure 25. Rapports d’auto-indication mesurés par Bokhovko et al. (1988)
(points) et courbes générées avec les techniques de Monte Carlo à partir des
paramètres de résonance moyens de JEF-2 (lignes continues). Les rapports
obtenus sans tenir compte de l’auto-protection des résonances et des diffusions
multiples sont également représentés (lignes en tirets). D’après Fröhner (1991)
4.3 Constantes de groupes
Nous avons vu que pour une section efficace totale moyenne donnée, la transmission moyenne
(dans un intervalle d’énergie fini contenant un grand nombre de résonances) d’un échantillon épais est
plus grande si la section efficace fluctue que si elle est lisse (voir équation 362). Cela signifie que
l’échantillon devient moins transparent à mesure que la température augmente, dû à l’effet lissant de
l’élargissement Doppler. (L’expansion thermique de l’échantillon contrecarrant cet effet dans une
certaine mesure). Dans une région du réacteur remplie d’un mélange d’éléments, une augmentation de
238
la température fait que les réactions (n,x), par exemple les réactions (n,γ) dans U, deviennent plus
probables car le creusement du flux au niveau des résonances (cf. Figure 9) devient plus faible à
mesure que la structure résonnante est lissée. Afin de calculer ces effets complexes, il est plus simple
d’utiliser des constantes multigroupes, c’est-à-dire des sections efficaces moyennes judicieusement
choisies. Le taux de réaction (n,x) pour un noyau donné, dont la moyenne est calculée sur la région et
sur un intervalle d’énergie fini (de groupe) ∆E, peut être écrit comme
ϕσ x = f x σ x ϕ
avec
... ≡ ∫
∆E
dE
...
∆E
(367)
Les bornes des groupes sont généralement prises équidistantes sur une échelle d’énergie
logarithmique, c’est à dire une échelle linéaire en léthargie, si bien qu’il y a toujours le même nombre
de groupes par décade d’énergie. La section efficace σx est considérée élargie par effet Doppler.
Puisque σ x ne dépend pas de la température (à part les effets de bords aux extrémités des groupes
qui deviennent négligeables si l’intervalle de groupe contient beaucoup de résonances), la principale
137
dépendance en énergie, pour un flux donné, est contenue dans ce qu’on appelle le facteur
d’auto-protection ou de Bondarenko fx.
4.3.1 Facteurs de Bondarenko
Le facteur d’auto-protection dépend non seulement de la température mais aussi des sections
efficaces de tous les autres noyaux du mélange, ce qu’on appelle la dilution. Les données contenues
dans les jeux de constantes de groupe pour les applications technologiques sont (cf. par exemple
Bondarenko et al. 1964)
•
Les sections efficaces pour une dilution infinie
•
Les facteurs d’auto-protection
σx ,
fx =
ϕσ x
ϕ σx
,
classées pour chaque noyau sur une grille de températures et de sections efficaces de dilution σd, par
exemple
T = 300, 900, 1 500, 3 100 K,
σd = 0, 1, 10, 100, 1 000, 10 000, 100 000, 1 000 000 b.
La section efficace de groupe auto-protégée
σx ≡ f x σ x
(368)
est définie afin que la multiplication avec le flux moyen ϕ sur le groupe donne le taux de réaction
correct. Avec la définition de la covariance, on peut écrire
 ϕ σx
f x = 1 + cov
,
 ϕ σx




(369)
Le flux étant faible lorsque la section efficace est grande, les deux grandeurs sont anticorrellées,
la covariance est négative, et donc fx<1. D’un autre côté, fx doit être positive car autrement le taux de
réaction moyen deviendrait négatif. Il s’ensuit (au moins dans le cas d’un grand nombre de niveaux
compris dans l’intervalle de groupe) qu’on a 0<fx<1. Nous pouvons être plus explicite en invoquant
l’approximation de résonance étroite, valable dans le cas important où les résonances sont étroites
comparativement à l’énergie moyenne perdue par les neutrons diffusés. Avec cette approximation, le
flux est proportionnel à l’inverse de la section efficace totale macroscopique, ϕ ∝ 1 (σ + σ d ) , où
σ = ∑ x σ x est la section efficace totale du noyau considéré. Nous avons donc dans le cadre de
l’approximation de résonance étroite
fx =
σ x (σ + σ d )
σ x 1 (σ + σ d )
∫
=
∞
0
dn e − nσ d e − nσ σ x
∫
∞
0
dn e
− nσ d
e
− nσ
138
σx
,
(370)
Puisque σd est une constante dans le modèle de Bondarenko, on remarque que f x → 1 si
T → ∞ (section efficace totale lisse) ou σ d → ∞ (dilution infinie). C’est pourquoi σ x
est
appelée section efficace de groupe en dilution infinie (ou section efficace de groupe non protégée).
Pour les groupes contenant de nombreuses résonances, c’est la section efficace moyenne au sens
habituel. La dernière expression montre de quelle façon les facteurs d’auto-protection sont reliés aux
rapports d’auto-indication, équation (365) et aux transmissions moyennes, équation (362). Si ces
dernières quantités peuvent être prédites précisément pour les échantillons épais, le facteur
d’auto-protection peut également l’être. Avec les résultats présentés sur les figures 15 et 16, et du fait
de la corrélation positive entre le numérateur et le dénominateur dans la dernière équation, on en
238
conclut que les facteurs d’auto-protection pour le domaine des résonances non résolues de U
peuvent être calculés avec une précision de 1-2% à partir des paramètres de résonance moyens de
JEF-2.
4.3.2 Méthodes analytiques et de Monte Carlo pour la génération de constantes de groupe
La technique de génération des constantes de groupe la plus importante pratiquement est la
méthode analytique (Fröhlich 1965, Hwang 1965). Les moyennes dans la dernière expression sont
calculées en se fondant sur la statistiques des niveaux dans l’approximation des résonances étroites.
La version la plus simple comprend les approximations supplémentaires suivantes :
•
Les sections efficaces sont écrites sous forme de sommes de termes SLBW (approximation
de Breit et Wigner à « plusieurs niveaux »).
•
L’élargissement Doppler est décrit par les profils de Voigt symétriques et asymétriques ψet χ.
•
L’interférence entre les diffusions résonnante et potentielle (termes avec χ) est négligée.
•
Les moyennes de la statistique des niveaux sont calculées pour chaque séquence de niveaux
avec les autres séquences représentées approximativement par une section efficace lisse
incluse dans σd.
Le résultat peut s’écrire sous la forme
σx = f x σ x

ΓJ
= (σ p + σ d )1 − ∑

Ds
s

s




−1
∑D
s
Γx J
s
s cos 2ϕ s
,
où σp est la section efficace de diffusion potentielle du noyau considéré, ...
(371)
s
réfère à une moyenne
sur toutes les largeurs partielles pour la séquence du s-ème niveau, les sommations se font sur toutes
les séquences, et J est l’intégrale
∞
J (κ, β) ≡ ∫ dx
0
ψ ( x, β )
,
ψ ( x, β ) + κ
(372)
introduite par Dresner (1960). Elle fait intervenir les profils symétriques de Voigt (comparer
l’équation 244 et l’annexe B)
139
  x − y  2  dy
 
,
ψ ( x, β ) =
2
∫ exp− 
β π −∞   β   1 + y
∞
1
(373)
où β ≡ 2 ∆ Γ est la largeur Doppler avec comme unité la demi-largeur à mi-hauteur, Γ/2, et
x ≡ 2 ( E − E 0 ) Γ est la distance par rapport au pic de la résonance à E0 avec la même unité. En
outre,
κ=
σd + r
,
σˆ
(374)
σˆ = 4πD 2 g
Γn
cos 2ϕ ,
Γ
(375)
avec r décrivant approximativement la répulsion des valeurs propres. C’est la méthode la plus rapide
existante pour la génération de constante de groupe. Elle est employée dans de nombreux codes
d’utilisation répandue, tels que ETOX (Schenter et al. 1969), MIGROS (Broeders et Krieg 1977),
NJOY (MacFarlane et al. 1982), et GRUCON (Sinitsa 1983).
La méthode du ralentissement utilise des mailles de résonances échantillonnées par Monte Carlo
de sorte que le calcul des taux de réaction moyens peut se réduire au cas des résonances résolues. Le
code TIMS (Takano et al.) en est un exemple. Les mailles de résonances échantillonnées par Monte
Carlo sont également utilisées dans les méthodes de sous-groupes/multibandes dont Nikolaiev et al.
(1970) et Cullen (1974) furent les pionniers (voir également Ribon et Maillard 1986). On classe, pour
chacun des quelques (par exemple 4) sous-groupes/bandes, les poids αi et les moyennes sur les bandes
σi, σxi représentant de manière grossière la distribution des sections efficaces dans le groupe en
énergie. Ils doivent être déterminés en ajustant les moyennes obtenues à partir des sections efficaces
dans les groupes de la manière suivante
σ x = ∑ α i σ xi ,
(376)
i
σx
σ + σd
=∑
i
σ = ∑ α i σi ,
(377)
i
α i σ xi
,
σi + σ d
(378)
1
σ + σd
=∑
i
αi
.
σi + σ d
(379)
La méthode des sous-groupes/multibandes est essentiellement une variante grossière mais
efficace de la méthode des tables de probabilité (Levitt 1972) où l’on génère, à partir des mailles de
résonances échantillonnées, la densité complète de probabilité à plusieurs variables
p(σ, σ n , σ γ ,...) = p(σ ) p(σ n σ ) p(σ γ σ, σ n )... .
(380)
La distribution de la section efficace totale, p(σ), est enregistrée avec les probabilités
conditionnelles p σ n σ , p σ γ σ, σ n etc. sous une forme discrète judicieuse, de manière à ce que ce
(
) (
)
soient les sections efficaces macroscopiques (pondérées par l’abondance isotopique, élargies par effet
Doppler), plutôt que les paramètres de résonance, qui puissent être directement échantillonnées.
140
5.
CONCLUSIONS
La première partie de cette vue générale est dédiée aux outils probabilistes des évaluateurs de
données, avec l’objectif de faire prendre conscience aux lecteurs à quel point la théorie moderne des
probabilités a fait avancer et simplifier le traitement des incertitudes des données, en particulier par
rapport à l’utilisation de la connaissance a priori, à l’attribution de probabilités représentant une
information vague ou globale, et au traitement des erreurs systématiques et des corrélations qu’elles
induisent – des domaines où la stastique conventionnelle n’apporte pas grand-chose. Le principe
Bayésien, consistant à apprendre à partir des observations, est illustré à l’aide d’applications typiques
de statistiques de comptage, d’évaluation de données et d’ajustement par des modèles. L’estimation
de paramètre Bayesienne ne laisse aucune place pour des suppositions à propos des « estimateurs » et
de leurs propriétés plus ou moins désirables (absence de biais, suffisance, efficacité, admissibilité,
etc.), une fois que l’a priori, le modèle statistique et la fonction de perte sont spécifiés. L’estimation
optimale par perte quadratique consiste en la valeur moyenne et le carré de l’erreur quadratique
moyenne (a posteriori) (ou pour des problèmes à plusieurs variables, le vecteur de moyenne et la
matrice de covariance) plutôt que les modes ou médianes et les intervalles de confiance fréquencistes.
La méthode des moindres carrés apparaît comme une conséquence naturelle du principe du maximum
d’entropie de l’information théorique dans les cas pratiques les plus importants, où ce que nous avons
en entrée sont des données avec des erreurs types (erreurs quadratiques moyennes) et, peut être, des
corrélations. La généralisation à des modèles non linéaires est directe. Il y a eu également quelques
progrès par rapport aux données incompatibles mais il est toujours nécessaire d’approfondir ce point.
Le format ENDF utilisé mondialement pour les données évaluées de réactions nucléaires n’est pas
encore satisfaisant pour l’enregistrement de l’information incertitude. L’enregistrement, plus évident
intuitivement, des erreurs types et des coefficients de corrélation plutôt que des variances et
covariances, difficiles à utiliser et sources d’erreurs, devrait être admise et encouragée.
Le reste de l’ouvrage est dédié spécifiquement à l’évaluation des données dans le domaine des
résonances résolues et non résolues. Les relations intimes entre la théorie de la matrice-R, le modèle
statistique des réactions résonnantes, la théorie de Hauser-Feshbach avec corrections des fluctuations
des largeurs et le modèle optique sont expliquées. L’élargissement Doppler est traité de manière assez
détaillée pour le cas important des formalismes pratiques des résonances et pour les sections efficaces
tabulées. Des effets expérimentaux tels qu’élargissement par la résolution expérimentale, autoprotection et diffusions multiples, bruit de fond et impuretés sont également discutées. L’exposé
entier est bref par nécessité, mais il est espéré que suffisamment de matière et de références sont
présentées pour offrir aux nouveaux venus et non spécialistes un point de départ adéquat pour des
études plus poussées et un travail de spécialiste. Il y a un besoin considérable, plus particulièrement
dans le domaine des résonances non résolues, de développement de méthodes et de programmes aussi
bien pour les réacteurs à fission qu’à fusion. L’estimation des niveaux manquants est toujours
essentiellement basée sur l’approximation du maximum de vraisemblance telle que décrite par
Fröhner (1983). Une approche Bayesienne plus rigoureuse semble faisable et utile, mais doit être
menée à bien. Ceux qui sont particulièrement intéressés par l’analyse et l’évaluation des résonances
ou dans un traitement rigoureux par la matrice-R du modèle optique sphérique trouverons des
informations supplémentaires dans les comptes rendus de l’ITCP 1988 (Fröhner 1989a). Les
141
méthodes et procédures d’évaluation des données nucléaires ont également été discutées de manière
très approfondies, en insistant sur l’expérience pratique, par Poenitz (1981) et Bhat (1981).
Remerciements
J’adresse mes plus sincères remerciements à P. Finck (maintenant à l’ANL) qui m’invita à
Cadarache, à J. Jacqmin (CEA Cadarache) et C. Nordborg (NEADB) qui organisèrent une visite de
quatre mois, à P. Bioux (EDF) qui m’empressa d’écrire ce papier, et à O. Bouland et E. Fort ainsi
qu’aux autres collègues qui rendirent ma visite à Cadarache scientifiquement utile, gratifiante et
généralement agréable.
142
Annexe A
Distributions de probabilités d’importance pratique
Dans cette annexe, nous passons rapidement en revue les distributions de probabilité qui sont les
plus importantes dans l’évaluation et l’analyse des données nucléaires, avec leurs estimations de
paramètres par perte quadratique (moyennes et variances). Les notations sont les suivantes :
P( A I )
probabilité de A connaissant l’information I
p(x I )dx
probabilité infinitésimale de x dans dx sachant I, avec la densité de probabilité
p (x I ) .
Distributions à une seule variable
x
moyenne (valeur attendue)
(
var x ≡ x − x
2
)=
x2 − x
2
∆x ≡ var x
variance (carré de l’erreur quadratique moyenne)
écart type (erreur quadratique moyenne ou erreur type)
Distributions à plusieurs variables
x
vecteur de moyenne
d (x ) = ∏ν dxν
C ≡ (x − x )(x − x
élément de volume dans l’espace des x
)
T
matrice de covariance
C µν = ∆xµ ρ µν ∆xν
élément de la matrice de covariance
ρ µν = ρ νµ
coefficient de corrélation
( − 1 ≤ ρ µν ≤ +1,
143
ρ νν = 1 )
Le T indique la transposée (conjugaison hermitique des vecteurs et matrices réels). Les valeurs
attendues sont notées par des parenthèses angulaires, x , les moyennes sur l’échantillon par une
barre, x .
A.1 Distributions binomiale et bêta
Applications :
Schéma de Bernouilli avec deux solutions possibles (réussite ou échec, parité positive ou
négative, niveau de fermion occupé ou non, …).
Distribution d’échantillonnage (probabilité de succès, en une tentative) :
P(11, θ) = θ .
(A1)
Fonction de vraisemblance pour s succès en n tentatives (distribution binomiale) :
n
n−s
P(s n, θ) =  θ s (1 − θ)
s
s = 0,1,2,...n ≥ 1 .
(A2)
Cas 1 :
Ignorance totale à propos du paramètre θ, admettant même la possibilité qu’il n’y ait qu’une
seule alternative, θ = 0 ou 1.
A priori le moins informatif (théorie des groupes) (règle de Haldane, voir Jaynes 1968) :
p(θ)dθ ∝
dθ
,
θ(1 − θ)
0 ≤ θ ≤ 1.
(A3)
A posteriori (distribution bêta) :
p(θ s, n )dθ = B(s, n − s ) θ s −1 (1 − θ)
−1
n − s −1
dθ
0 ≤ θ ≤ 1,
(A4)
avec B ( x, y ) ≡ Γ( x ) Γ( y ) Γ( x + y ) (fonction bêta) et, pour x = n entier, Γ(n ) = (n − 1)! (fonction
gamma). Estimations des paramètres par perte quadratique :
θ=
s
,
n
(A5)
var θ =
1 s s
1 −  .
n +1 n  n 
(A6)
Tant qu’il n’y a que des succès ou que des échecs, la probabilité reste strictement concentrée à
θ = 1 ou θ = 0, avec une variance nulle. Dès qu’il y a au moins un succès (s≥1) et un échec (n - s ≥1),
d’autres valeurs attendues sont obtenues et la variance devient finie.
144
Cas 2 :
S’il n’y a pas de doute a priori, qu’on ait affaire à un pur schéma de Bernouilli à deux
alternatives, l’a priori approprié est égal à ce que donnerait l’équation (A4) après l’observation d’un
succès et d’un échec (règle de Bayes-Laplace) :
p(θ)dθ = dθ ,
0 ≤ θ ≤ 1.
(A7)
A posteriori (distribution bêta) :
p (θ s, n )dθ =
(n + 1)! θ s (1 − θ)n− s dθ ,
(n − s )!s!
0 ≤ θ ≤ 1.
(A8)
Estimation par perte quadratique :
θ=
s +1
,
n+2
(A9)
var θ =
1 s +1 
s +1 
1 −
.
n +3 n+ 2 n+ 2
(A10)
(A9) est la règle de succession de Laplace.
A.2 Distributions gamma et de Poisson
Applications :
Décroissance radioactive, statistique de comptage, événements rares avec un taux d’occurrence
moyen constant.
Intervalle de temps moyen
t =τ
(A11)
Distribution d’entropie maximale avec cette contrainte et paramètre de Lagrange λ :
p(t τ )dt = e λt λdt ,
0<t <∞
(A12)
(distribution exponentielle d’intervalles) avec
t = τ = 1 λ = ∆t .
(A13)
Probabilité pour n événements entre 0 et t, dans des intervalles arbitraires mais ordonnés en
temps dt1, dt2,…dtn (distribution de Poisson) :
145
P(n λ, t ) = e
− λt
tn
t
λ
n
∫ dt ∫ dt
n
0
= e −λt λn
t2
n −1
0
t
...∫ dt1
0
t
t
1
dt n ∫ dt n −1 ...∫ dt1
n! ∫0
0
0
e −λt (λt )
=
,
n!
(A14)
n
n = 0,1,2,... ,
avec les valeurs attendues
n = λt ,
(A15)
var n = λt .
(A16)
A priori pour le taux λ (a priori de Jeffreys pour les paramètres d’échelle)
p (λ )dλ ∝ d ln λ =
dλ
,
λ
0<λ <∞.
(A17)
La fonction de vraisemblance de n événements durant un temps d’observation t est la distribution
de Poisson (A14).
A posteriori (distribution gamma) :
p(λ t , n )dλ =
e − λt (λt ) dλ
,
Γ(n ) λ
n
0<λ <∞.
(A18)
Estimation par perte quadratique :
λ = var λ =
n
,
t
(A19)
∆λ
1
.
=
λ
n
(A20)
Remarque :
A posteriori et estimation sont identiques si le nombre d’événements n et le temps d’observation t
ont été accumulés durant plusieurs mesures distinctes (runs).
A.3 Gaussienne à une variable
Applications :
Erreurs inconnues, fluctuations incontrôlables, propagation d’erreur, combinaison de données
d’origines diverses, etc., valable si un grand nombre de composantes indépendantes agissent ensemble
(théorème de la limite centrale) ou si seuls les moyennes et les écarts-types sont connus (principe du
maximum d’entropie) avec des erreurs ou des écarts possibles compris entre –∞ et +∞.
La distribution d’échantillonnage (probabilité des écarts ou des erreurs x – µ possibles,
connaissant la valeur réelle µ et l’écart-type σ) :
146
 1  x − µ 2 
exp − 
  dx ,
2πσ 2
 2  σ  
p(x µ, σ )dλ =
1
−∞ < x < ∞.
(A21)
Fonction de vraisemblance des valeurs x dans dx1, … dxn à x1,…xn :
p (x1 ,...x n µ, σ )dx1 ...dx n =
=
1
(2πσ )
2 n2
1
(2πσ )
2 n2
 1
exp − 2
 2σ
∑ (x
 ns ’2
exp− 2
 2σ
  x − µ  2  
  dx1 ...dx n .
1 + 
  s ’   
n
j =1
j
2
− µ )  dx1 ...dx n

(A22)
Ceci dépend de l’échantillon uniquement au travers de la moyenne de l’échantillon et de la
variance de l’échantillon,
x≡
1 n
∑xj ,
n j =1
s ’2 ≡
(A23)
1 n
(x j − x )2 = x 2 − x 2 .
∑
n j =1
(A24)
Cas 1 :
Paramètre de position µ et paramètre d’échelle σ tous deux inconnus.
A priori le moins informatif (théorie des groupes) :
p(µ, σ )dµdσ ∝
dµdσ
,
σ
−∞ <µ <∞,
0<σ<∞ .
(A25)
A posteriori
p (µ ,σ x , s’ , n )
= p (u v , n )du p (v n )dv =
(
exp − vu 2
π
[(
)
v du
) ][(
exp(− v )v (n −1) 2 dv
Γ n2−1
v
( )
)]
exp − 1 + u 2 v 1 + u 2 v
= p (v u , n )dv p (u n )du =
Γ n2
µ−x
−∞ <u ≡
<∞,
s’
()
ns ’2
0<v≡
<∞ .
2σ 2
n2
dv
du
1
n
1
−
v B ,
1+ u2
2
2
(
)(
)
n2
,
(A26)
Les deux factorisations correspondent aux deux formes de la règle fondamentale de
multiplication pour les probabilités conjointes.
La distribution marginale de u ( distribution t de Student avec t = u n − 1 , n – 1 degrés de liberté) :
p(u n )du =
(
du
)(
B 12 , n2−1 1 + u 2
)
n2
,
−∞<u < ∞ .
147
(A27)
et de v (distribution gamma ou du χ2 avec χ 2 = 2v , n – 1 degrés de liberté) :
( n −1 ) 2
e −v v
p(v n )dv =
Γ n2−1
( )
dv
,
v
0<v<∞ .
(A28)
Estimation de paramètre par perte quadratique : avec les distributions marginales on trouve
facilement u , v , var u , var v et les estimations
µ = x,
(A29)
n − 1 −2
s’ ,
n
σ −2 =
var µ =
(A31)
s ’2
,
n−3
var σ − 2 = 2
(A30)
n − 1 −4
s’ .
n2
(A32)
Les paramètres estimés ne sont pas corrélés, cov(u , v ) = uv − u v = 0 entraînant que
(
)
cov µ, σ −2 = 0 .
(A33)
Cas 2 :
Si σ est connu, l’a priori est simplement
p(µ σ, n )dµ =
 (µ − x )2 
exp −
 dµ ,
2
2πσ 2 n
 2σ n 
1
−∞ <µ <∞.
(A34)
σ2
.
n
(A36)
Estimation par perte quadratique :
µ = x,
(A35)
var µ =
Cas 3 :
Mesures de m répétées, sans corrélations entre elles, dont les résultats sont donnés sous la forme
x1 ± σ1 ,...x n ± σ n .
Distribution d’échantillonnage d’entropie maximale :
(
)
p x j σ j dx j =
 1  x − µ 2 
j
  dx j ,
exp − 

 
2
2
σ

2πσ j
j

 

1
− ∞ < xj < ∞ .
(A37)
Fonction de vraisemblance :
 1 n  x − µ 2 
j
  dx1 ...dx n .
p(x1 ,...x n µ, σ1 ,..., σ n )dx1 ...dx n ∝ exp − ∑ 

 2 j =1  σ j  


148
(A38)
A posteriori :
(
)
p µ {x j , σ j } dµ =
 (µ − x )2 
exp −
 dµ ,
2
2 πσ 2 n
 2σ n 
1
−∞ <µ <∞,
(A39)
où les barres supérieures réfèrent aux moyennes pondérées sur l’échantillon (sur les mesures),
∑σ x
x≡
∑σ
−2
j
j
j
j
−2
j
,
σ
(A40)
2
∑σ σ
≡
∑σ
−2
j
j
j
2
j
−2
j
=
n
.
−2
σ
∑j j
(A41)
Estimation par perte quadratique :
µ = x,
var µ =
(A42)
σ2
.
n
(A43)
A.4 Gaussienne à plusieurs variables
Applications :
Propagation des erreurs corrélées, ajustement par moindres carrés dans les espaces
multidimensionnels des échantillons et des paramètres. Les dérivations suivent étroitement celles de
la Gaussienne à une variable, donnant lieu à des expressions vectorielles et matricielles de formes
similaires. Les indices en Roman (j,k) indiquent les essais ou les membres de l’échantillon, les indices
en Grec (ν, κ) indiquent les paramètres (coordonnées cartésiennes dans l’espace des paramètres).
Distribution d’échantillonnage (probabilités des écarts ou erreurs vectoriels possibles x – µ,
connaissant le vrai vecteur µ et la matrice de covariance C) :
p (x µ, C)d (x ) =
 1

T
exp − (x − µ ) C −1 (x − µ ) d (x ) ,
det (2πC)
 2

1
− ∞ < xν < ∞ .
(A44)
Vraisemblance des vecteurs x dans d(x1),…d(xn) à x1,…xn :
p(x1 ,...x n µ, C)d (x1 )...d (x n )
=
=
1
det (2πC)
n2
1
n2
det (2πC)
 1 n

T
exp − ∑ (x j − µ ) C −1 (x j − µ ) d (x1 )...d (x n )
 2 j =1

 n

T
exp − tr C C -1 + (x − µ ) C −1 (x − µ )  d (x1 )...d (x n )
 2

[(
(A45)
]
)
Ceci ne dépend de l’échantillon qu’au travers du vecteur de moyenne de l’échantillon et de la matrice
de covariance de l’échantillon,
x=
1 n
∑x j ,
n j =1
(A46)
C≡
1 n
(x j − x )(x j − x )T = xxT − xxT .
∑
n j =1
149
(A47)
Cas 1 :
Paramètres de position µν et éléments de matrice de covariance Cνν’ = σνρνν’σν’ inconnus.
A priori le moins informatif (théorie des groupes) dans l’espace des paramètres à m dimensions
(ν = 1, …m) :
p(µ, C)d (µ )d (C) ∝
− ∞ < µν < ∞ ,
( )
d (µ )d (C)
d (µ )d C −1
=
,
det C ( m+1) 2 det C −( m+1) 2
0 < σ ν2 ≡ C νν < ∞ ,
C νν ’
− 1 < ρ νν ’ ≡
C νν C ν ’ν ’
< +1
(A48)
2
A posteriori : avec les égalités exp(-tr V) = det{exp(-V)} et det(1 + uuT) = 1 + uTu = 1 + u , on trouve
(
p µ , C x, C , n
)
= p(u V, n )d (u ) p(V n )d (V )
=
(
)
{
}
( )
d (V )
det V ( m +1) 2
) ][(
) ]
exp − u T Vu d (u ) det exp(− V )V (n −1) 2
(
det πV
-1
)
π
m ( m −1) 4
∏
= p(u n )d (u )d (u ) p (V u, n )d (V )
(1 + u )
=
2 −n 2
∏
m
ν =1
B
{ [
m
Γ
ν =1
(
n −ν
2
d (u ) det exp − 1 + uu T V 1 + uu T V
( )
π m( m −1) 4 ∏ν =1 Γ
1 n −1
,
2 2
m
( )
n2
(A49)
}
n +1− ν
2
d (V )
det V (m +1) 2
où, par analogie avec le cas à une variable, nous définissons le vecteur
u ≡ S’−1 (µ − x ) ,
− ∞ < uν < ∞ ,
(A50)
et la matrice réelle symétrique définie positive (valeurs propres réelles positives)
V≡
n
S’C −1S’ ,
2
0 < det V < ∞ ,
(A51)
avec la matrice réelle symétrique définie positive S’ définie par
C = S’2
(A52)
(dans le système des axes principaux de C ). Les deux factorisations correspondent aux deux formes
de la règle fondamentale de multiplication pour les probabilités conjointes.
La distribution marginale pour u (distribution t à plusieurs variables)
(1 + u )
p (u n )d (u ) =
2 −n 2
∏
m
B
ν =1
d (u )
( )
(A53)
1 n −1
,
2 2
et pour V (distribution gamma à plusieurs variables ou distribution de Wishart)
150
p(V n )d (V ) =
{
det exp(− V )V (n −1) 2
π m( m −1) 4 ∏ν =1 Γ
m
}
( )
n −ν
2
d (V )
.
det V ( m +1) 2
(A54)
Estimation des paramètres par perte quadratique : avec la distribution marginale, on trouve u ,
uu T , V et finalement
µ = x,
C −1 =
(µ − x )(µ − x )T
(A55)
=
C
,
n−m−2
n − 1 −1
C .
n
(A56)
(A57)
Cas 2
Si C est connue, l’a posteriori est simplement
 n

T
exp − (µ − x ) C −1 (µ − x ) d (µ ) , − ∞ < µ ν < ∞ .
det (2π C n )
 2

p (µ C, n )d (µ ) =
1
(A58)
Estimation par perte quadratique :
µ = x,
(µ − µ )(µ − µ )
T
(A59)
=
C
.
n
(A60)
Cas 3 :
Mesures répétées de µ, sans corrélations entre elles, dont les résultats sont donnés sous la forme
des vecteurs xj et des matrices de covariance Cjk (j,k = 1,…n).
Définitions :
 x1 
 
x 
x ≡  2 ,
M
 
x 
 n
 C11

C
C ≡  12
M

C
 1n
(A61)
C12
C 22
M
C 2n
L C1n 

L C 2n 
.
O M 

L C nn 
(A62)
Vraisemblance :
p(x µ, C)d (x ) ∝ e −Q 2 d (x ) ,
(A63)
où
( ) (x
Q = ∑ (x j − µ ) C −1
T
j ,k
[( )
= ∑ tr C −1
j ,k
[(
jk
jk
k
− µ)
(µ − x k )(µ − x j )T ]
) ]
(A64)
= n tr xx T − xx C −1 + n(µ − x ) C −1 (µ − x ).
T
T
151
Les barres supérieures indiquent des moyennes pondérées sur l’échantillon (sur les mesures),

x ≡  ∑ C −1
 j ,k
( )


jk 


xx ≡  ∑ C −1
 j ,k
( )
T

C ≡  ∑ C −1
 j ,k
( )
−1
∑ (C )
−1


jk 



jk 

jk
xk ,
(A65)
j ,k
−1
−1
∑ (C )
−1
jk
x k x Tj ,
(A66)
j ,k
∑ (C ) (C )
−1
−1
jk
j ,k
jk
C jk

= n ∑ C −1
 j ,k
( )


jk 

−1
(A67)
A posteriori :
p(µ x, C)d (µ ) =
 n

T
exp − (µ − x ) C −1 (µ − x ) d (µ ) , − ∞ < µ ν < ∞ .
 2

det (2π C n )
1
Estimation par perte quadratique :
µ = x,
(A69)
(µ − µ )(µ − µ )
T
152
=
C
.
n
(A70)
(A68)
Annexe B
Propriétés mathématiques des profils de Voigt ψ et χ
Les formes élargies par effet Doppler des résonances isolées peuvent être décrites par les profils
de Voigt ψ(x,β) et χ(x, β). Les arguments
x≡
E − E0
,
Γ2
β≡
(B1)
∆
Γ2
(B2)
dépendent de l’énergie de la résonance E0, de la largeur totale Γ, de la largeur Doppler ∆ (voir
équation 110) et de l’énergie incidente E (toutes dans le système du laboratoire).
Définition
ψ ( x, β ) =
χ ( x, β ) =
∞
1
− ( x − x ’)2 β 2
dx’
= ψ (− x, β )
1 + x’2
(B3)
− ( x − x ’)2 β 2
x’dx’
= −χ(− x, β)
1 + x’2
(B4)
∫e
β π −∞
1
β π
∞
∫e
−∞
Cas d’arguments particuliers
À l’énergie de la résonance, E = E0
ψ(0, β ) =
1
π 1 β2
e erfc ,
β
β
χ(0, β) = 0
(B5)
(B6)
à la température nulle, T = 0
ψ(0, β ) =
1
,
1+ x2
χ(0, β ) =
(B7)
x
1+ x2
(B8)
Séries convergentes
∞
2
2
1
1 x
ψ( x, β ) = e (1− x ) β ∑  2
β
n = 0 n!  β
2n
 
1 1 
 Γ − n + , 2 
2 β 
 
153
(B9)
∞
2
2
1
1 x 
χ( x, β) = e (1− x ) β ∑  2 
β
n = 0 n!  β 
2 n +1

1 1 
Γ − n − , 2 
2 β 

(B10)
où Γ(a,t) est la fonction gamma incomplète, avec
∞
Γ(a + 1, t ) = aΓ(a, t ) + e t = ∫ dt ’e −t ’t ’a
(B11)
1 
Γ , t  = π erfc t
2 
(B12)
t a
t
Séries asymptotiques pour les basses températures (β faible)
∞
ψ ( x, β ) = ∑
n =0
∞
χ ( x, β ) = ∑
n=0
(2n + 1)!!  − β 2 
2n + 1 
 1 



2  1+ x2 
(2n + 1)!!  − β 2 
2n + 1 
n
n
 1 



2  1+ x2 
n +1 2
n +1 2
cos[(2n + 1) arctan x ]
(B13)
sin [(2n + 1) arctan x]
(B14)
d’où
∞
ψ ( x , β ) + iχ ( x , β ) = ∑
n =0
(2n + 1)!!  − β 2 
2n + 1 
n
ix 
 1
+


2

2  1+ x
1+ x2 
n +1 2
(B15)
Relation avec l’intégrale de probabilité complexe
ψ ( x , β ) + iχ ( x , β ) =
π  x+i
W
,
β  β 
(B16)
où
∞
z


1 e −t
2i
z2
−t 2

,
=
+
1
W (z ) =
dt
e
e
dt
∫


πi −∫∞ t − z
π
0


2
(B17)
Dérivées
∂ψ
2
= 2 (χ − xψ ) ,
∂x β
(B18)
∂χ
2
= 2 (1 − ψ − xχ )
∂x β
(B19)
Intégrales
∞
∫ ψ(x, β)dx = π ,
−∞
∞
(B20)
∫ χ(x, β)dx = 0
−∞
154
(B21)
RÉFÉRENCES
V.M. Adamov, Conf. on Nucl. Cross Sections and Technol., NBS SP 594, p. 995, Knoxville (1979).
F.T. Adler and D.B. Adler, Nucl. Data for Reactors, IAEA Vienna (1970) p. 777.
Anzaldo-Meneses, Z. Physik A 353 (1995) 295.
R. Arlt et al., 6-th All Union Conf. on Neutron Physics, Kiev, vol. 2, p. 129 (1983).
T. Bayes, Phil. Trans. Roy. Soc. 53 (1763) 370; reprinted in E.S. Pearson and M.G. Kendall, Studies
in the History of Statistics and Probability, Hafner, Darien, Conn. (1970).
J.O. Berger, Statistical Decision Theory and Bayesian Analysis, Springer, New York (1985).
J. Bernoulli, Ars Conjectandi, Thurnisiorum, Basel (1713) ; reprinted in Die Werke von Jakob
Bernoulli, Birkhäuser, Basel (1975).
K. Berthold, C. Nazareth, G. Rohr and H. Weigmann, Proc. Int. Conf. on Nucl. Data for Sci. and
Technol., J.K. Dickens (ed.), ANS, La Grange Park (1994) p. 218.
H.A. Bethe, Rev. Mod. Phys. 9 (1937) 69.
M.R. Bhat, Proc. Conf. Nucl. Data Eval. Mth. and Proc., B.A. Magurno and S. Pearlstein (eds.),
Brookhaven report BNL-NCS-51363, (1981) vol. I, p. 291.
M.R. Bhat and G.E. Lee-Whiting, Nucl. Instr. Meth. 47 (1967) 277.
L.C. Biedenharn, Oak Ridge report ORNL-1501 (1953).
J.M. Blatt and L.C. Biedenharn, Rev. Mod. Phys. 24 (1952) 258.
Bloch, Nucl. Phys. A112 (1968) 257, 273.
Å. Bohr, Conf. on Peaceful Uses of Atomic Energy, Geneva (1955) vol. 2, p. 151.
M.V. Bokhovko, V.N. Kononov, G.N. Manturov, E.D. Poletaev, V.V. Sinitsa, A.A. Voevodskij,
Yad. Konst. 3 (1988) 11; Engl. transl. : IAEA report INDC(CCP)-322 (1990) p. 5.
L.M. Bollinger and G.E. Thomas, Phys. Rev. 171 (1968) 1293.
I.I. Bondarenko et al., Group Constants for Nuclear Reactor Calculations, Consultant Bureau
Enterprises Inc., New York (1964).
155
O. Bouland, Private Communication, C. E. Cadarache (1999).
M. Born, Optik, Springer, Berlin (1933).
T.A. Brody, J. Flores, J.B. French, P.A. Mello, A. Pandey and S.S. Wong, Rev. Mod. Phys. 53
(1981) 385.
Brusegan et al., IRMM Geel, Private Communication (1992).
Broeders and B. Krieg, Karlsruhe report KfK 2388 (1977).
A.G.W. Cameron and R.M. Elgin, Can. J. Phys. 43 (1965) 1288.
M. Cancé and G. Grenier, Nucl. Sci. Eng. 68 (1978) 197.
E.R. Cohen, K.M. Crowe, J.W.M. DuMond, Fundamental Constants of Physics, Interscience,
New York (1957) ; see also E.R. Cohen and B.N. Taylor, Phys. Today BG9 (Aug. 1992).
R.T. Cox, Am. J. Physics 14 (1946) 1.
C.E. Cullen and C.R. Weisbin, Nucl. Sci. Eng. 60 (1976) 199.
C.E. Cullen, Nucl. Sci. Eng. 55 (1974) 387.
M.H. DeGroot, Optimal Statistical Decisions, McGraw-Hill, New York (1970).
H. Derrien, G. de Saussure, N.M. Larson, L.C. Leal and R.B. Perez, Nucl. Data for Sci. and Technol.,
S. Igarasi (ed.), JAERI (1988) p. 83.
G. de Saussure and R.B. Perez, Oak Ridge report ORNL-TM-2599 (1969).
de-Shalit and I. Talmi, Nuclear Shell Theory, Acad. Press, New York-London (1963) ch. 15 and
Appendix.
L. Dresner, Proc. Int. Conf. on Neutron Reactions with the Nucleus, Columbia U. 1957,
Report CU-157 (1957) p. 71.
L. Dresner, Resonance Absorption in Nuclear Reactors, Pergamon, Oxford (1960).
F.G. Dunnington, Rev. Mod. Phys. 11 (1939) 65.
Efron and C. Morris, J. Roy. Statist. Soc. B 35 (1973) 379.
C.A. Engelbrecht and H.A. Weidenmüller, Phys. Rev. C8 (1973) 859; N. Nishioka and
H.A. Weidenmüller, Phys. Letters 157B (1985) 101.
T. Ericson, Adv. Phys. 9 (1960) 425.
U. Fano and G. Racah, Irreducible Tensor Sets, Acad. Press, New York (1959).
156
R.A. Fisher, Annals of Eugenics 6 (1935) 391; reprinted in R.A. Fisher, Contributions to
Mathematical Statistics, J. Tukey (ed.), J. Wiley & Sons, New York (1950).
R. Frölich, Karlsruhe report KfK 367 (1965).
F.H. Fröhner, unpublished (1970).
F.H. Fröhner, Karlsruhe report KfK 2145 (1977).
F.H. Fröhner, Conf. on Neutron Phys. and Nucl. Data, Harwell (1978) p. 306.
F.H. Fröhner, Karlsruhe Report KfK-2669 (1978); reprinted in Nuclear Theory for Applications,
Report IAEA-SMR-43, ICTP Trieste (1980) p. 59.
F.H. Fröhner, B. Goel, U. Fischer, Proc. Meet. on Fast-Neutron Capture Cross Sections, Argonne,
ANL-83-4 (1982) p. 116.
F.H. Fröhner, Nucl. Data for Sci. and Technol., K.H. Böckhoff (ed.), Reidel, Dordrecht (1983) p. 623;
cf. also Karlsruhe report KfK 3553 (1983).
F.H. Fröhner, Proc Int. Conf. Nucl. Data for Basic and Appl. Sci., Santa Fe 1985, New York (1986) p.
1541; reprinted in Rad. Effects 96 (1986) 199.
F.H. Fröhner, Nucl. Sci. Eng. 103 (1989) 119.
F.H. Fröhner, Applied Nuclear Theory and Nuclear Model Calculations for Nuclear Technology
Applications, M.K. Mehta and J.J. Schmidt (eds.), World Scientific, Singapore etc. (1989a) p. 170.
F.H. Fröhner, Nuclear Physics, Neutron Physics and Nuclear Energy, W. Andrejtscheff and
D. Elenkov (eds.), World Scientific, Singapore (1990) p. 333; separately available as Karlsruhe report
KfK 4655 (1990).
F.H. Fröhner, Karlsruhe report KfK 4911 (1991) ; Nucl. Sci. Eng. 111 (1992) 404.
F.H. Fröhner, in Maximum Entropy and Bayesian Methods, W.T. Grandy Jr. and L.H. Schick (eds.),
Kluwer, Dordrecht (1991a) p. 93.
F.H. Fröhner, Karlsruhe report KfK 5073 (1992).
F.H. Fröhner, Proc. Int. Conf. on Nucl. Data for Sci. and Technol., J.K. Dickens (ed.), ANS,
La Grange Park (1994) p. 597.
F.H. Fröhner, Nucl. Sci. Eng. 126 (1997) 1.
F.H. Fröhner, Z. Naturforsch. 53 a (1998) 637.
F.H. Fröhner, Nucl. Reaction Data and Nuclear Reactors, A. Gandini and G. Reffo (eds.), World
Scient., Singapore etc. (1998a), vol. 1, p. 54.
M. Gaudin, Nucl. Phys. 25 (1961) 447 ; reprinted in Porter (1965).
157
Gilbert and A.G.W. Cameron, Can. J. Phys. 43 (1965) 1446.
I.J. Good, The Estimation of Probabilities, Cambridge, Mass. (1965).
S.M. Grimes, Conf. on Moment Methods in Many Fermion Systems, B.J. Dalton et al. (eds.), Plenum
Press, New York (1980), p. 17.
H. Gruppelaar and G. Reffo, Nucl. Sci. Eng. 62 (1977) 756.
J.A. Harvey, Private Communication, Oak Ridge National Laboratory (1995).
H.M. Hofmann, J. Richert, J.W. Tepel, H.A. Weidenmüller, Ann. Phys. 90 (1975) 403.
L.K. Hua, Harmonic Analysis of Functions of Several Complex Variables in the Classical Domains,
Am. Math. Soc., Providence, R.I. (1963).
H.H. Hummel and D. Okrent, Reactivity Coefficients in Large Fast Power Reactors, Monogr. Ser.
Nucl. Sci. Technol., Am. Nucl. Soc., Hindsdale, Ill. (1970).
R.N. Hwang, Nucl. Sci. Eng. 21 (1965) 523; 52 (1973) 157.
N. Janeva, N. Koyumdjieva, A. Lukyanov, S. Toshkov, Proc. Int. Conf. Nucl. Data for Basic and
Appl. Sci., Santa Fe 1985, New York (1986) p. 1615.
N. Koyumdjieva, N. Savova, N. Janeva, A.A. Lukyanov, Bulg. J. Phys. 16 (1989) 1.
E.T. Jaynes, IEEE Trans. Syst. Cybern. SSC-4 (1968) 227 ; reprinted in Jaynes (1983) p. 114.
E.T. Jaynes, Found. Phys. 3 (1973) 477 ; reprinted in Jaynes (1983) p. 131.
E.T. Jaynes, Statistical Inference and Statistical Theories of Science, W.L. Harper and C.A. Hooker
(eds.), Reidel, Dordrecht (1976) ; reprinted in Jaynes (1983) p. 151.
E.T. Jaynes, The Maximum Entropy Formalism, R.D. Levine and M. Tribus (eds.), M.I.T. Press,
Cambridge, Mass. (1978) ; reprinted in Jaynes (1983) p. 210.
E.T. Jaynes, Bayesian Analysis in Econometrics and Statistics, A. Zellner (ed.), North-Holland,
Amsterdam (1980) ; reprinted in Jaynes (1983) p. 337.
E.T. Jaynes, Papers on Probability, Statistics and Statistical Physics, R.D. Rosenkrantz (ed.), Reidel,
Dordrecht (1983).
H. Jeffreys, Theory of Probability, Clarendon Press, Oxford (1939).
J.H.D. Jensen and J.M. Luttinger. Phys. Rev. 86 (1952) 907.
K. Kari, Karlsruhe report KfK 2673 (1978).
P.L. Kapur and R.E. Peierls, Proc. Roy. Soc. (London) A166 (1938) 277.
R.A. Knief, Nuclear Energy Technology, McGraw-Hill, New York (1981).
158
G.A. Korn and T.M. Korn, Math. Handbook for Scientists and Engineers, McGraw-Hill,
New York (1968).
W.E. Lamb, Phys. Rev. 55 (1939) 750.
A.M. Lane and J.E. Lynn, Proc. Phys. Soc. A70 (1957) 557.
A.M. Lane and R.G. Thomas, Rev. Mod. Phys. 30 (1958) 257.
K. Lange, Numerical Analysis for Statisticians, New York (1999).
P.S. Laplace, Théorie analytique des probabilités, Courcier, Paris (1812) ; reprinted in Œuvres
complètes, Gauthiers-Villars, Paris (1878-1912).
N.M. Larson, Conf. on Nucl. Data for Basic and Appl. Sci., Gordon & Breach, New York (1986)
p. 1593.
N.M. Larson and F.G. Perey, Oak Ridge report ORNL/TM-7485 (1980).
N.M. Larson, ORNL/TM-9179 (1984) with revisions ORNL/TM-9179/R1 (1985), /R2 (1989), /R3
(1996), /R4 (1998).
C.M. Lederer, V.S. Shirley (eds.), Table of Isotopes, 7th ed., Wiley, New York (1978).
H.D. Lemmel, Conf. on Nucl. Cross Sections and Technol., NBS SP 425, Washington (1975) vol. 1,
p. 286.
L.B. Levitt, Nucl. Sci. Eng. 49 (1972) 450.
Li Jingwen et al., Conf. on Nucl. Data for Sci. and Technol., K.H. Böckhoff (ed.), Reidel, Dordrecht
(1982) p. 55.
J.E. Lynn, The Theory of Neutron Resonance Reactions, Clarendon Press, Oxford (1968).
J.E. Lynn, Harwell report AERE-R7468 (1974).
R.E. MacFarlane, D.W. Muir, R.M. Boicourt, Los Alamos report LA-9303-MS, vols. I and II (1982).
R.E. MacFarlane and D.W. Muir, vol. III (1987).
D.W. Muir and R.E. MacFarlane, vol. IV (1985).
M. Mahdawi and G.F. Knoll, Conf. on Nucl. Data for Sci. and Technol., K.H. Böckhoff (ed.), Reidel,
Dordrecht (1982) p. 58.
M.L. Mehta, Nucl. Phys. 18 (1960) 395; reprinted in Porter (1965).
M.L. Mehta, Random Matrices, 2nd ed., Acad. Press, Boston (1991) P.A. Mello, Phys. Lett. B82
(1979) 103 ; cf. also P.A. Mello and T.H. Seligman, Nucl. Phys. A344 (1980) 489.
P.A. Mello, P. Pereyra, T.H. Seligman, Ann. Phys. 161 (1985) 254.
159
P.A. Moldauer, Phys. Rev. C11 (1975) 426; C12 (1975) 744.
P.A. Moldauer, Nucl. Phys. A344 (1980) 185.
S.F. Mughabghab, M. Divadeenam, N.E. Holden, Neutron Cross Sections, Neutron Resonance
Parameters and Thermal Cross Sections, Vol. A : Z = 1-60, Acad. Press, New York (1981).
S.F. Mughabghab, Neutron Cross Sections, Neutron Resonance Parameters and Thermal Cross
Sections, Vol. B : Z = 61-100, Acad. Press, New York (1984).
Müller and H.L. Harney, Phys. Rev. C35 (1987) 1231.
M.N. Nikolaev et al., At. Energiya 29 (1970) 11.
William of Ockham (Occam, 1285-1349) propounded the principle of parsimony « entia non
multiplicanda praeter necessitatem' » (do not introduce more entities than necessary).
F.G. Perey, Int. Conf. on Neutron Physics and Nucl. Data, Harwell (1978) p. 104.
C.M. Perey, F.G. Perey, J.A. Harvey, N.W. Hill, N.M. Larson, 56Fe Resonance Parameters for
Neutron Energies up to 850 keV, Oak Ridge National Laboratory, ORNL/TM-11742 (1990).
W.P. Poenitz, Proc. Conf. Nucl. Data Eval. Mth. and Proc., B.A. Magurno and S. Pearlstein (eds.),
Brookhaven report BNL-NCS-51363, (1981) vol. I, p. 249.
W.P. Poenitz, J.F. Whalen, A.B. Smith, Nucl. Sci. Eng. 78 (1981) 333.
C.E. Porter and R.G. Thomas, Phys. Rev. 104 (1956) 483 ; reprinted in Porter (1965).
C.E. Porter (ed.) Statistical Theory of Spectra: Fluctuations, Acad. Press, New York-London (1965).
C.E. Porter and N. Rosenzweig, Suomal. Tiedeakad. Toimit. (Ann. Acad. Sci. Fenn.) AVI 44 (1960);
reprinted in Porter (1965).
C.W. Reich and M.S. Moore, Phys. Rev. 111 (1958) 929.
A. Rényi, Valoszinüsegszamitas (= Probability Calculus), Budapest (1954); slightly generalised proof
by J. Aczel, Lectures on Functional Equations and Their Applications, Academic Press, New York
(1978) p. 104.
P. Ribon and J.M. Maillard, Proc. ANS Meeting on Adv. in Reactor Physics and Safety, Saratoga
Springs 1986, NUREG/CP-0080 (1986) vol. 2, p. 280.
P.F. Rose and C.L. Dunford (eds.), Report ENDF-102, NNDC Brookhaven (1990).
G.R. Satchler, Phys. Letters 7 (1963) 55.
R.E. Schenter, J.L. Baker, R.B. Kidman, Batelle North West report BNWL-1002 (1969).
E. Schrödinger, Proc. R. Irish Acad. 51 A (1947) 51, 51 A (1947) 141 ; reprinted in Gesammelte
Abhandlungen, Wien (1984) vol. 1, p. 463 and p. 479.
160
C.E. Shannon, Bell Syst. Tech. J. 27 (1948) 379 and 623 ; cf. also C.E. Shannon and W. Weaver,
The Mathematical Theory of Communication, U. of Illinois Press, Urbana (1949).
V.V. Sinitsa, Yad. Konst. 5(54) (1983) ; Engl. transl. IAEA report INDC(CCP)-225/G (1985).
A.B. Smith, D.L. Smith, R.J. Howerton, Argonne report ARNL/NDM-88 (1985).
A.W. Solbrig, Nucl. Sci. Eng. 10 (1961) 167.
Stein, Third Berkeley Symp. on Math. Statistics and Probab., U. of Calif. Press, vol. I, p. 197 (1956);
see also W. James and E. Stein, Fourth Berkeley Symp. on Math. Statistics and Probab., U. of Calif.
Press, vol. I, p. 361 (1961).
H. Takano, Y. Ishiguro, Y. Matsui, report JAERI-1267 (1980).
R.G. Thomas, Phys. Rev. 97 (1955) 224.
A.M. Turing, Proc. London Math. Soc., Ser. 2, 48 (1943) 180.
R. Vandenbosch and J.R. Huizenga, Nuclear Fission, Acad. Press, New York (1973).
J.M. Verbaarschot, H.A. Weidenmüller, M.R. Zirnbauer, Phys. Reports 129 (1985) 367.
J.M. Verbaarschot, Ann. Phys. 168 (1986) 368.
E. Voigt, Sitz.-Ber. Bayer. Akad. Wiss. (1912) p. 603.
Wald, Statistical Decision Functions, Wiley, New York (1950).
A.E. Waltar and A.B. Reynolds, Fast Breeder Reactors, Pergamon, New York (1981).
C.H. Westcott, K. Ekberg, G.C. Hanna, N.S. Pattenden and S. Sanatani, At. En. Rev. 3 (1965),
Issue 2, p. 3.
E.P. Wigner and L. Eisenbud, Phys. Rev.72 (1947) 29 ; E.P. Wigner, J. Am. Phys. Soc. 17 (1947) 99.
E.P. Wigner, Can. Math. Congr. Proc., Toronto (1957) p. 174; Ann. Math. 67 (1958) 325; both
reprinted in Porter (1965).
E.P. Wigner, Conf. on Neutron Phys. by Time-of-Flight, Gatlinburg 1956, Oak Ridge report
ORNL-2309 (1957) p. 59; reprinted in Porter (1965).
161
ÉGALEMENT DISPONIBLE
Publications de l’AEN d’intérêt général
Rapport annuel 1999 (2000)
Disponible sur le Web.
AEN Infos
ISSN 1605-959X
Abonnement annuel : FF 240 US$ 45 DM 75 £ 26 ¥ 4 800
Le Point sur les rayonnements – Applications, risques et protection (1997)
ISBN 92-64-25483-8
Prix : FF 135 US$ 27 DM 40 £ 17 ¥ 2 850
Le Point sur la gestion des déchets radioactifs (1996)
ISBN 92-64-24692-4
Prix : FF 310 US$ 63 DM 89 £ 44
Programmes de gestion des déchets radioactifs des pays Membres de l’AEN/OCDE (1998)
ISBN 92-64-26033-1
Prix : FF 195 US$ 33 DM 58 £ 20 ¥ 4 150
Banque de données
Light Water Reactor (LWR) Pin Cell Benchmark Intercomparisons – JEFF Report 15
(1999)
Gratuit sur demande
Intercomparisons of Calculations Made for GODIVA and JEZEBEL – JEFF Report 16
(1999)
Gratuit sur demande
The JEF-2.2 Nuclear Data Library – JEFF Report 17
Gratuit sur demande
(2000)
Bon de commande au dos.
BON DE COMMANDE
Agence de l’OCDE pour l’énergie nucléaire, 12 boulevard des Iles, F-92130 Issy-les-Moulineaux, France
Tel. 33 (0)1 45 24 10 15, Fax 33 (0)1 45 24 11 10, E-mail: [email protected], Internet:www.nea.fr
Qté
Titre
ISBN
Prix
Total
Frais d’envoi*
Total
*Union européenne : FF 15 – Autres pays : FF 20
❑ Paiement inclus (chèque ou mandat à l’ordre des Éditions de l’OCDE).
Débitez ma carte de crédit ❑ VISA ❑ Mastercard ❑ Eurocard
❑ American Express
(N.B.: Vou serez débité(e) en francs français).
Numéro de carte
Date d’expiration
Nom
Adresse
Pays
Téléphone
Fax
Mél
Signature
Téléchargement