2. Simulation d`un processus de Poisson - PUC-SP

publicité
MICHEL HENRY
SIMULATION INFORMATIQUE ET MODÉLISATION
Simulation d’un processus de Poisson
Abstract : In this work, we put the question of the didactical status of computational simulations of random
phenomenon. The computer’s power as random numbers generator allows an experimental
approach of sampling fluctuations in the class room, and asks for numerical models to simulate
random experiences. In this setting, we can introduce new experimental methods to solve
probability problems. The example of the radioactive disintegration illustrates these comments.
1. PRATIQUES EXPÉRIMENTALES ET MODÉLISATION
1.1. Quelques questions didactiques posées par la simulation informatique
Dans ce TD, nous avons abordé la question du statut didactique de la simulation informatique d’un
échantillonnage aléatoire dans une population statistique. Dans un deuxième temps, nous avons
présenté la réalisation d’une simulation sur ordinateur d’un phénomène de Poisson figurant au
programme de TS : la radioactivité naturelle et son application à la datation.
L’option expérimentaliste très marquée de la présentation des nouveaux programmes de statistique
et probabilités des lycées pose de nouvelles questions pour l’organisation de cet enseignement. On
peut notamment s’interroger sur l’efficacité didactique des dialectiques nées de la présence massive
de l’ordinateur dans les situations proposées aux élèves :
- simulation informatique de données statistiques, approche expérimentale de leur gestion et
compréhension de concepts de base : prélèvements aléatoires dans une population,
échantillonnage, caractères, distributions de fréquences, fluctuations d’échantillonnage,
- apports de l’ordinateur comme générateur puissant de nombres au hasard (suites de chiffres
pseudo-aléatoires) et introduction à la modélisation probabiliste d’expériences aléatoires,
- résolution expérimentale de problèmes et savoirs théoriques impliqués.
1.2. Remarques sur la simulation informatique
Une définition :
La simulation est l'expérimentation sur un modèle. C'est une procédure de recherche scientifique
qui consiste à réaliser une reproduction artificielle (modèle) du phénomène que l'on désire
1
Thème n° titre ou autre
EDITEURS (ed.),Actes de la 11° Ecole d’Ete de Didactique des Mathématiques, 1—13.
21 au 30 Août 2001, Corps.
2
P. NOM(S) DU (DES) AUTEUR(S)
étudier, à observer le comportement de cette reproduction lorsque l'on fait varier
expérimentalement les actions que l'on peut exercer sur celle-ci, et à en induire ce qui se
passerait dans la réalité sous l'influence d'actions analogues. (Encyclopédie Universalis).
Les programmes proposent de multiplier les observations de l’aléatoire par la simulation
informatique. L’ordinateur est-il un véritable générateur de hasard ? Non. Actuellement, les chiffres
pseudo-aléatoires que l’ordinateur (ou la calculatrice) fournit sont déterminés, dès lors qu’il a
commencé leur calcul sur la base d’une initialisation (randomisation) qui détermine à chaque fois
des suites différentes de chiffres, en principe équirépartis. Mais la complexité de leur calcul rend
impossible leur prévision par tout autre moyen humain. “ On a alors le phénomène fortuit ” selon
l’expression de Poincaré. Tout se passe donc comme si les chiffres fournis par la fonction ALEA de
l’ordinateur ou RANDOM de la calculatrice étaient issus d’un tirage aléatoire de boules numérotées
de 0 à 9 dans une urne.
Mais, par exemple, en “simulant” un sondage sur Excel, ayant introduit la valeur p de la proportion à
estimer dans l’ordinateur, avons-nous réellement simulé quelque chose ? Ou avons-nous seulement
vérifié que le résultat de l’estimation issue d’un échantillonnage confirme que le fabricant de
l’ordinateur et le concepteur du logiciel ont bien rempli leurs cahiers des charges ? Sans doute, en
réalité c’est ce que nous avons fait.
Cependant, ne négligeons pas l’intérêt de l’outil informatique. Dans notre exemple, il permet une
approche expérimentale des situations de sondages, et si la proportion p est cachée aux élèves, nous
avons un outil de résolution de problèmes jouant le même rôle que les calculettes graphiques quand
elles tracent des courbes représentatives de fonctions données.
Mais notre question est plus fondamentalement didactique. L’ordinateur nous permet d’abord de
travailler rapidement sur de vastes séries statistiques, ce qui donne aux résumés statistiques
(moyennes, écarts types etc.) toute leur importance. Il nous permet ensuite une présentation
animée du fonctionnement et de l’interaction des notions de fréquence et de probabilité abordées
auparavant, soit théoriquement, soit au travers d’expériences pratiques en nombre trop limité pour
pouvoir déboucher valablement sur une bonne compréhension de la loi des grands nombres.
Même si, dans son fonctionnement réel, l’ordinateur se limite à exhiber les effets sur les fréquences
affichées du principe d’équirépartition des chiffres pseudo aléatoires qu’il génère, l’usage que nous
en faisons dans la classe, comme “ pseudo-générateur de hasard ”, permet de faire comprendre “ en
actes ” ces notions de fréquence, de fluctuations d’échantillonnages et de probabilité.
Mais on ne peut se satisfaire de la seule exploitation de la puissance et la rapidité de l’ordinateur
pour générer des nombres aléatoires, permettant de présenter aux élèves une grande richesse de
nouvelles expériences aléatoires, car cela n’aurait qu’un intérêt limité. Son intérêt didactique, en
tant qu’outil de simulation, tient plus essentiellement en ce qu’il nous oblige à analyser la situation
aléatoire en jeu, à émettre des hypothèses de modèle, notamment sur la loi de probabilité idoine
pour représenter l’intervention du hasard dans l’expérience réelle (par exemple pour un sondage,
sur le choix de la valeur de la probabilité de Bernoulli à implanter), et à traduire ces hypothèses en
instructions informatiques pour que l’ordinateur nous permette de résoudre des problèmes
éventuellement inaccessibles par le calcul a priori. De ce point de vue, cela suppose la
compréhension du processus de modélisation. Cela suppose aussi une connaissance théorique
permettant d’interpréter les résultats obtenus expérimentalement, rapportés aux hypothèses de
modèle introduites. Simulant ainsi une expérience aléatoire réelle, l’ordinateur, au-delà de
THEME N° - TITRE (EVENTUELLEMENT RACCOURCI)
3
l’exploration statistique, devient un outil didactique majeur pour l’apprentissage de la modélisation
en probabilités.
1.3. Un modèle de base en probabilités : l'urne de Bernoulli
Les situations aléatoires les plus élémentaires de la réalité consistent en la réalisation ou non d’un
événement fortuit à l’issue d’une expérience aléatoire. Toutes ces situations, d’un point de vue
probabiliste, peuvent être représentées par un “ modèle d’urne de Bernoulli ”. C’est une urne fictive,
parfaite, en ce sens que les boules qu’elle contient sont conçues comme rigoureusement identiques,
ne différant que par la couleur, blanche ou noire par exemple. “Tirer une boule de cette urne“ est
une expérience de pensée qui repose sur l’ “ hypothèse de modèle ” que toutes les boules ont “ la
même chance ” d’être tirées (équiprobabilité postulée). Dans le vocabulaire de la réalité, l’urne de
Bernoulli est un objet idéalisé, muni de propriétés théoriques implicites. Je le qualifie de “ modèle
pseudo concret ”.
Un seul paramètre caractérise une urne de Bernoulli : la proportion p des boules blanches parmi
l’ensemble des boules.
La formalisation de ce modèle (son expression dans le registre symbolique des mathématiques)
consiste à considérer un ensemble fini Ω, abstrait (si on veut, on peut considérer que ses éléments
représentent les tirages éventuels des différentes boules de l’urne de Bernoulli), sur lequel on
considère la distribution uniforme (équiprobabilité) de la probabilité, notée P et appelée à ce niveau
“ loi de probabilité sur Ω ”. On distingue ensuite une partie A de Ω (représentant les boules blanches)
et on traduit l’hypothèse de modèle par la donnée Card (A) = p. Card (Ω). L’axiomatique du modèle
probabiliste général conduit alors à P(A) = p. On a ainsi constitué un “ modèle probabiliste ” de la
situation aléatoire donnée.
1.4. Processus de modélisation
Dans un processus de modélisation, je distingue trois étapes, pour l'analyse didactique. Chacune de
ces étapes relève de compétences différentes et donc de contrats didactiques différents.
Si l'on veut introduire en mathématiques une véritable démarche expérimentale, il convient de ne
pas négliger la première étape de la modélisation au niveau de la situation concrète : l'observation
d'une situation réelle et sa description en termes courants.
Cette description est déjà une sorte d'abstraction et de simplification de la réalité, dans la mesure où
certains choix sont faits, pour ne retenir que ce qui semble pertinent de cette situation vis-à-vis du
problème étudié. Cette description est d'ailleurs pilotée par ce que j'appelle un regard théorique,
c'est-à-dire une connaissance s'appuyant sur des modèles généraux pré-construits, pour apprécier
justement ce qui se révélera pertinent.
La démarche expérimentale consiste aussi à pouvoir agir sur la réalité, afin d'en étudier les
évolutions et les invariants. Il faut donc pouvoir mettre en œuvre une expérimentation programmée
par ce que je désigne par “ protocole expérimental ”, c'est-à-dire l'ensemble des instructions à suivre
pour réaliser cette expérience et éventuellement la reproduire.
De nouvelles compétences sont alors attendues, qui peuvent être objet de formation : savoir décrire
une situation porteuse d'un problème (par exemple, l'évolution des files d'attente devant les caisses
d'un supermarché), savoir mettre en œuvre un protocole expérimental, et recueillir les effets
4
P. NOM(S) DU (DES) AUTEUR(S)
obtenus, savoir organiser les données recueillies, savoir lire une statistique (par exemple, pointer les
files à intervalles réguliers).
Puis il s'agit de traduire cette description en un système simplifié et structuré : c'est le niveau du
modèle pseudo-concret. Cela se traduit par l'appel à un modèle général dont les conditions de
transfert sont maîtrisées. En didactique, nous appelons cela "contextualisation" d'un savoir ancien.
Dans l'exemple précédent, il faut dégager les hypothèses pertinentes pour décrire les arrivées des
clients, notamment le nombre moyen d'arrivées par unité de temps. Cette construction est guidée
par un premier niveau de connaissances théoriques du phénomène étudié (processus de Poisson) et
par les outils mathématiques disponibles. Elle conduit à poser des hypothèses de modèle
(indépendance des arrivées...).
On peut alors passer à la deuxième étape : la mathématisation ou formalisation du modèle. Cela
suppose que les élèves soient capables de représenter le modèle dans la symbolique propre aux
mathématiques. Puis ils doivent savoir interpréter la question posée en un problème purement
mathématique et savoir faire appel aux outils mathématiques adaptés pour résoudre le problème
abstrait (logique, notions ensemblistes, fonctions de variables réelles, intégration, raisonnement par
récurrence...).
Enfin, il convient, en troisième étape, de pouvoir revenir à la question posée pour traduire dans les
termes du modèle pseudo-concret, les résultats mathématiques obtenus, leur donner du sens pour
dégager des réponses et relativiser ces réponses par rapport aux hypothèses de modèle. Il faut
ensuite interpréter ces réponses pour apprécier leur validité et leur étendue dans la situation
concrète (décider de l'ouverture ou de la fermeture d'une caisse pour réguler les files d'attentes).
Ces compétences peuvent faire l'objet de formation dans diverses disciplines. Elles prennent un
aspect spécifique en mathématiques du fait du caractère particulièrement abstrait des outils que
l'on désire mettre en œuvre.
2. SIMULATION D’UN PROCESSUS DE POISSON
2.1 Principe du TD, observation d’une masse de matière radioactive, hypothèses de travail
Pour exemplifier les éléments théoriques précédents, le TD est illustré par la mise en œuvre d’une
simulation pour déterminer une loi de probabilités comme modèle théorique représentatif d’une
population statistique, que l’on peut approcher par l’observation expérimentale d’échantillons. Il
s’agit de déterminer un modèle exponentiel (par l’obtention du meilleur paramètre possible)
adéquat pour décrire une population de Poisson. On part de l’objectif du programme de TS d’étudier
la radioactivité naturelle.
Le TD propose de faire une simulation numérique du phénomène de la radioactivité naturelle pour
montrer à des élèves comment pratiquement on peut passer d’une simple observation à la
connaissance de la période d’un élément radioactif en vue d’applications comme la datation.
THEME N° - TITRE (EVENTUELLEMENT RACCOURCI)
5
L’expérience réelle que l’on veut simuler consiste à observer le comportement d’une masse de
matière radioactive. On suppose qu’elle ne contient qu’un seul élément radioactif que l’on désire
étudier. Un capteur enregistre les instants successifs où l’un des atomes de la masse se désintègre. À
partir de cette observation, on désire connaître la période de l’élément radioactif considéré.
La description de cette situation où le hasard intervient dans la mesure où il est impossible de
prévoir quand un atome “ choisit ” de se désintégrer, ce que l’on va désigner par “ l’événement A ”,
amène à formuler des “ hypothèses de travail ” en vue de réaliser la première étape du processus de
modélisation : obtention d’un modèle pseudo concret du phénomène.
Dans une deuxième étape, nous devrons transformer ces hypothèses de travail en “ hypothèses de
modèle ” qui constitueront, dans notre problème, le modèle probabiliste dont nous tirerons des
conséquences théoriques permettant d’interpréter les données statistiques et de résoudre le
problème posé.
L’événement A peut survenir inopinément et se répéter fortuitement. Les enregistrements du
capteur permettent de noter les temps d’attente entre deux événements A successifs, ainsi que le
nombre de tels événements survenant dans un temps donné .
La démarche statistique consiste à répéter cette observation pendant une durée  un certain
nombre de fois de manière à obtenir un échantillon de taille n suffisante pour pouvoir estimer avec
une assez bonne précision et sans trop de risque de se tromper la cadence du phénomène (nombre
moyen de désintégrations par unité de temps).
L’étude de la désintégration radioactive permet de formuler les hypothèses suivantes, simplifiant
quelque peu la réalité.
hypothèses de travail
- Il n’y a pas de moments où A apparaît plus souvent que d’autres : le phénomène est homogène
dans le temps (notamment, il n’y a pas de vieillissement).
- Les “ chances ” de voir A se produire dans un intervalle de temps donné, ne dépendent pas de ce
qui s’est passé auparavant : le phénomène est sans mémoire.
- Plus cet intervalle de temps est petit, moins il y a de chance de voir A se produire et A ne se
produit pas deux fois presque en même temps : A est un événement dit “ rare ”.
Cette situation est caractérisée par un paramètre qui peut être évalué à partir d’une statistique : on
peut observer que, dans des conditions analogues, A se produit en moyenne c fois dans un intervalle
de temps unité (cadence du phénomène).
6
P. NOM(S) DU (DES) AUTEUR(S)
2.2 Modèle probabiliste et résultats théoriques
Nous allons transformer ces hypothèses de nature heuristique en énoncés abstraits adaptés aux
outils probabilistes.
Hypothèses de modèle continu :
On considère comme ensemble des issues possibles l’ensemble continu de tous les instants où A
peut théoriquement se produire à partir d’un instant initial t0 d’observation : Ω = ] t0, +∞[. Posons
comme hypothèses :
1) La probabilité que A se produise dans un intervalle de temps ]t, t + ∆t] ne dépend que de ∆t
(phénomène homogène). Soit P(∆t) cette probabilité.
2) Les apparitions de A dans deux intervalles de temps disjoints sont des événements indépendants
(phénomène sans mémoire).
3) On suppose que
P(∆t) ~  ∆t
quand ∆t  0, où  > 0 est une constante (les événements A
sont rares).
À partir de ces seules hypothèses, la théorie probabiliste permet de déterminer la loi du temps
d’attente T du premier événement A, ainsi que la loi du nombre N d’événements A qui se sont
produits dans une durée [0, ]. (Démonstration donnée en annexe sur le CD-Rom).
- La loi de T est donnée par la densité de probabilités : fT(t) =  e
On a E[T] =
1

et
Var(T) =
1
2
t
,
pour t ≥ 0.
. C’est la loi exponentielle de paramètre .
() k 
- La loi de N est donnée par les probabilités élémentaires : P (N = k) =
, pour k  IN.
e
k!
On a E[N] =  et Var(N) = . C’est la loi de Poisson de paramètre .
Ces valeurs donnent la signification du paramètre  : E(T) est le temps moyen d’attente de A. E[N]
est le nombre moyen d’événements A qui se produisent dans une durée . Si, par exemple, c est la
cadence horaire du phénomène, il y a en moyenne c événements A par heure. On aura donc
c = E[N]/ = , si  est mesuré en heures. Il faut donc attendre en moyenne 1/c d’heure pour
observer le premier A.
THEME N° - TITRE (EVENTUELLEMENT RACCOURCI)
7
2.3. Simulation informatique et discrétisation du modèle continu
En classe, on ne peut pas se permettre d’exhiber une masse de matière radioactive et on ne dispose
pas d’un compteur aussi sophistiqué. On fait une simulation informatique du phénomène. Mais
l’ordinateur ne travaille pas en continu. On va faire comme si le capteur n’interrogeait la masse
radioactive que par intervalles de temps réguliers t suffisamment petits pour pratiquement
éliminer la possibilité de deux désintégrations dans un même intervalle. On désigne par p la
probabilité d’observer une désintégration dans une telle durée.
Dans les hypothèses du modèle continu, on avait posé p = P(∆t) ~  ∆t. On limite l’observation à la
durée  =  ∆t ( = 30 dans notre TD). Pour l’étude statistique du phénomène simulé, on
recommence cette observation n fois (n = 1000 dans notre TD).
Le principe de la simulation consiste à engendrer dans une feuille de calcul Excel une suite de 
chiffres, 0 (pas de désintégration dans l’intervalle ∆t précédent) ou 1 (une désintégration), le chiffre
1 apparaissant aléatoirement avec une probabilité p, variable à volonté et installée dans une cellule
cachée de la feuille de calcul (cf. l’annexe dans le CD-Rom pour les formules Excel utilisées). On
obtient une suite du type :
Apparitions successives de l'événement A en 30 observations :
0 0 0 0 0 0 0 0 1 0 0 0 0 0 0 1 0 0 0 0 0 0 0 1 0 0 0 0 0 0
L’objectif de la simulation est de déterminer la probabilité p par une approche fréquentiste (loi des
grands nombres). Pour cela, on produit un échantillon de n telles observations. Une sommation par
lignes permet d’obtenir les valeurs observées du nombre aléatoire N des événements A qui sont
apparus dans la durée . N prend donc des valeurs entières k de 0 à 30.
On enregistre les fréquences des valeurs de k observées dans un échantillon de taille 1000 de ces
trente observations, que l’on peut comparer aux distributions théoriques de la probabilité dans les
modèles binomial (modèle probabiliste pour N dans cette simulation) et de Poisson (modèle limite
quand  ––> ∞ et p ––> ).
On obtient alors les résumés statistiques qui suivent et on peut comparer la dispersion des
fréquences de N aux probabilités binomiales et de Poisson à l’aide d’histogrammes.
échantillon de
taille 1000
moyenne de N :
valeurs possibles
fréquences des k dans un
échantillon de taille 1000
Probabilités
binomiales
Probabilités de
Poisson
k=0
0,048
0,042391158
0,049787068
1
0,131
0,141303861
0,149361205
pour N
P. NOM(S) DU (DES) AUTEUR(S)
8
2,97
2
0,224
0,22765622
0,224041808
3
0,232
0,236087932
0,224041808
variance de N :
4
0,184
0,177065949
0,168031356
2,60970971
5
0,094
0,102304771
0,100818813
6
0,044
0,04736332
0,050409407
7
0,017
0,018043169
0,021604031
8
0,006
0,00576379
0,008101512
9
0
0,001565474
0,002700504
10
0
0,000365277
0,000810151
Etc.
Etc.
Etc.
Etc.
Il reste à savoir que faire de ces données pour répondre à la question posée. Pour cela, il faut
comprendre la relation entre le modèle discret implanté dans l’ordinateur et le modèle continu dont
on est parti.
2.4. Étude théorique du modèle discret, loi binomiale et loi géométrique
2.4.1. Discrétisation du modèle continu
On fait une observation à chaque instant multiple de ∆t pour voir si A s’est produit.
Notons les instants d’observation : 1, 2, 3, …, i-1, i, …, séparés par l’intervalle de temps ∆t. Les
hypothèses du modèle continu se transforment en :
Hypothèses de modèle discret
1) La probabilité que A apparaisse à la iième observation ne dépend pas de i (phénomène homogène).
Soit p cette probabilité.
2) Les apparitions de A aux différentes observations sont des événements indépendants
(phénomène sans mémoire).
3) On suppose que A ne peut pas apparaître deux fois dans la même observation (les événements A
sont rares). p est donc supposé assez petit, tel que p ––>  quand  ––> ∞.
2.4.2. De la loi binomiale à la loi de Poisson
On s’intéresse d’abord au nombre N aléatoire des apparitions de A au cours des  observations.
L’ensemble Ω des valeurs possibles pour N est l’ensemble des entiers k compris entre 0 et . Les
THEME N° - TITRE (EVENTUELLEMENT RACCOURCI)
9
conditions données en hypothèses permettent de conclure que N suit une loi binomiale B(, p).
cette loi est donnée par les probabilités élémentaires :
P(N = k) =
  k
 k
, on a E[N] = p et Var(N) = p(1–p).
k p (1  p)
On peut montrer que lorsque  ––> ∞, ces probabilités convergent vers les probabilités de Poisson :
() k  
P(N = k) 
e , avec E[N] =  et Var(N) = .
k!
2.4.3. De la loi géométrique à la loi exponentielle
De même, les hypothèses de modèle discret montrent que la loi du nombre G d’observations à faire
avant de voir l’événement A se produire (les valeurs possibles i pour G vont de 1 à l’infini si on a
assez de patience) est un loi géométrique de paramètre p, donnée par :
P(G = i) = p(1–p)i–1, on a E[G] = 1/p et Var(G) =
1p
p2
.
E[G] représente le nombre moyen d’observations qu’il faut faire pour obtenir le premier A. On
retrouve que sur  observations, on a en moyenne /E[G] = p apparitions de A, valeur proche de 
si p est petit.
On peut démontrer (cf. Des lois continues en terminale S, pourquoi et pour quoi faire ? dans
Repères-IREM n° 51 d’avril 2003) que quand les instants d’observation du phénomène continu se
rapprochent infiniment (t ––> 0 et  ––> ∞ avec t = ), la fonction de répartition de la loi
géométrique FG(t) = P(G ≤ i) converge vers celle de la loi exponentielle FT(t) = P(T ≤ t) = 1 – e–t, où
i 1
i
t .


2.4.4. Estimation ponctuelle de 
La loi (faible) des grands nombres indique que la suite des variable aléatoires N , “ moyennes
arithmétiques ” des valeurs prises par N dans un échantillon de taille n converge en probabilité vers
E[N] (c’est à dire que l’on a pour tout  donné, P( N – p< ) ––> 1 quand n tend vers l’infini).
Si on considère que  est assez grand pour que p soit assez proche de , cela montre que la valeur
observée de N dans un échantillon de taille n assez grande sera un bon estimateur de la valeur .
On pourrait préciser cette estimation par un intervalle de confiance en posant : P( N – < ) = 1
– , où  est le risque que la valeur réelle de  ne soit pas dans l’intervalle ] N – , N +  [).
Il suffira donc de calculer la moyenne des valeurs observées de N dans un échantillon assez grand
(contrôle expérimental de sa taille par observation de la stabilisation de cette moyenne), pour
obtenir une valeur estimée de p, proche du paramètre de Poisson . On en déduit la valeur
estimée N / pour la probabilité p, paramètre du modèle introduit dans l’ordinateur, et N / pour
la constante , cadence du phénomène, qui nous intéresse.
10
P. NOM(S) DU (DES) AUTEUR(S)
2.5. Interprétation de la simulation dans le modèle pseudo-concret.
Reprenons l’exemple de la désintégration radioactive : une masse de matière fissile contient M
atomes radioactifs. La désintégration de l’un ou l’autre de ces atomes (événement A ) vérifie (en
gros) les hypothèses heuristiques précédentes.
Soit p = P(∆t) la probabilité d’observer une désintégration pendant un petit intervalle de temps de
durée ∆t. On observe le phénomène pendant un temps . Dans notre simulation, nous avons
discrétisé ce temps  en  petits intervalles ∆t :  = ∆t. Des hypothèses il découle que p ––> 
quand ∆t ––> 0. La cadence est donc la limite de P(∆t)/∆t quand ∆t tend vers 0.
Le paramètre  caractérise la radioactivité, c’est la “ constante de désintégration ”.
La “ période ” de l’élément radioactif considéré est la durée pendant laquelle la moitié de la masse
fissile s’est désintégrée. La fréquence des atomes non encore désintégrés parmi les M est alors 1/2.
Un raisonnement basé sur la loi des grands nombres permet de trouver simplement la relation entre
T et Les physiciens font un raisonnement sur les moyennes.
Dans le cas de la radioactivité naturelle, on peut considérer que les désintégrations des atomes sont
indépendantes. De plus, pour un intervalle de temps donné, chaque atome a la même probabilité
d’être désintégré. Soit  cette probabilité de désintégration entre 0 et T. À chaque atome radioactif
de l’échantillon, on associe l’épreuve de Bernoulli qui consiste à voir s’il est désintégré au bout du
temps T. Cet événement est donc de probabilité .
On recommence cette expérience avec les M atomes de la masse radioactive. Le théorème de
Bernoulli, forme élémentaire de la loi des grands nombres, indique que la fréquence F des atomes
désintégrés à l’instant T dans un échantillon de matière fissile, tend (en probabilité) vers  quand la
taille de l’échantillon (c’est-à-dire le nombre d’épreuves de Bernoulli réalisées) tend vers l’infini. Ce
théorème se traduit formellement par :
 > 0, P(F –  > ) –––> 0 quand M ––> ∞
M étant très grand (de l’ordre de 1023), on peut conclure qu’il y a une probabilité infime que  soit
notablement différente de cette fréquence 1/2 des atomes désintégrés parmi les M considérés.
T est donc la durée au bout de laquelle un atome donné a la probabilité 1/2 d’être (ou ne pas être)
désintégré.
La loi exponentielle de la variable T, temps d’attente de la désintégration de l’atome (modèle
continu), donne le résultat :
P(T ≤ T ) = 1/2 = 1  e
Par exemple T = 1580 ans pour le radium,  =
désintégration des atomes de radium.
T
, d’où T =
ln 2
.

ln 2
= 0,0004 est la cadence annuelle de
T
THEME N° - TITRE (EVENTUELLEMENT RACCOURCI)
11
Dans notre simulation, nous avions  = 30, et par exemple p ≈ 0,085, d’où ≈ 2,55/.
En prenant pour  un mois, on a simulé la radioactivité d’un élément relativement actif de demi-vie T
=
ln 2
≈ 0,23 mois, soit environ 8,1 jours. C’est la période de l’iode-131.

2.6. Principe de la datation par radioactivité naturelle
On considère un échantillon de matière radioactive dans lequel à l’instant t il y a M(t) atomes non
désintégrés d’un élément radioactif donné. On suppose qu’il n’y a pas de mélanges de plusieurs
sortes d’éléments radioactifs.
À partir d’un instant initial t0 où l’on connaît le nombre M0 d’atomes radioactifs présents dans
l’échantillon, la loi de décroissance de M(t) (
dM(t)
 M(t) ) et la mesure de M(t) à l’instant t
dt
permettent de calculer t.
La demi-vie de ces atomes est T =
ln 2
où  est la cadence de désintégration. Celle-ci peut être

estimée, comme nous l’avons vu, par l’observation répétée de l’échantillon sur un certain nombre
d’unités de temps. Il suffit de compter le nombre N d’atomes désintégrés par unités de temps, et la
moyenne N est un estimateur de la cadence  mesurée avec cette unité.
Dans notre exemple de simulation où p  , avec  = 30 et p = 0,01, si  est l’unité de temps,  =
0,3. Avec par exemple M(t) = 6,02  1023 (nombre d’Avogadro), et  une année, le taux de
désintégrations par unité de temps est M(t)  1,8  1023 (ce qui en fait 5  1015 par seconde !) et
une demi-vie de 2,3 ans.
RÉFÉRENCES BIBLIOGRAPHIQUES
Batanero, C. (2001) Didactica de la Estadistica,, Granada : Departamento de didactica de la
Matematica, Universidad de Granada. En espagnol, Consultable en ligne.
Borovcnik, M. et Kapadia, R. (1991) Chance encounters : probability in education, Dordrecht :
Kluwer Academic Publishers.
Borovcnik, M. et Peard, R. (1996) Chapter 7 : Probability, in A. J. Bishop et al. (eds)
International Handbook of Mathematics Education, Dordrecht : Kluwer Academic
Publishers, pp. 239–287.
Chaput B ; (ed.) et CII Stat et Probas (1997) Enseigner les probabilités au lycée, Reims : IREM
de Reims.
Chaput B ; (ed.) et CII Stat et Probas (2003) Probabilités au lycée, Paris : APMEP.
Dress, F. (1997) Probabilités, Statistique, rappels de cours, questions de réflexion, exercices
d’entraînement, Paris : Dunod.
Gandit, M. et Helmstetter, C. (1998) Expérimenter, simuler en classe, Repères-IREM 32,
25-42.
12
P. NOM(S) DU (DES) AUTEUR(S)
Henry, M. (1994) L’enseignement des probabilités, Besançon : IREM de Besançon.
Henry, M. (ed.) et CII Stat et Probas (2001) Autour de la modélisation en probabilités,
Besançon : Presses Universitaires Franc-Comtoises. Diffusion par CiD.
Henry, M. (2003) Des lois continues en TS, pourquoi et pour quoi faire ? Repères-IREM 51,
5-25.
Kauffmann, P. (1994) Statistique, Information, Estimation, Tests, Paris : Dunod-économie.
Ministère de l’Éducation Nationale, GEPS (2002) Document d’accompagnement des
programmes de Première et de Terminale, Paris : CNDP.
Raymondaud, H. et Henry, M. (1998) Attention ! Un modèle peut en cacher un autre,
Repères-IREM 32, 43-62.
Renyi, A. (1966) Calcul des probabilités, Paris : Dunod, rééd. Paris : Jacques Gabay, 1992.
Saporta, G. (1992) Probabilités, analyse des données et statistiques, Paris : Technip.
Téléchargement