MICHEL HENRY SIMULATION INFORMATIQUE ET MODÉLISATION Simulation d’un processus de Poisson Abstract : In this work, we put the question of the didactical status of computational simulations of random phenomenon. The computer’s power as random numbers generator allows an experimental approach of sampling fluctuations in the class room, and asks for numerical models to simulate random experiences. In this setting, we can introduce new experimental methods to solve probability problems. The example of the radioactive disintegration illustrates these comments. 1. PRATIQUES EXPÉRIMENTALES ET MODÉLISATION 1.1. Quelques questions didactiques posées par la simulation informatique Dans ce TD, nous avons abordé la question du statut didactique de la simulation informatique d’un échantillonnage aléatoire dans une population statistique. Dans un deuxième temps, nous avons présenté la réalisation d’une simulation sur ordinateur d’un phénomène de Poisson figurant au programme de TS : la radioactivité naturelle et son application à la datation. L’option expérimentaliste très marquée de la présentation des nouveaux programmes de statistique et probabilités des lycées pose de nouvelles questions pour l’organisation de cet enseignement. On peut notamment s’interroger sur l’efficacité didactique des dialectiques nées de la présence massive de l’ordinateur dans les situations proposées aux élèves : - simulation informatique de données statistiques, approche expérimentale de leur gestion et compréhension de concepts de base : prélèvements aléatoires dans une population, échantillonnage, caractères, distributions de fréquences, fluctuations d’échantillonnage, - apports de l’ordinateur comme générateur puissant de nombres au hasard (suites de chiffres pseudo-aléatoires) et introduction à la modélisation probabiliste d’expériences aléatoires, - résolution expérimentale de problèmes et savoirs théoriques impliqués. 1.2. Remarques sur la simulation informatique Une définition : La simulation est l'expérimentation sur un modèle. C'est une procédure de recherche scientifique qui consiste à réaliser une reproduction artificielle (modèle) du phénomène que l'on désire 1 Thème n° titre ou autre EDITEURS (ed.),Actes de la 11° Ecole d’Ete de Didactique des Mathématiques, 1—13. 21 au 30 Août 2001, Corps. 2 P. NOM(S) DU (DES) AUTEUR(S) étudier, à observer le comportement de cette reproduction lorsque l'on fait varier expérimentalement les actions que l'on peut exercer sur celle-ci, et à en induire ce qui se passerait dans la réalité sous l'influence d'actions analogues. (Encyclopédie Universalis). Les programmes proposent de multiplier les observations de l’aléatoire par la simulation informatique. L’ordinateur est-il un véritable générateur de hasard ? Non. Actuellement, les chiffres pseudo-aléatoires que l’ordinateur (ou la calculatrice) fournit sont déterminés, dès lors qu’il a commencé leur calcul sur la base d’une initialisation (randomisation) qui détermine à chaque fois des suites différentes de chiffres, en principe équirépartis. Mais la complexité de leur calcul rend impossible leur prévision par tout autre moyen humain. “ On a alors le phénomène fortuit ” selon l’expression de Poincaré. Tout se passe donc comme si les chiffres fournis par la fonction ALEA de l’ordinateur ou RANDOM de la calculatrice étaient issus d’un tirage aléatoire de boules numérotées de 0 à 9 dans une urne. Mais, par exemple, en “simulant” un sondage sur Excel, ayant introduit la valeur p de la proportion à estimer dans l’ordinateur, avons-nous réellement simulé quelque chose ? Ou avons-nous seulement vérifié que le résultat de l’estimation issue d’un échantillonnage confirme que le fabricant de l’ordinateur et le concepteur du logiciel ont bien rempli leurs cahiers des charges ? Sans doute, en réalité c’est ce que nous avons fait. Cependant, ne négligeons pas l’intérêt de l’outil informatique. Dans notre exemple, il permet une approche expérimentale des situations de sondages, et si la proportion p est cachée aux élèves, nous avons un outil de résolution de problèmes jouant le même rôle que les calculettes graphiques quand elles tracent des courbes représentatives de fonctions données. Mais notre question est plus fondamentalement didactique. L’ordinateur nous permet d’abord de travailler rapidement sur de vastes séries statistiques, ce qui donne aux résumés statistiques (moyennes, écarts types etc.) toute leur importance. Il nous permet ensuite une présentation animée du fonctionnement et de l’interaction des notions de fréquence et de probabilité abordées auparavant, soit théoriquement, soit au travers d’expériences pratiques en nombre trop limité pour pouvoir déboucher valablement sur une bonne compréhension de la loi des grands nombres. Même si, dans son fonctionnement réel, l’ordinateur se limite à exhiber les effets sur les fréquences affichées du principe d’équirépartition des chiffres pseudo aléatoires qu’il génère, l’usage que nous en faisons dans la classe, comme “ pseudo-générateur de hasard ”, permet de faire comprendre “ en actes ” ces notions de fréquence, de fluctuations d’échantillonnages et de probabilité. Mais on ne peut se satisfaire de la seule exploitation de la puissance et la rapidité de l’ordinateur pour générer des nombres aléatoires, permettant de présenter aux élèves une grande richesse de nouvelles expériences aléatoires, car cela n’aurait qu’un intérêt limité. Son intérêt didactique, en tant qu’outil de simulation, tient plus essentiellement en ce qu’il nous oblige à analyser la situation aléatoire en jeu, à émettre des hypothèses de modèle, notamment sur la loi de probabilité idoine pour représenter l’intervention du hasard dans l’expérience réelle (par exemple pour un sondage, sur le choix de la valeur de la probabilité de Bernoulli à implanter), et à traduire ces hypothèses en instructions informatiques pour que l’ordinateur nous permette de résoudre des problèmes éventuellement inaccessibles par le calcul a priori. De ce point de vue, cela suppose la compréhension du processus de modélisation. Cela suppose aussi une connaissance théorique permettant d’interpréter les résultats obtenus expérimentalement, rapportés aux hypothèses de modèle introduites. Simulant ainsi une expérience aléatoire réelle, l’ordinateur, au-delà de THEME N° - TITRE (EVENTUELLEMENT RACCOURCI) 3 l’exploration statistique, devient un outil didactique majeur pour l’apprentissage de la modélisation en probabilités. 1.3. Un modèle de base en probabilités : l'urne de Bernoulli Les situations aléatoires les plus élémentaires de la réalité consistent en la réalisation ou non d’un événement fortuit à l’issue d’une expérience aléatoire. Toutes ces situations, d’un point de vue probabiliste, peuvent être représentées par un “ modèle d’urne de Bernoulli ”. C’est une urne fictive, parfaite, en ce sens que les boules qu’elle contient sont conçues comme rigoureusement identiques, ne différant que par la couleur, blanche ou noire par exemple. “Tirer une boule de cette urne“ est une expérience de pensée qui repose sur l’ “ hypothèse de modèle ” que toutes les boules ont “ la même chance ” d’être tirées (équiprobabilité postulée). Dans le vocabulaire de la réalité, l’urne de Bernoulli est un objet idéalisé, muni de propriétés théoriques implicites. Je le qualifie de “ modèle pseudo concret ”. Un seul paramètre caractérise une urne de Bernoulli : la proportion p des boules blanches parmi l’ensemble des boules. La formalisation de ce modèle (son expression dans le registre symbolique des mathématiques) consiste à considérer un ensemble fini Ω, abstrait (si on veut, on peut considérer que ses éléments représentent les tirages éventuels des différentes boules de l’urne de Bernoulli), sur lequel on considère la distribution uniforme (équiprobabilité) de la probabilité, notée P et appelée à ce niveau “ loi de probabilité sur Ω ”. On distingue ensuite une partie A de Ω (représentant les boules blanches) et on traduit l’hypothèse de modèle par la donnée Card (A) = p. Card (Ω). L’axiomatique du modèle probabiliste général conduit alors à P(A) = p. On a ainsi constitué un “ modèle probabiliste ” de la situation aléatoire donnée. 1.4. Processus de modélisation Dans un processus de modélisation, je distingue trois étapes, pour l'analyse didactique. Chacune de ces étapes relève de compétences différentes et donc de contrats didactiques différents. Si l'on veut introduire en mathématiques une véritable démarche expérimentale, il convient de ne pas négliger la première étape de la modélisation au niveau de la situation concrète : l'observation d'une situation réelle et sa description en termes courants. Cette description est déjà une sorte d'abstraction et de simplification de la réalité, dans la mesure où certains choix sont faits, pour ne retenir que ce qui semble pertinent de cette situation vis-à-vis du problème étudié. Cette description est d'ailleurs pilotée par ce que j'appelle un regard théorique, c'est-à-dire une connaissance s'appuyant sur des modèles généraux pré-construits, pour apprécier justement ce qui se révélera pertinent. La démarche expérimentale consiste aussi à pouvoir agir sur la réalité, afin d'en étudier les évolutions et les invariants. Il faut donc pouvoir mettre en œuvre une expérimentation programmée par ce que je désigne par “ protocole expérimental ”, c'est-à-dire l'ensemble des instructions à suivre pour réaliser cette expérience et éventuellement la reproduire. De nouvelles compétences sont alors attendues, qui peuvent être objet de formation : savoir décrire une situation porteuse d'un problème (par exemple, l'évolution des files d'attente devant les caisses d'un supermarché), savoir mettre en œuvre un protocole expérimental, et recueillir les effets 4 P. NOM(S) DU (DES) AUTEUR(S) obtenus, savoir organiser les données recueillies, savoir lire une statistique (par exemple, pointer les files à intervalles réguliers). Puis il s'agit de traduire cette description en un système simplifié et structuré : c'est le niveau du modèle pseudo-concret. Cela se traduit par l'appel à un modèle général dont les conditions de transfert sont maîtrisées. En didactique, nous appelons cela "contextualisation" d'un savoir ancien. Dans l'exemple précédent, il faut dégager les hypothèses pertinentes pour décrire les arrivées des clients, notamment le nombre moyen d'arrivées par unité de temps. Cette construction est guidée par un premier niveau de connaissances théoriques du phénomène étudié (processus de Poisson) et par les outils mathématiques disponibles. Elle conduit à poser des hypothèses de modèle (indépendance des arrivées...). On peut alors passer à la deuxième étape : la mathématisation ou formalisation du modèle. Cela suppose que les élèves soient capables de représenter le modèle dans la symbolique propre aux mathématiques. Puis ils doivent savoir interpréter la question posée en un problème purement mathématique et savoir faire appel aux outils mathématiques adaptés pour résoudre le problème abstrait (logique, notions ensemblistes, fonctions de variables réelles, intégration, raisonnement par récurrence...). Enfin, il convient, en troisième étape, de pouvoir revenir à la question posée pour traduire dans les termes du modèle pseudo-concret, les résultats mathématiques obtenus, leur donner du sens pour dégager des réponses et relativiser ces réponses par rapport aux hypothèses de modèle. Il faut ensuite interpréter ces réponses pour apprécier leur validité et leur étendue dans la situation concrète (décider de l'ouverture ou de la fermeture d'une caisse pour réguler les files d'attentes). Ces compétences peuvent faire l'objet de formation dans diverses disciplines. Elles prennent un aspect spécifique en mathématiques du fait du caractère particulièrement abstrait des outils que l'on désire mettre en œuvre. 2. SIMULATION D’UN PROCESSUS DE POISSON 2.1 Principe du TD, observation d’une masse de matière radioactive, hypothèses de travail Pour exemplifier les éléments théoriques précédents, le TD est illustré par la mise en œuvre d’une simulation pour déterminer une loi de probabilités comme modèle théorique représentatif d’une population statistique, que l’on peut approcher par l’observation expérimentale d’échantillons. Il s’agit de déterminer un modèle exponentiel (par l’obtention du meilleur paramètre possible) adéquat pour décrire une population de Poisson. On part de l’objectif du programme de TS d’étudier la radioactivité naturelle. Le TD propose de faire une simulation numérique du phénomène de la radioactivité naturelle pour montrer à des élèves comment pratiquement on peut passer d’une simple observation à la connaissance de la période d’un élément radioactif en vue d’applications comme la datation. THEME N° - TITRE (EVENTUELLEMENT RACCOURCI) 5 L’expérience réelle que l’on veut simuler consiste à observer le comportement d’une masse de matière radioactive. On suppose qu’elle ne contient qu’un seul élément radioactif que l’on désire étudier. Un capteur enregistre les instants successifs où l’un des atomes de la masse se désintègre. À partir de cette observation, on désire connaître la période de l’élément radioactif considéré. La description de cette situation où le hasard intervient dans la mesure où il est impossible de prévoir quand un atome “ choisit ” de se désintégrer, ce que l’on va désigner par “ l’événement A ”, amène à formuler des “ hypothèses de travail ” en vue de réaliser la première étape du processus de modélisation : obtention d’un modèle pseudo concret du phénomène. Dans une deuxième étape, nous devrons transformer ces hypothèses de travail en “ hypothèses de modèle ” qui constitueront, dans notre problème, le modèle probabiliste dont nous tirerons des conséquences théoriques permettant d’interpréter les données statistiques et de résoudre le problème posé. L’événement A peut survenir inopinément et se répéter fortuitement. Les enregistrements du capteur permettent de noter les temps d’attente entre deux événements A successifs, ainsi que le nombre de tels événements survenant dans un temps donné . La démarche statistique consiste à répéter cette observation pendant une durée un certain nombre de fois de manière à obtenir un échantillon de taille n suffisante pour pouvoir estimer avec une assez bonne précision et sans trop de risque de se tromper la cadence du phénomène (nombre moyen de désintégrations par unité de temps). L’étude de la désintégration radioactive permet de formuler les hypothèses suivantes, simplifiant quelque peu la réalité. hypothèses de travail - Il n’y a pas de moments où A apparaît plus souvent que d’autres : le phénomène est homogène dans le temps (notamment, il n’y a pas de vieillissement). - Les “ chances ” de voir A se produire dans un intervalle de temps donné, ne dépendent pas de ce qui s’est passé auparavant : le phénomène est sans mémoire. - Plus cet intervalle de temps est petit, moins il y a de chance de voir A se produire et A ne se produit pas deux fois presque en même temps : A est un événement dit “ rare ”. Cette situation est caractérisée par un paramètre qui peut être évalué à partir d’une statistique : on peut observer que, dans des conditions analogues, A se produit en moyenne c fois dans un intervalle de temps unité (cadence du phénomène). 6 P. NOM(S) DU (DES) AUTEUR(S) 2.2 Modèle probabiliste et résultats théoriques Nous allons transformer ces hypothèses de nature heuristique en énoncés abstraits adaptés aux outils probabilistes. Hypothèses de modèle continu : On considère comme ensemble des issues possibles l’ensemble continu de tous les instants où A peut théoriquement se produire à partir d’un instant initial t0 d’observation : Ω = ] t0, +∞[. Posons comme hypothèses : 1) La probabilité que A se produise dans un intervalle de temps ]t, t + ∆t] ne dépend que de ∆t (phénomène homogène). Soit P(∆t) cette probabilité. 2) Les apparitions de A dans deux intervalles de temps disjoints sont des événements indépendants (phénomène sans mémoire). 3) On suppose que P(∆t) ~ ∆t quand ∆t 0, où > 0 est une constante (les événements A sont rares). À partir de ces seules hypothèses, la théorie probabiliste permet de déterminer la loi du temps d’attente T du premier événement A, ainsi que la loi du nombre N d’événements A qui se sont produits dans une durée [0, ]. (Démonstration donnée en annexe sur le CD-Rom). - La loi de T est donnée par la densité de probabilités : fT(t) = e On a E[T] = 1 et Var(T) = 1 2 t , pour t ≥ 0. . C’est la loi exponentielle de paramètre . () k - La loi de N est donnée par les probabilités élémentaires : P (N = k) = , pour k IN. e k! On a E[N] = et Var(N) = . C’est la loi de Poisson de paramètre . Ces valeurs donnent la signification du paramètre : E(T) est le temps moyen d’attente de A. E[N] est le nombre moyen d’événements A qui se produisent dans une durée . Si, par exemple, c est la cadence horaire du phénomène, il y a en moyenne c événements A par heure. On aura donc c = E[N]/ = , si est mesuré en heures. Il faut donc attendre en moyenne 1/c d’heure pour observer le premier A. THEME N° - TITRE (EVENTUELLEMENT RACCOURCI) 7 2.3. Simulation informatique et discrétisation du modèle continu En classe, on ne peut pas se permettre d’exhiber une masse de matière radioactive et on ne dispose pas d’un compteur aussi sophistiqué. On fait une simulation informatique du phénomène. Mais l’ordinateur ne travaille pas en continu. On va faire comme si le capteur n’interrogeait la masse radioactive que par intervalles de temps réguliers t suffisamment petits pour pratiquement éliminer la possibilité de deux désintégrations dans un même intervalle. On désigne par p la probabilité d’observer une désintégration dans une telle durée. Dans les hypothèses du modèle continu, on avait posé p = P(∆t) ~ ∆t. On limite l’observation à la durée = ∆t ( = 30 dans notre TD). Pour l’étude statistique du phénomène simulé, on recommence cette observation n fois (n = 1000 dans notre TD). Le principe de la simulation consiste à engendrer dans une feuille de calcul Excel une suite de chiffres, 0 (pas de désintégration dans l’intervalle ∆t précédent) ou 1 (une désintégration), le chiffre 1 apparaissant aléatoirement avec une probabilité p, variable à volonté et installée dans une cellule cachée de la feuille de calcul (cf. l’annexe dans le CD-Rom pour les formules Excel utilisées). On obtient une suite du type : Apparitions successives de l'événement A en 30 observations : 0 0 0 0 0 0 0 0 1 0 0 0 0 0 0 1 0 0 0 0 0 0 0 1 0 0 0 0 0 0 L’objectif de la simulation est de déterminer la probabilité p par une approche fréquentiste (loi des grands nombres). Pour cela, on produit un échantillon de n telles observations. Une sommation par lignes permet d’obtenir les valeurs observées du nombre aléatoire N des événements A qui sont apparus dans la durée . N prend donc des valeurs entières k de 0 à 30. On enregistre les fréquences des valeurs de k observées dans un échantillon de taille 1000 de ces trente observations, que l’on peut comparer aux distributions théoriques de la probabilité dans les modèles binomial (modèle probabiliste pour N dans cette simulation) et de Poisson (modèle limite quand ––> ∞ et p ––> ). On obtient alors les résumés statistiques qui suivent et on peut comparer la dispersion des fréquences de N aux probabilités binomiales et de Poisson à l’aide d’histogrammes. échantillon de taille 1000 moyenne de N : valeurs possibles fréquences des k dans un échantillon de taille 1000 Probabilités binomiales Probabilités de Poisson k=0 0,048 0,042391158 0,049787068 1 0,131 0,141303861 0,149361205 pour N P. NOM(S) DU (DES) AUTEUR(S) 8 2,97 2 0,224 0,22765622 0,224041808 3 0,232 0,236087932 0,224041808 variance de N : 4 0,184 0,177065949 0,168031356 2,60970971 5 0,094 0,102304771 0,100818813 6 0,044 0,04736332 0,050409407 7 0,017 0,018043169 0,021604031 8 0,006 0,00576379 0,008101512 9 0 0,001565474 0,002700504 10 0 0,000365277 0,000810151 Etc. Etc. Etc. Etc. Il reste à savoir que faire de ces données pour répondre à la question posée. Pour cela, il faut comprendre la relation entre le modèle discret implanté dans l’ordinateur et le modèle continu dont on est parti. 2.4. Étude théorique du modèle discret, loi binomiale et loi géométrique 2.4.1. Discrétisation du modèle continu On fait une observation à chaque instant multiple de ∆t pour voir si A s’est produit. Notons les instants d’observation : 1, 2, 3, …, i-1, i, …, séparés par l’intervalle de temps ∆t. Les hypothèses du modèle continu se transforment en : Hypothèses de modèle discret 1) La probabilité que A apparaisse à la iième observation ne dépend pas de i (phénomène homogène). Soit p cette probabilité. 2) Les apparitions de A aux différentes observations sont des événements indépendants (phénomène sans mémoire). 3) On suppose que A ne peut pas apparaître deux fois dans la même observation (les événements A sont rares). p est donc supposé assez petit, tel que p ––> quand ––> ∞. 2.4.2. De la loi binomiale à la loi de Poisson On s’intéresse d’abord au nombre N aléatoire des apparitions de A au cours des observations. L’ensemble Ω des valeurs possibles pour N est l’ensemble des entiers k compris entre 0 et . Les THEME N° - TITRE (EVENTUELLEMENT RACCOURCI) 9 conditions données en hypothèses permettent de conclure que N suit une loi binomiale B(, p). cette loi est donnée par les probabilités élémentaires : P(N = k) = k k , on a E[N] = p et Var(N) = p(1–p). k p (1 p) On peut montrer que lorsque ––> ∞, ces probabilités convergent vers les probabilités de Poisson : () k P(N = k) e , avec E[N] = et Var(N) = . k! 2.4.3. De la loi géométrique à la loi exponentielle De même, les hypothèses de modèle discret montrent que la loi du nombre G d’observations à faire avant de voir l’événement A se produire (les valeurs possibles i pour G vont de 1 à l’infini si on a assez de patience) est un loi géométrique de paramètre p, donnée par : P(G = i) = p(1–p)i–1, on a E[G] = 1/p et Var(G) = 1p p2 . E[G] représente le nombre moyen d’observations qu’il faut faire pour obtenir le premier A. On retrouve que sur observations, on a en moyenne /E[G] = p apparitions de A, valeur proche de si p est petit. On peut démontrer (cf. Des lois continues en terminale S, pourquoi et pour quoi faire ? dans Repères-IREM n° 51 d’avril 2003) que quand les instants d’observation du phénomène continu se rapprochent infiniment (t ––> 0 et ––> ∞ avec t = ), la fonction de répartition de la loi géométrique FG(t) = P(G ≤ i) converge vers celle de la loi exponentielle FT(t) = P(T ≤ t) = 1 – e–t, où i 1 i t . 2.4.4. Estimation ponctuelle de La loi (faible) des grands nombres indique que la suite des variable aléatoires N , “ moyennes arithmétiques ” des valeurs prises par N dans un échantillon de taille n converge en probabilité vers E[N] (c’est à dire que l’on a pour tout donné, P( N – p< ) ––> 1 quand n tend vers l’infini). Si on considère que est assez grand pour que p soit assez proche de , cela montre que la valeur observée de N dans un échantillon de taille n assez grande sera un bon estimateur de la valeur . On pourrait préciser cette estimation par un intervalle de confiance en posant : P( N – < ) = 1 – , où est le risque que la valeur réelle de ne soit pas dans l’intervalle ] N – , N + [). Il suffira donc de calculer la moyenne des valeurs observées de N dans un échantillon assez grand (contrôle expérimental de sa taille par observation de la stabilisation de cette moyenne), pour obtenir une valeur estimée de p, proche du paramètre de Poisson . On en déduit la valeur estimée N / pour la probabilité p, paramètre du modèle introduit dans l’ordinateur, et N / pour la constante , cadence du phénomène, qui nous intéresse. 10 P. NOM(S) DU (DES) AUTEUR(S) 2.5. Interprétation de la simulation dans le modèle pseudo-concret. Reprenons l’exemple de la désintégration radioactive : une masse de matière fissile contient M atomes radioactifs. La désintégration de l’un ou l’autre de ces atomes (événement A ) vérifie (en gros) les hypothèses heuristiques précédentes. Soit p = P(∆t) la probabilité d’observer une désintégration pendant un petit intervalle de temps de durée ∆t. On observe le phénomène pendant un temps . Dans notre simulation, nous avons discrétisé ce temps en petits intervalles ∆t : = ∆t. Des hypothèses il découle que p ––> quand ∆t ––> 0. La cadence est donc la limite de P(∆t)/∆t quand ∆t tend vers 0. Le paramètre caractérise la radioactivité, c’est la “ constante de désintégration ”. La “ période ” de l’élément radioactif considéré est la durée pendant laquelle la moitié de la masse fissile s’est désintégrée. La fréquence des atomes non encore désintégrés parmi les M est alors 1/2. Un raisonnement basé sur la loi des grands nombres permet de trouver simplement la relation entre T et Les physiciens font un raisonnement sur les moyennes. Dans le cas de la radioactivité naturelle, on peut considérer que les désintégrations des atomes sont indépendantes. De plus, pour un intervalle de temps donné, chaque atome a la même probabilité d’être désintégré. Soit cette probabilité de désintégration entre 0 et T. À chaque atome radioactif de l’échantillon, on associe l’épreuve de Bernoulli qui consiste à voir s’il est désintégré au bout du temps T. Cet événement est donc de probabilité . On recommence cette expérience avec les M atomes de la masse radioactive. Le théorème de Bernoulli, forme élémentaire de la loi des grands nombres, indique que la fréquence F des atomes désintégrés à l’instant T dans un échantillon de matière fissile, tend (en probabilité) vers quand la taille de l’échantillon (c’est-à-dire le nombre d’épreuves de Bernoulli réalisées) tend vers l’infini. Ce théorème se traduit formellement par : > 0, P(F – > ) –––> 0 quand M ––> ∞ M étant très grand (de l’ordre de 1023), on peut conclure qu’il y a une probabilité infime que soit notablement différente de cette fréquence 1/2 des atomes désintégrés parmi les M considérés. T est donc la durée au bout de laquelle un atome donné a la probabilité 1/2 d’être (ou ne pas être) désintégré. La loi exponentielle de la variable T, temps d’attente de la désintégration de l’atome (modèle continu), donne le résultat : P(T ≤ T ) = 1/2 = 1 e Par exemple T = 1580 ans pour le radium, = désintégration des atomes de radium. T , d’où T = ln 2 . ln 2 = 0,0004 est la cadence annuelle de T THEME N° - TITRE (EVENTUELLEMENT RACCOURCI) 11 Dans notre simulation, nous avions = 30, et par exemple p ≈ 0,085, d’où ≈ 2,55/. En prenant pour un mois, on a simulé la radioactivité d’un élément relativement actif de demi-vie T = ln 2 ≈ 0,23 mois, soit environ 8,1 jours. C’est la période de l’iode-131. 2.6. Principe de la datation par radioactivité naturelle On considère un échantillon de matière radioactive dans lequel à l’instant t il y a M(t) atomes non désintégrés d’un élément radioactif donné. On suppose qu’il n’y a pas de mélanges de plusieurs sortes d’éléments radioactifs. À partir d’un instant initial t0 où l’on connaît le nombre M0 d’atomes radioactifs présents dans l’échantillon, la loi de décroissance de M(t) ( dM(t) M(t) ) et la mesure de M(t) à l’instant t dt permettent de calculer t. La demi-vie de ces atomes est T = ln 2 où est la cadence de désintégration. Celle-ci peut être estimée, comme nous l’avons vu, par l’observation répétée de l’échantillon sur un certain nombre d’unités de temps. Il suffit de compter le nombre N d’atomes désintégrés par unités de temps, et la moyenne N est un estimateur de la cadence mesurée avec cette unité. Dans notre exemple de simulation où p , avec = 30 et p = 0,01, si est l’unité de temps, = 0,3. Avec par exemple M(t) = 6,02 1023 (nombre d’Avogadro), et une année, le taux de désintégrations par unité de temps est M(t) 1,8 1023 (ce qui en fait 5 1015 par seconde !) et une demi-vie de 2,3 ans. RÉFÉRENCES BIBLIOGRAPHIQUES Batanero, C. (2001) Didactica de la Estadistica,, Granada : Departamento de didactica de la Matematica, Universidad de Granada. En espagnol, Consultable en ligne. Borovcnik, M. et Kapadia, R. (1991) Chance encounters : probability in education, Dordrecht : Kluwer Academic Publishers. Borovcnik, M. et Peard, R. (1996) Chapter 7 : Probability, in A. J. Bishop et al. (eds) International Handbook of Mathematics Education, Dordrecht : Kluwer Academic Publishers, pp. 239–287. Chaput B ; (ed.) et CII Stat et Probas (1997) Enseigner les probabilités au lycée, Reims : IREM de Reims. Chaput B ; (ed.) et CII Stat et Probas (2003) Probabilités au lycée, Paris : APMEP. Dress, F. (1997) Probabilités, Statistique, rappels de cours, questions de réflexion, exercices d’entraînement, Paris : Dunod. Gandit, M. et Helmstetter, C. (1998) Expérimenter, simuler en classe, Repères-IREM 32, 25-42. 12 P. NOM(S) DU (DES) AUTEUR(S) Henry, M. (1994) L’enseignement des probabilités, Besançon : IREM de Besançon. Henry, M. (ed.) et CII Stat et Probas (2001) Autour de la modélisation en probabilités, Besançon : Presses Universitaires Franc-Comtoises. Diffusion par CiD. Henry, M. (2003) Des lois continues en TS, pourquoi et pour quoi faire ? Repères-IREM 51, 5-25. Kauffmann, P. (1994) Statistique, Information, Estimation, Tests, Paris : Dunod-économie. Ministère de l’Éducation Nationale, GEPS (2002) Document d’accompagnement des programmes de Première et de Terminale, Paris : CNDP. Raymondaud, H. et Henry, M. (1998) Attention ! Un modèle peut en cacher un autre, Repères-IREM 32, 43-62. Renyi, A. (1966) Calcul des probabilités, Paris : Dunod, rééd. Paris : Jacques Gabay, 1992. Saporta, G. (1992) Probabilités, analyse des données et statistiques, Paris : Technip.