Incertitude, Probabilités et Croyances

publicité
Chapitre 3 : Incertitude, probabilités et croyances : fondements des probabilités subjectives
incertaines
Incertitude, probabilités et croyances : fondements des
probabilités subjectives incertaines
L’objectif de ce chapitre est de s’appuyer sur l’histoire des probabilités pour
justifier le recours à des probabilités subjectives incertaines, c'est-à-dire à une
représentation des croyances dont l’utilisation est très peu courante en théorie
(économique) de la décision.
Historiquement, on peut voir que la mesure de l’incertitude est le plus souvent
donnée par un nombre unique (la probabilité) mais que s’opposent une interprétation
objective de la probabilité — fondée soit sur une propriété physique des phénomènes
aléatoires (approche fréquentiste) soit sur des nécessités logiques concernant les
croyances (approche logique) — et une interprétation subjective — fondée sur les
croyances personnelles (section 3.1). La remise en cause de la pertinence de
l’approche fréquentiste pour l’analyse économique est bien connue : elle se fait au
travers de la distinction entre risque et incertitude. Mais, la pertinence de l’approche
fréquentiste peut également être questionnée pour tous les phénomènes incertains
(section 3.2). Au sein de l’approche subjective de l’incertitude, s’opposent une vision
intuitive des croyances et une vision préférentialiste. Alors que de Finetti et Savage
défendent, au sein de la vision préférentialiste, la probabilité (numérique) comme
seule mesure de croyance compatible avec des préférences rationnelles, la vision
intuitive favorise des mesures de croyances non réduites à une mesure de probabilité
(section 3.3). Enfin, de manière plus ou moins indépendante de l’interprétation
donnée à l’incertitude, plusieurs modélisations de cette dernière sont envisageables
(section 3.4).
Chapitre 3 : Incertitude, probabilités et croyances : fondements des probabilités subjectives
incertaines
Diversité des probabilités
La notion de probabilité est celle qui sert généralement, en théorie de la
décision et ailleurs, à appréhender l'évaluation des chances de survenance d'un
événement, lequel peut alors déterminer la conséquence d'une décision particulière.
Cependant, l'utilisation des probabilités pose nombre de difficultés dont une,
largement débattue dans un grand nombre de disciplines (statistiques, physique,
philosophie, économie...) est relative à la multiplicité des interprétations du concept
de probabilité.
La théorie classique et le principe de symétrie (Laplace (1812)) 1
La théorie classique des probabilités 2 à la fois pose les principales bases
mathématiques du calcul des probabilités ⎯ calcul qui prend sa forme moderne
dans le cadre axiomatique de Kolmogoroff (1933) ⎯ et révèle les différentes
interprétations de la probabilité qui conduisent aux approches fréquentistes,
1
On trouvera dans Hamouda et Rowley (1996) des références bibliographiques
complètes. Pour notre part, nous ne précisons dans cette section que quelques références
généralement considérées comme essentielles.
2
Celle-ci débute avec les lettres échangées entre Blaise Pascal et Pierre Fermat à
propos des questions posées par le Chevalier de Méré sur les prix équitables dans des jeux
de hasard. Les développements ultérieurs sont dus principalement à Christian Huygens,
Jacques Bernoulli, Pierre Rémond de Montmort, Abraham de Moivre puis Pierre Simon de
Laplace.
Chapitre 3 : Incertitude, probabilités et croyances : fondements des probabilités subjectives
incertaines
logiques et subjectives. Ainsi, l'unité du concept de probabilité précède la diversité
que l'on connaît aujourd'hui (Shafer (1990)) 3
La théorie classique définit la probabilité d'un événement comme le rapport
entre le nombre de résultats élémentaires favorables à cet événement et le nombre
total de résultats élémentaires ⎯ on est donc amené à une distribution uniforme
sur l'ensemble des résultats élémentaires (ou espace fondamental). Une telle
définition suppose l'acceptation d'un principe de symétrie, dû à Laplace (1812) et
connu sous le nom de principe de la raison insuffisante, selon lequel les
résultats élémentaires sont également vraisemblables 4 . Dit autrement, les résultats
élémentaires sont supposés avoir des probabilités identiques. Il y a là une source
évidente de circularité puisque la notion de probabilité est nécessaire à sa propre
définition.
3
« (...) Bernoulli and De Moivre's mathematics bound fair price, belief and frequency
tightly together. The probability of an event, in their theory was simultaneously the degree
to which we should believe it will happen and the long-run frequency with which it does
happen. It is also the fair price, in shillings, say, for a gamble that will return one shilling if
it does happen. » (Shafer (1990, p.436)).
4
Allais (1983) précise que ce même principe de symétrie est aussi présent dans les
théories purement mathématiques modernes des probabilités. En effet, les calculs réalisés
imposent que tous les événements (ou cas) possibles soient envisagés, donc supposés, au
moins implicitement, se réaliser simultanément (voir la section 3.2). Toutefois, ce principe,
appelé axiome d'égale possibilité par Allais (1983), n'est pas explicité dans les théories
axiomatiques modernes des probabilités ce qui contribue, selon l'auteur, au développement
de graves erreurs d'interprétation concernant le lien entre concept mathématique de
probabilité ⎯ appelé fréquence mathématique par l'auteur ⎯ et l'incertitude concrète (« le
hasard »).
Chapitre 3 : Incertitude, probabilités et croyances : fondements des probabilités subjectives
incertaines
De plus, et outre le caractère arbitraire du principe lui-même, l'application de
celui-ci suppose de pouvoir identifier sans ambiguïté les résultats élémentaires.
Lorsque l'on s'intéresse à des événements clairement structurés du type « obtenir
au moins une fois face sur deux lancers d'une pièce équilibrée », l'identification des
résultats élémentaires semble immédiate 5 . En revanche, dans le cas d'événements
plus complexes du type « un candidat socialiste est élu aux élections présidentielles
françaises de 2037 », l'identification des résultats élémentaires devient totalement
arbitraire 6 . Ce qui est en fait en jeu ici c'est l'étendue du domaine des phénomènes
incertains pour lesquels le principe de Laplace peut s'appliquer. En effet, en
s'appuyant sur une interprétation extensive du principe ⎯ celle qui admet la
possibilité de définir des résultats élémentaires et de leur accorder une égale
vraisemblance, quelle que soit la complexité de l'événement ⎯, tout phénomène
incertain
apparaît
probabilisable.
Une
vision
plus
restrictive
du
domaine
d'application du principe ⎯ appelé alors principe d'indifférence (Keynes (1921)) ⎯
considère que l'application d'une distribution de probabilité uniforme concerne les
5
Notons toutefois qu'il s'agit là du fameux exemple pour lequel le mathématicien du
dix-huitième siècle Jean le Rond d'Alembert est supposé avoir identifié trois événements
élémentaires (0 fois face, 1 fois face, 2 fois face) et par conséquent assigné une probabilité de
2/3 ⎯ plutôt que 3/4 ⎯ à l'événement considéré.
Nous pouvons ajouter qu'une part d'arbitraire peut être présente même dans le cas
encore plus simple d'un seul lancé, l'espace fondamental pouvant être, par exemple, {pile,
face, tranche}.
6
Il faut ajouter que lorsque l'espace des résultats élémentaires est infini (événements
du type « le candidat communiste aux élections présidentielles françaises de 2037 obtient
un nombre de suffrages supérieur à 5% du total des suffrages exprimés »), l'identification
des résultats élémentaires est impossible.
Chapitre 3 : Incertitude, probabilités et croyances : fondements des probabilités subjectives
incertaines
phénomènes pour lesquels l'information disponible apparaît symétrique c'est-à-dire
"également favorable" pour chaque événement : alors que le principe de raison
insuffisante repose sur notre ignorance ⎯ il n'y a aucune raison connue de ne pas
supposer les événements équiprobables ⎯, le principe d'indifférence repose sur une
connaissance partielle, symétrique, non décisive en faveur d'un ou plusieurs
événements au détriment des autres 7 .
L'approche logique ou nécessairiste (Keynes (1921), Jeffreys (1939),
Carnap (1950))
L'approche logique (ou nécessairiste) définit la probabilité ainsi : soient h et a
deux ensembles quelconques de propositions, « si une connaissance de h justifie
une croyance rationnelle dans a de degré α, nous disons qu'il y a une relation de
probabilité de degré α entre a et h. (Keynes (1921, p.4)). La probabilité est donc une
généralisation de l'implication 8 . Un exemple est donné par Keynes (1921) lorsqu'il
discute l'approche fréquentiste de Venn (1866) : « Si, par le passé, trois enfants sur
dix sont morts au cours de leurs quatre premières années d'existence, l'induction
peut reposer sur cette assertion incertaine, tous les enfants meurent dans cette
proportion. Mais nous ne pouvons affirmer sur cette base, ainsi que Venn souhaite
7
La distinction entre les deux principes n'apparaît pas toujours de manière claire
dans la littérature, du moins en ce qui concerne la terminologie employée. C'est le cas, par
exemple, chez Savage (1954) qui nous dit : « Perhaps what I here call the principle of
insufficient reason should be called the principle of cogent reason » (Savage (1954, p.64)).
8
La logique inductive ⎯ développée par Carnap (1950) ⎯ qui est mobilisée ici se
distingue de la logique déductive. Si a se déduit de h alors non-a ne peut pas se déduire d'un
ensemble h' contenant h. En revanche, si a est induit de h alors il n'est pas interdit que nona soit induit d'un ensemble h' contenant h.
Chapitre 3 : Incertitude, probabilités et croyances : fondements des probabilités subjectives
incertaines
le faire, que la probabilité de mort d'un enfant au cours de ses quatre premières
années d'existence est 3/10. Nous ne pouvons pas dire plus que : il est probable
(dans mon sens) qu'il y ait une telle probabilité (dans son sens). » (Keynes (1921,
p.99)).
Les probabilités logiques sont dites épistémiques (Good (1990)) puisqu'elles
concernent, non pas l'incertitude attachée à l'environnement lui-même ⎯ cas des
probabilités dites physiques ou plus généralement ontologiques ⎯ mais l'incertitude
attachée à « l'appréhension de l'environnement » (McCann (1994)) par l'individu (ou
un groupe d'individus). En conséquence, les probabilités logiques sont relatives à
des degrés de croyances. Cependant les probabilités logiques sont objectives car
elles reposent sur une idée de croyance rationnelle : « (...) probability is not
subjective, It is not, that is to say, subject to human caprice (...). The Theory of
Probability is logical, therefore, because it is concerned with the degree of belief
which is rational to entertain in given conditions, and not merely with the actual
beliefs of particular individuals, which may or may not be rational. » (Keynes (1921,
p.4)). Cela implique, en particulier, qu'une probabilité logique est forcément la
même pour tous les individus : la relation entre une hypothèse A et une évidence B
est issue de la cohérence du raisonnement ; elle est étrangère à tout jugement
individuel (Savage (1954, p.60)) 9 .
La principale limite de l'approche logique est son caractère peu opérationnel.
Selon Ramsey (1926) : « fundamental criticism of Mr. Keynes views,... is the
9
Précisons, avec Fishburn (1964, pp.161-162)), que la relation de probabilité
(logique) ne dit rien à propos de la crédibilité de l'évidence. Si l'évidence B est « Toutes les
femmes mariées ont trois yeux verts et Madame Jones est une femme mariée » et si
l'hypothèse A est « Madame Jones a trois yeux verts », alors la probabilité (logique) de A
sachant B est égale à 1.
Chapitre 3 : Incertitude, probabilités et croyances : fondements des probabilités subjectives
incertaines
obvious one that there really do not seem to be any such things as the probability
relations that he describes. » (Ramsey (1926, p.2) cité par Hacking (1990)). Il
semble en effet que la notion de probabilité logique ne fournisse pas un outil
aisément utilisable pour la prédiction et la prise de décision. Une raison primordiale
de la difficulté à rendre le concept de probabilité logique opératoire est sans doute
liée au fait que, dans cette approche, la notion primitive est celle de probabilité
conditionnelle. D'un point de vue nécessariste, on peut parler de « la probabilité de
A sachant B », où A et B représentent des événements, des hypothèses ou des
propositions, mais l'expression « probabilité (absolue) de A » n'a pas de sens. De
même, B ne peut être appréhendé, en termes de probabilité, que relativement à un
autre élément C, et ainsi de suite. Au total, nous sommes confronté à un ensemble
complexe de probabilités relatives qui risque d'engendrer un processus de
régression à l'infini (voir Hacking (1990, p.170)).
L'approche fréquentiste (Venn (1866))
L'approche fréquentiste définit la probabilité d'un événement comme la
valeur limite de la proportion de résultats favorables à cet événement dans une
série infinie de répétitions à l'identique et indépendantes. On a affaire ici à des
probabilités physiques puisque l'on cherche à mesurer l'incertitude attachée à
certains phénomènes, indépendamment de sa perception par les individus.
L'exemple type est constitué par n lancers d'une pièce et par les probabilités
d'obtenir pile ou face.
Citons deux limites générales de cette approche, largement admise en théorie
économique, implicitement ou explicitement.
Premièrement, la population de référence n'est pas toujours clairement
déterminée. Pour ce qui est des lancers de dés ou de pièces, la question pose peu de
difficultés. En revanche, la probabilité, par exemple, d'avoir un accident en voiture
Chapitre 3 : Incertitude, probabilités et croyances : fondements des probabilités subjectives
incertaines
doit-elle être calculée en fonction du type de véhicule, de l'origine du conducteur, de
la saison, du jour de la semaine, etc. ?10
Deuxièmement, la notion de répétitions à l'identique et indépendantes est
problématique : « Si un lancé de pièce était reproduit parfaitement, il devrait
toujours conduire au même résultat. » (Schoemaker (1982, p.536)) et, pourrait-on
ajouter, les événements ne seraient pas indépendants. Cet aspect contradictoire de
la définition fréquentiste de la probabilité ne peut être éclairé qu'à partir d'une
réflexion sur la place du déterminisme et des phénomènes purement aléatoires
dans la nature. Ainsi, on peut opposer une conception déterministe ⎯ représentée
historiquement par Laplace ⎯ selon laquelle l'incertitude résulte de causes
échappant à notre connaissance et une conception considérant un hasard pur qui
« ne serait pas dû à notre incapacité de prévoir, mais bien à la nature même des
choses. » (Louis de Broglie, cité par Allais (1983, p.871)).
L'approche subjective ou personnaliste (Ramsey (1931), de Finetti (1937),
Savage (1954))
L'approche subjective ou personnaliste définit la probabilité comme un
degré de croyance : « La probabilité mesure la confiance qu'un individu
particulier a dans la vérité d'une proposition particulière. » (Savage (1954, p.3)).
de Finetti (1937) a montré ⎯ voir la section 3.3.2 ⎯ que ce degré de croyance
10
Bien que l'on y soit directement confronté dans l'approche fréquentiste, la question
de la délimitation de la population de référence, ou espace fondamental, se pose pour toute
théorie des probabilités, y compris dans la théorie purement mathématique des probabilités
(voir Fine (1973, pp.60-61)). Savage (1954, pp.82-91) aborde ce problème dans le contexte
des probabilités subjectives au travers de la discussion sur les « petits mondes » (small
worlds).
Chapitre 3 : Incertitude, probabilités et croyances : fondements des probabilités subjectives
incertaines
doit être une probabilité en vertu de certains principes de cohérence. Ceux-ci ne
sont fondés ni sur des considérations logiques à propos des croyances ni sur des
considérations empiriques mais sur des considérations relatives à la rationalité
économique des choix engendrés par ces croyances.
Nous avons donc affaire à des croyances qui ne sont pas objectives mais qui
doivent être des probabilités. Ces probabilités subjectives peuvent être définies
quelles que soient la complexité du phénomène incertain et l'information disponible
sur ce phénomène. Elles sont personnelles dans la mesure où les axiomes retenus
ne garantissent pas, pour un même événement, des croyances communes à tous les
individus. Les approches personnalistes « postulent que l'individu concerné est
d'une certaine manière "raisonnable", mais elles ne rejettent pas la possibilité que
deux individus raisonnables face à la même évidence puissent avoir des degrés de
confiance différents concernant la vérité d'une même proposition. » (Savage (1954,
p.3)).
La possibilité de différences interpersonnelles de probabilités est à la fois une
manifestation claire du caractère subjectif de ces probabilités et la source de
critiques à l'encontre de cette approche lesquelles concernent le rôle joué par les
facteurs objectifs ⎯ données de l'environnement, règles universelles de cohérence
du
raisonnement ⎯
dans
la
formation
des
croyances.
Autrement
dit,
le
subjectivisme des théories personnalistes s'opposerait à la « vérité » des théories
fréquentistes ou logiques. La réponse de Savage (1954, p.67-68) s'articule
essentiellement autour de deux points :
1) La
probabilité
subjective,
lorsqu'elle
repose
sur
les
axiomes
de
comportement proposés par Savage (1954), implique une cohérence interne des
croyances : elle ne laisse aucune place à l'influence de facteurs psychologiques qui
pourraient être vus comme incompatibles avec un jugement de croyance rationnel.
Savage (1954) cite l'exemple de l'optimisme ou du pessimisme.
Chapitre 3 : Incertitude, probabilités et croyances : fondements des probabilités subjectives
incertaines
2) Au travers du théorème de de Finetti ⎯ voir la section 3.1.3.3 ⎯, la
probabilité subjective tend, sous certaines conditions, vers la probabilité objective
de l'approche fréquentiste au fur et à mesure que les données de l'expérience
s'accumulent. La cohérence interne des croyances conduit donc à la "cohérence
externe" exigée par l'approche fréquentiste.
Après avoir présenté les différentes approches des probabilités, nous sommes
amenés dans les deux sections suivantes à revenir sur leurs limites plus
spécifiquement dans le contexte de décisions incertaines concrètes c'est-à-dire
celles de la vie économique courante. Nous nous concentrons sur les deux
approches les plus courantes en économie, à savoir l'approche fréquentiste et
l'approche subjective.
Fréquences et incertitude
Risque versus incertitude
La distinction célèbre de Knight (1921) entre risque et incertitude sert
fréquemment pour délimiter le rôle que la théorie fréquentiste est censée pouvoir
légitimement jouer dans les décisions économiques. Chez Knight (1921), le risque
désigne l'« incertitude mesurable » c'est-à-dire probabilisable objectivement 11
tandis que le terme incertitude est réservé pour la « vraie incertitude », celle pour
11
L'auteur entend ici la probabilité en tant que fréquence empirique (« statistical
probability ») ainsi que la probabilité a priori (« a priori probability ») à savoir celle qui
découle de l'application du principe de raison insuffisante ; tout en précisant que la seconde
n'est « pratiquement jamais rencontrée dans les affaires [business] » alors que la première
est « extrêmement courante » (Knight (1921, p.215)).
Chapitre 3 : Incertitude, probabilités et croyances : fondements des probabilités subjectives
incertaines
laquelle « il n'y a pas de base valide de quelque sorte que ce soit [pour calculer des
probabilités objectives]. » (Knight (1921, p.225)).
Dans la sphère économique, le risque concerne les événements pour lesquels
il existe des fréquences empiriques portant sur des populations de référence assez
larges. Knight (1921) cite l'exemple de la probabilité d'éclatement d'une bouteille de
champagne au cours de la production dans une entreprise : que l'on prenne comme
population de référence la production de l'entreprise elle-même, si elle est suffisante
(1er cas), ou la production de l'ensemble de la branche (2ème cas), le risque est
finalement mesurable et peut être transformé en coût certain pour l'entreprise
⎯ laquelle peut soit assumer elle-même le risque (1er cas) soit s'assurer contre ce
risque (2ème cas).
Dans le cas de l'incertitude, la détermination d'une population de référence
est impossible du fait de l'absence de phénomènes identiques, ou du moins
similaires à celui considéré. C'est donc le caractère unique du phénomène qui est
source de véritable incertitude. Par unique, on entend plus précisément qu'il n'y a
ni répétitions à l'identique connues du phénomène ni série observée de phénomènes
analogues. Dans un tel contexte, il ne peut y avoir inférence de nature statistique
mais seulement une estimation de nature purement subjective. Knight (1921)
donne l'exemple de l'investissement dans une entreprise et plus généralement des
décisions « which are far too unique, generally speaking, for any sort of statistical
tabulation to have any value for guidance. » (Knight (1921, p.231)). 12
12
Rappelons la conséquence essentielle que Knight (1921) tire de l'introduction de la
distinction entre risque et incertitude. C'est cette vraie incertitude qui va justifier le profit de
l'entrepreneur : alors que le profit est nul en concurrence parfaite dans la théorie néoclassique, l'introduction de l’incertitude explique cette rémunération de l'entrepreneur dans
la mesure où ce dernier accepte une "prise d'incertitude" ⎯ reposant sur un jugement
Chapitre 3 : Incertitude, probabilités et croyances : fondements des probabilités subjectives
incertaines
Bien
que
Knight (1921)
soit
conscient
de
l'absence
de
séparation
systématiquement nette entre risque et incertitude 13 , il considère l'étude des
purement personnel ⎯ et ses conséquences : « When (...) the managerial function comes to
require the exercise of judgement involving liability to error, and when in consequence the
assumption of responsibility for the correctness of his opinions becomes a condition
prerequisite to getting the other members of the group to submit to the manager's direction,
the nature of the function is revolutionized; the manager becomes an entrepreneur. He may,
and typically will, to be sure, continue to perform the old mechanical routine functions and
to receive the old wages; but in addition he makes responsible decision, and his income will
normally contain in addition to wages a pure differential element designated as "profit" by
the economic theorist. This profit is simply the difference between the market price of the
productive agencies he employs, the amount which the competition of other entrepreneurs
forces him to guarantee to them as a condition of securing their services, and the amount
which he finally realizes from the disposition of the product which under his direction they
turn out. » (Knight (1921, pp.276-277)).
Il est intéressant de noter la nature de la justification du profit donnée par
Knight (1921). Contrairement à la rémunération du travail et du capital, cette justification
ne réside pas dans une contribution physique ⎯ directe ou indirecte ⎯ au produit, la valeur
de ce dernier étant connue de manière certaine ou "pseudo certaine" (cas de l'incertitude
mesurable). Mais, elle réside dans le fait que l'entrepreneur engage sa responsabilité
puisqu'il garantit aux autres membres de l'entreprise, la valeur du produit telle qu'il l'a
estimée dans un contexte de vraie incertitude.
13
Premièrement, « rien dans l'univers de l'expérience n'est absolument unique non
plus que deux choses sont absolument identiques. » (Knight (1921, p.227)). Deuxièmement,
il est possible de procéder à d'autres types d'analogies, « C'est à dire, au lieu de prendre les
décisions d'autres individus dans des situations objectivement plus ou moins similaires,
nous pouvons prendre les décisions du même individu dans toutes sortes de situations. »
(Knight (1921, p.228)) ; l'auteur s'appuyant sur l'exemple du succès d'un investissement,
Chapitre 3 : Incertitude, probabilités et croyances : fondements des probabilités subjectives
incertaines
phénomènes économiques incertains comme séparée de celle des phénomènes
économiques permettant des calculs de risque. Cette position est largement
partagée dans la théorie économique depuis Knight (1921), même si les travaux les
plus nombreux se situent dans le domaine du risque.
Dans le domaine de l'incertitude, l'approche radicale de Shackle (1949, 1979)
contribue à renforcer la séparation avec le risque et à minimiser la pertinence de la
théorie fréquentiste pour l'analyse économique.
Selon l'auteur, il existe une probabilité fournissant une connaissance
objective : c'est celle exprimée dans l'approche fréquentiste. Mais, là encore, il est
précisé que les décisions humaines concrètes sont étrangères à ce contexte :
« When probability is objective and claims to found itself on observation, it consists
in relative frequencies. So far as the observations are properly made and
interpreted, the relative frequencies are knowledge. Knowledge and uncertainty are
mutually exclusive (...). Objective, actuarial probability has no relevance for the
analysis of decision in face of uncertainty, because when objective probabilities can
be applied there is no uncertainty. » (Shackle (1961, pp.59-60)). Les décisions
humaines concrètes ont un caractère le plus souvent unique : « To most business
men it falls only once or twice, or a handful of times, to have to decide upon the
purpose, type scale and location of an individual plant ; most professional men
choose a career only once ; and so on. These occasions of choosing are spread at
such long and irregular intervals that they cannot be treated as together forming a
seriable experiment. » (Shackle (1958) cité par Hamouda et Rowley (1996, p.77)).
celui-ci
pouvant
provenir
plus
des
caractéristiques
de
l'entrepreneur
que
des
caractéristiques de l'investissement lui-même.
Autrement dit, il existe toujours, même pour des événements a priori uniques, des
données de l'expérience desquelles on peut inférer une évaluation probabiliste.
Chapitre 3 : Incertitude, probabilités et croyances : fondements des probabilités subjectives
incertaines
Le rejet du risque, donc de la théorie fréquentiste, comme cadre pertinent
pour l'analyse des décisions humaines concrètes est plus marqué chez Shackle que
chez Knight. La raison principale est que Shackle adopte explicitement une
perspective dans laquelle l'incertitude est d'une part endogène et d'autre part
indissociable de la dimension temporelle 14 . La prise d'une décision en situation
d'incertitude conduit en effet le plus souvent à modifier les circonstances qui
étaient celles de cette décision, rendant cette dernière non reproductible : « When
an individual elects to marry or not to marry, to become a surgeon instead of an
engineer ; when a statesman decides to challenge rather than appease an
aggressive enemy (...) ; in all such instances the entire subsequent career of an
individual or an nation is swung into one rather than another of two wholly
different channels (...). It is, accordingly, logically impossible for a person who has
to make a decision in such an instance to contemplate repeating his experiment:
such experiments are self-destructive. » (Shackle (1961, p.56)). Autrement dit, les
problèmes de décision auxquels est confronté un individu sont dépendants du
chemin déjà parcouru ⎯ « After such a decision there can be no going back to the
state of affairs which prevailed while the choice was still open (...). » (Ibid.).
Le risque n'existe pas
Malgré ce qui vient d'être dit, la position de Shackle comme celle de Knight
nous paraît rester source d'ambiguïtés. En effet, en retenant la distinction entre
risque et incertitude, les deux auteurs laissent une place à l'idée de mesure
empirique objective de l'incertitude.
14
« The future is created by crucial choice decisions; it is not discovered through the
Bayes-Laplace theorem regarding relative frequencies. » (Davidson (1996, p.32)).
Chapitre 3 : Incertitude, probabilités et croyances : fondements des probabilités subjectives
incertaines
La levée de cette ambiguïté nécessite de reconnaître qu'il n'existe aucune
mesure objective de l'incertitude car les constructions de probabilités dites objectives
recourent à des principes invérifiables. Par-là, la distinction entre risque et
incertitude est sans objet ; elle ne mène qu'à des erreurs d'interprétation sur la
nature véritable de la théorie fréquentiste. Pour s'en rendre compte, il ne faut pas,
comme le font largement Knight et Shackle, s'intéresser à des phénomènes
complexes mais revenir aux expériences canoniques comme celle des lancers de
pièces. Deux questions peuvent alors être posées :
1) Une fréquence peut-elle nous donner une mesure de probabilité ?
2) La probabilité tirée d'une observation passée ⎯ en supposant que cette
probabilité puisse être connue ⎯ est-elle une source d'information sur le futur ? 15
Dans les deux cas, il nous faut répondre négativement, à moins d'accepter
certains principes ; acceptation qui ne peut être que de nature non objective.
Concernant la première question, l'espoir d'une réponse positive passe
d'abord
par
l'acceptation
de
l'axiome
d'égale
possibilité
en
moyenne
(Allais (1983)). Reprenons l'exemple des lancers de pièces. L'approche fréquentiste
s'intéresse à une (ou quelques) série(s) particulière(s) de lancers, non à l'ensemble
des séries comme dans l'approche classique ou dans les théories purement
mathématiques des probabilités. Toutefois, si on suppose qu'il n'y a aucune raison
pour qu'en moyenne on obtienne plus de piles que de faces, ou inversement, alors,
conformément à la loi (empirique) des grands nombres, la fréquence empirique
(observée) du résultat pile tend, au fur et à mesure que le nombre de lancers
15
Dans
le
langage
des
processus
stochastiques
⎯ largement
utilisés
en
macroéconomie, notamment en relation avec l'hypothèse des anticipations rationnelles ⎯,
cette question est celle de la stationnarité et de l'ergodicité des processus stochastiques
(voir, Davidson (1991,1996)).
Chapitre 3 : Incertitude, probabilités et croyances : fondements des probabilités subjectives
incertaines
augmente, vers sa probabilité ou plutôt vers ce que Allais (1983) préfère appeler sa
fréquence (empirque) intrinsèque. Hélas, cette fréquence intrinsèque ne peut pas être
connue car « notre expérience est finie, pas infinie, et nous n'avons affaire qu'à des
répétitions finies et non des répétitions infinies d'expériences. » (Fine (1973, p.94)).
Peut-être peut-on considérer que cette fréquence intrinsèque est connue a priori si
l'on accepte le principe de Laplace : elle est égale à ½ pour les événements
élémentaires pile et face, si l'on admet que l'espace fondamental est {pile,face}. Mais
alors, est-il vraiment nécessaire de faire un tel détour par les concepts et
techniques de la théorie fréquentiste ? Peut-être peut-on considérer qu'une série
finie mais "assez longue" d'observations suffit à avoir une bonne estimation, une
certitude pratique concernant cette fréquence intrinsèque. Il s'agit là encore d'un
principe qui dessert l'objectivisme visé par l'approche fréquentiste 16 .
A ce stade, la deuxième question est déjà clairement superflue d'un point de
vue pratique. Supposons malgré tout que nous ayons une connaissance de la
fréquence intrinsèque du phénomène étudié. Pour les mêmes raisons que celles
évoquées à propos de la première question, cette connaissance, que l'on peut
interpréter comme une connaissance du passé, ne constitue pas une connaissance
du futur. En effet, la seule connaissance du futur fournie ⎯ en supposant l'axiome
d'égale possibilité en moyenne vérifié ⎯ est inaccessible : il s'agit de la convergence
(à la limite) des fréquences empiriques futures vers la fréquence intrinsèque.
L'introduction du principe de la convergence "dans le long terme" (c'est-à-dire, pour
16
« The problem though with the large role being presumed for practical certainty is
that it too conveniently lumps all of our difficulties with the interpretation of probability into
one and then protects it from further examination on the grounds that it involves a primitive
concept. Primitive concepts to be useful need to be clearer to our intuition than the grounds
for judgments of practical certainty appear to be. » (Fine (1973, p.88-89)).
Chapitre 3 : Incertitude, probabilités et croyances : fondements des probabilités subjectives
incertaines
des répétitions "nombreuses") est similaire à celle de la certitude pratique, donc
susceptible d'être l'objet de critiques du même ordre 17 . De plus, ce n'est pas à un
long terme auquel nous avons affaire en théorie de la décision ; ⎯ « à long terme
nous serons tous morts » pour reprendre l’expression célèbre de John Maynard
Keynes. Ce qui nous intéresse le plus souvent c'est le futur immédiat (le lancer
suivant). Or, non seulement nous ne pouvons pas avoir de connaissance objective
de ce futur immédiat, mais celui-ci ne pourra jamais ni confirmer ni infirmer une
quelconque fréquence intrinsèque 18,19 .
Par ailleurs, l'introduction de la dimension temporelle permet d'éclairer d'une
autre manière l'axiome d'égale possibilité en moyenne puisqu’alors, l'utilisation de
ce dernier suppose la croyance en l'invariance des lois de la nature. De nouveau, on
fait appel à une croyance de nature métaphysique pour estimer des probabilités
physiques. On peut ajouter que, dans la mesure où l'incertitude économique a
souvent une composante endogène forte, postuler un tel principe d'invariance (des
lois psychologiques et sociales) revient à refuser toute créativité de l'être humain :
17
Par exemple, celle exprimée par Fine (1973, p.103) : « The long run guarantee of
convergence is thus ineffective since we are unable, either before or after observation, to
determine how long a "long" run must be. ».
18
Supposons que l'on ait lancé une pièce 10000 fois et que l'on ait obtenu 10000 fois
face. Non seulement aucune fréquence intrinsèque n'est incompatible avec ce résultat mais,
de plus, aucun résultat d'un 10001ème lancer (pile, face, tranche, disparition de la pièce,...)
n'est incompatible avec ce résultat.
19
Les difficultés de la théorie fréquentiste sont exemplaires d'un problème plus
général soulevé par Hume : le problème de l'induction. Une présentation succincte et claire
se trouve chez Fishburn (1964, pp.152-155).
Chapitre 3 : Incertitude, probabilités et croyances : fondements des probabilités subjectives
incertaines
c'est enfermer la réflexion et l'action de ce dernier dans un déterminisme
contestable sur les plans descriptif ⎯ plus encore que dans le cas de phénomènes
physiques ⎯ et normatif.
Dit autrement, affirmer que le risque n'existe pas c'est affirmer l'existence
d'une incertitude ontologique radicale et générale : la réalité ne peut être mesurée
par une probabilité numérique tirée de fréquences observées, que cette réalité
concerne des phénomènes économiques ou sociaux complexes ou qu'elle concerne
des phénomènes physiques simples. Qu'il existe une incertitude épistémique ⎯ liée
à l'incapacité à accéder à la connaissance de la réalité ⎯ ne doit pas masquer ou se
substituer dans l'analyse à cette incertitude ontologique radicale et générale.
Remarques et conclusion
Notre première remarque concerne les probabilités logiques.
Bien que nous ayons choisi de ne pas développer l'analyse critique de
l'approche logique, nous pouvons considérer que cette approche se heurte
finalement au même type de critique que la théorie fréquentiste, puisqu'elle cherche
à définir une probabilité objective. En effet, si le risque n'existe pas, c'est plus
généralement le cas de toute probabilité objective. Il s'agit de la devise de de
Finetti (1975) : « La probabilité n'existe pas », bien que l'auteur vise plus
particulièrement la théorie fréquentiste.
D'une part, les données pertinentes desquelles on doit pouvoir logiquement
induire des propositions probables sont exprimées dans un langage qui n'a
généralement pas une forme quantitative systématique. Dès lors, la traduction de
Chapitre 3 : Incertitude, probabilités et croyances : fondements des probabilités subjectives
incertaines
ces données en probabilités (numériques) semble une tâche peu compatible avec
l'ambition d'objectivisme de l'approche logique 20
D'autre part, Carnap (1950), lorsqu'il propose de mettre fin à la régression
infinie engendrée par le caractère relatif des probabilités, introduit la condition
d'évidence totale (« requirement of total evidence ») : si la probabilité de a sachant
h est de degré α ⎯ Carnap (1950) parle de degré de confirmation de a par h égal à α,
noté C(a,h) = α ⎯ et si h contient toutes les données pertinentes pour évaluer a
alors la probabilité de a est de degré α ; la probabilité de a prend la forme d'une
probabilité absolue. Or, la possibilité qu'une proposition contienne toutes les
données pertinentes pour évaluer une autre proposition nécessite à l'évidence le
recours à des arguments ⎯ par exemple, fréquentistes ⎯ non objectifs (voir
Fine (1973, chapitre 7)).
Notre deuxième remarque concerne la thèse originale défendue par
Allais (1983). Celle-ci, tout en procédant à une analyse critique de la théorie
fréquentiste
existante
précédemment ⎯,
20
⎯ analyse
conduit
à
critique
une
dans
tentative
de
laquelle
nous
justification
avons
puisé
objective
du
D'ailleurs, Keynes (1921), bien qu'il fasse partie des auteurs les plus pessimistes à
ce sujet, admet qu'il est « seulement occasionnellement possible » (Keynes (1921, p.112))
d'avoir une mesure numérique des degrés de probabilité : « A rule can be given for
numerical measurement when the conclusion is one of a number of equiprobable, exclusive,
and exhaustive alternatives, but not otherwise.» (Ibid.) ⎯ autrement dit, une probabilité
logique (numérique) n'est obtenue que lorsque le principe d'indifférence peut être appliqué.
Et, même une comparaison (probabilité qualitative) est inaccessible dans de « nombreux
cas » (Ibid.).
Voir aussi la partie de Fishburn (1964, pp.163-164) intitulée « Un idéal non
atteint. ».
Chapitre 3 : Incertitude, probabilités et croyances : fondements des probabilités subjectives
incertaines
fréquentisme. Précisément, la critique porte sur les théories mathématique et
fréquentiste des probabilités : la première repose sur des calculs d'analyse
combinatoire totalement déterministes et sur l'axiome d'égale possibilité ; la
deuxième repose sur une représentation de distributions empiriques par des
modèles mathématiques fréquentiels eux-mêmes totalement déterministes et qui
coïncident avec la théorie purement mathématique du fait de la présence d'un
axiome d'égale possibilité en moyenne. Ces théories permettent de calculer
respectivement des fréquences mathématiques et des fréquences empiriques qui ne
devraient pas être appelées des probabilités puisqu'elles n'ont a priori rien à voir
avec la prévision d'un avenir incertain 21 . Allais (1983) définit deux notions qui
concernent cette prévision d'un avenir incertain :
- la probabilité objective qui repose sur la théorie fréquentiste lorsque
l'on fait « une double hypothèse de caractère subjectif » (Allais (1983, p.79)) :
1) « La première admet la validité de la représentation des distributions empiriques
par des modèles mathématiques fréquentiels (...) » (Ibid.). 2) « La seconde admet
implicitement un postulat d'invariance des lois de la nature suivant lequel ce que
l'on a régulièrement observé dans le passé continuera à s'observer dans l'avenir. »
(Ibid.).
- le cœfficient de vraisemblance est une « supputation de l'avenir »
(Allais (1983, p.78)) réalisée lorsque aucune analyse statistique antérieure n'est
disponible.
21
« (...), il convient de souligner que le concept de probabilité, indissociablement relié
à une prévision humaine de l'avenir, n'existe pas dans la nature. Il n'existe que dans l'esprit
de l'homme. La nature ne connaît que des fréquences ; elle ignore les probabilités. »
(Allais (1983, p.79)).
Chapitre 3 : Incertitude, probabilités et croyances : fondements des probabilités subjectives
incertaines
Allais (1983) va alors donner des arguments considérés comme objectifs en
faveur de la probabilité objective. Selon le Théorème (T), sous des conditions très
générales, la distribution discrète des valeurs X(n) (1≤ n≤ N) d'une somme de l
sinusoïdes xj (n) de périodes incommensurables Tj
considérées à des instants n
régulièrement espacés tend asymptotiquement vers une distribution normale
lorsque le nombre N des valeurs considérées et le nombre l des composantes
sinusoïdales augmentent indéfiniment. « Il est ainsi établi que la structure
déterministe vibratoire de l'univers peut engendrer des effets d'apparence aléatoire,
et que le déterminisme peut imiter le hasard. » (Allais (1983, p.150)) 22 .
Ainsi, la première des deux hypothèses de caractère subjectif de l'approche
fréquentiste aurait une cause objective qui justifierait (partiellement), dans un
contexte de risque, le calcul de probabilités objectives à partir des fréquences
empiriques observées.
Selon Allais (1983), la probabilité n'existe effectivement pas mais il existe des
lois de la nature qui sont en partie cachées à notre connaissance et dont la
découverte progressive doit nous rendre accessible une meilleure compréhension
objective du « hasard ».
Alors que l'analyse critique de la théorie fréquentiste semble justifier une
approche subjective de l'incertitude ⎯ et bien qu'il s'agisse du choix que nous
22
Le théorème (T) vient appuyer l'hypothèse du « facteur X », « suivant laquelle les
fluctuations des séries temporelles que nous observons dans les phénomènes qui relèvent
des sciences de la nature, des sciences de la vie et des sciences de l'homme, pourraient
résulter par des effets de résonance de l'influence des innombrables vibrations qui
sillonnent l'espace dans lequel nous vivons et dont l'existence est aujourd'hui une
certitude. » (Allais (1983, p.150)).
Chapitre 3 : Incertitude, probabilités et croyances : fondements des probabilités subjectives
incertaines
effectuons par la suite ⎯, Allais (1983) nous offre donc une autre alternative,
reposant sur l'idée d'une possible connaissance objective du monde 23 .
Nous achevons cette sous-partie en explicitant une partie de la synthèse
proposée dans la figure 3.1.1. La partie concernée est celle consacrée aux approches
qui accordent à la théorie fréquentiste une certaine validité objective dans
l'appréhension
des
phénomènes
incertains
concrets,
c'est-à-dire
celles
qui
retiennent une séparation entre risque et incertitude. On distingue donc deux
catégories de phénomènes : ceux pour lesquels la théorie fréquentiste est applicable
et ceux pour lesquels une formalisation spécifique doit être élaborée.
Parmi les classifications possibles, on peut retenir la dissociation entre les
travaux envisageant :
1) une incertitude non mesurable.
Knight (1921) appartient à cette catégorie, ainsi que nous l'avons vu.
Keynes (1936,1937) adopte une telle perspective dans la mesure où
s'opposent ici radicalement des phénomènes pour lesquels les techniques
probabilistes peuvent s'appliquer et ceux pour lesquels les informations objectives
font défaut et pour lesquels on ne peut que constater empiriquement le recours à
divers repères (statu quo, opinion majoritaire...) aidant, dans la pratique, à la prise
de décision 24 . Conclure à une opposition avec Keynes (1921) serait une erreur, mais
23
Allais « propose pour une interprétation déterministe du monde et une conception
"objectiviste" de la probabilité, un édifice conceptuel à mettre en balance avec le célèbre
ouvrage de Savage, Foundations of Statistics, de 1954. La Science trouve ici ses limites.
Chacun
ne
pourra
choisir
qu'en
fonction
de
ses
convictions
philosophiques. »
(Munier (1989, p.18)).
24
« Il me faut expliquer que, par l'expression de connaissance "incertaine", mon
intention n'est pas simplement de distinguer ce qui est su avec certitude de ce qui est
Chapitre 3 : Incertitude, probabilités et croyances : fondements des probabilités subjectives
incertaines
la distinction doit cependant être faite avec une théorie logique des probabilités
dont l'ambition est l'élaboration d'une théorie globale de l'incertitude reposant sur
la notion de croyances rationnelles 25 .
Nous pouvons ajouter à cette catégorie les théories axiomatiques ⎯ partant
d'un point de vue normatif, elles diffèrent des travaux précédents ⎯ qui mènent à
des critères de décision en incertitude sans recourir à une mesure d'incertitude
(voir Luce et Raiffa (1957, chapitre 13)).
2) Une incertitude mesurable.
Il peut s'agir d'une incertitude ontologique pour laquelle on substitue à la
probabilité une autre notion de mesure ou d'une incertitude épistémique qui devient
objet de mesure lorsque la probabilité (ontologique) n'est pas accessible.
Nombre de modèles mathématiques de l'incertain (voir la section 3.1.4)
peuvent conduire à une interprétation appartenant à cette catégorie, bien que les
décisions économiques ne constituent généralement pas le point de départ de ces
travaux.
seulement probable. Le jeu de la roulette n'est pas sujet à incertitude, en ce sens, ni la
perspective de tirer un bon numéro au loto. Ou encore, l'espérance de vie n'est soumise qu'à
une légère incertitude. Même le temps qu'il fait n'est que modérément incertain. Le sens
dans lequel j'utilise ce terme est celui selon lequel la perspective d'une guerre européenne
était incertaine, ou encore le prix du cuivre et le taux d'intérêt dans vingt ans, ou la date
d'obsolescence d'une invention nouvelle, ou la position des détenteurs de fortunes privées
dans le système social de 1970. En ces matières, il n'y a pas de fondement scientifique sur
lequel on puisse formuler, de façon autorisée, quelque raisonnement probabiliste que ce
soit. Nous ne savons pas, tout simplement. ». (Keynes (1937, p.144)).
25
On trouvera dans Netter (1996) des arguments complémentaires concernant les
rapprochements et distinctions possibles entre Keynes (1936,1937) et Keynes (1921).
Chapitre 3 : Incertitude, probabilités et croyances : fondements des probabilités subjectives
incertaines
La théorie de la surprise potentielle de Shackle (1949,1961) vient, quant à
elle, directement du rejet de la pertinence de l'approche fréquentiste dans l'étude de
nombreuses décisions économiques concrètes et de la volonté de construire,
néanmoins, une mesure de l'incertitude.
Croyances personnelles et incertitude
La théorie de la décision en incertain est par définition confrontée à la
nécessité de formaliser des croyances qui portent sur les différents aspects
incertains de l'environnement déterminant les résultats d'une action particulière du
décideur. Dans la section précédente, nous avons été amenés à rejeter la tentative
qui consiste à évacuer le problème de la formalisation des croyances en posant la
question de la mesure de l'incertitude de manière extérieure au décideur, cette
mesure (objective) s'imposant alors à ce dernier. Nous avons également précisé
pourquoi, selon nous, ce rejet devait être total, c'est-à-dire pour toute prise de
décision aux conséquences non certaines.
Partant d'un point de vue (pleinement) subjectif, deux questions occupent
une place centrale dans la formalisation des croyances :
1) Les croyances doivent-elles être des probabilités ?
Alors que dans les théories classiques et fréquentistes, les difficultés
touchaient principalement à la réalité physique d'un principe de symétrie, la théorie
subjective se heurte à la réalité psychologique du concept mathématique de
probabilité, notamment la propriété d'additivité des probabilités.
2) Comment les croyances doivent-elles s'appuyer sur les données de
l'environnement ?
Cette question nous confronte à nouveau au problème de l'induction. Posant
que les croyances ne peuvent être induites qu'à partir de données extérieures à
Chapitre 3 : Incertitude, probabilités et croyances : fondements des probabilités subjectives
incertaines
l'individu, comment peut-on appréhender ce lien entre croyances (internes) et
données (externes) sans tomber dans les pièges rencontrés par les théories
objectives ?
Probabilités comparatives :
approches intuitives
approches
préféren-tialistes
et
Lorsque l'on cherche à formaliser des croyances, une démarche assez
naturelle consiste à partir d'une relation binaire « est au moins aussi probable
que » sur des événements (ou des propositions), appelée relation de probabilité
comparative. 26
Cette relation de probabilité comparative est elle-même soit la notion
primitive dans le cas des approches intuitives (« intuitive views ») soit une
relation déduite d'une relation de préférence ⎯ donc faisant intervenir des
conséquences,
monétaires
par
exemple ⎯,
dans
le
cas
des
approches
préférentialistes (« decision-oriented approach »).
Selon l'approche intuitive, représentée historiquement par Koopman (1940),
une proposition A est jugée au moins aussi probable qu'une proposition B
simplement parce que, en dehors de tout problème de décision, A est jugée plus
vraisemblable que B :
« The intuitive thesis in probability holds that both in its meaning and in the
laws which it obeys, probability derives directly from the intuition, and is prior to
objective experience [note: "(Objective) experience" is used here practically as the
equivalent of "laboratory experiment" in the narrow objective sense of the word, and
excludes introspective or "subjective experience" (...)]; it holds that it is experience
26
Voir Fishburn (1964, chapitre 5 ; 1986).
Chapitre 3 : Incertitude, probabilités et croyances : fondements des probabilités subjectives
incertaines
to be interpreted in terms of probability and not for probability to be interpreted in
terms of experience (...). » (Koopman (1940, p.269)).
En revanche, selon l'approche préférentialiste, la probabilité comparative est
révélée par un choix, réel ou hypothétique, du type : « Soient deux actions f et g. f
mène à la conséquence monétaire x si l'événement A survient et à la conséquence
monétaire y sinon, avec x >y. g mène à x si l'événement B survient et à y sinon.
Quelle action préférez-vous ? ». En supposant que plus de monnaie est préféré à
moins, si f est choisie (préférée) au détriment de g, alors A est jugé plus probable
que B. Cette approche, due à Ramsey (1926), est celle qui est reprise par
Savage (1954) 27 .
Ce dernier précise : « It is one of my fundamental tenets that any satisfactory
account of probability must deal with the problem of action in the face of
uncertainty. [The intuitive views] seem to me too remote from the problem of action,
or decision. » (Savage (1954, p.60)).
Toutefois, le caractère indissociable de la décision et des probabilités suppose
chez Savage (1954) de placer les décisions préalablement aux probabilités. Or, ainsi
que le suggère Koopman (1940) et ainsi que l'ont précisé d'autres auteurs,
l'évaluation de la vraisemblance de certains phénomènes est logiquement antérieure
27
Notons la position particulière de de Finetti (1937) : « [L'approche intuitive]
présente l'avantage de permettre une analyse plus poussée et plus détaillée des concepts
fondamentaux, de partir uniquement de notions qualitatives, d'éliminer la notion de
« monnaie », étrangère à la question, mais qui est nécessaire pour parler de paris ;
cependant, une fois démontré que l'on peut écarter la défiance que fait naître le caractère un
peu trop concret et peut-être artificiel de la définition fondée sur les paris, le second procédé
[l'approche préférentialiste] s'avère préférable, surtout pour sa clarté. » (de Finetti (1937,
p.6)).
Chapitre 3 : Incertitude, probabilités et croyances : fondements des probabilités subjectives
incertaines
à la décision (von Wright (1962)) ⎯ voire même indépendante de toute décision
(Tukey (1960)) 28 .
La nécessité des probabilités numériques selon de Finetti (1937) et
Savage (1954)
La justification normative des probabilités numériques est donnée par
de Finetti (1937) au travers de la « condition de cohérence » : « Lorsqu'un
individu a évalué les probabilités de certains événements, deux cas peuvent se
présenter : ou bien il est possible de parier avec lui en s'assurant de gagner à coup
sûr, ou bien cette possibilité n'existe pas. Dans le premier cas on doit dire
évidemment que l'évaluation de la probabilité donnée par cet individu contient une
incohérence, une contradiction intrinsèque ; dans l'autre cas, nous dirons que
l'individu est cohérent. C'est précisément cette condition de cohérence qui constitue
le seul principe d'où l'on puisse déduire tout le calcul des probabilités (...). » (de
Finetti (1937, p.7)).
Considérons le lancer d'une pièce équilibrée. Soient les enjeux monétaires SP
et
SF , positifs
ou
négatifs,
contingents
aux
événements
(incompatibles
et
exhaustifs) Pile et Face respectivement. Supposons qu'un individu soit obligé
d'échanger la possibilité d'obtenir SP
si Pile survient avec la somme pP .SP
et
d'échanger la possibilité d'obtenir SF si Face survient avec la somme pF .SF : pP et
28
Voir Fine (1973, pp.230-231). Citons également Tversky et Kahneman (1974) : « It
should perhaps be noted that, while subjective probabilities can sometimes be inferred from
preferences among bets, they are normally not formed in this fashion. A person bets on
team A rather than on team B because he believes that team A is more likely to win; he does
not infer this belief from his betting preferences. Thus, in reality, subjective probabilities
determine preferences among bets and are not derived from them (...). ».
Chapitre 3 : Incertitude, probabilités et croyances : fondements des probabilités subjectives
incertaines
pF sont les probabilités subjectives attachées par l'individu aux événements Pile et
Face respectivement. Les gains nets pour l’individu sont GP et GF , respectivement
si Pile est obtenu et si Face est obtenu, avec :
G i = Si −
∑ p i . S i , ∀i
= F , P , soit,
i
⎧( 1 − p P ). S P − p F . S F = G P
⎨
⎩− p P . S P + ( 1 − p F ). S F = G F
p
Si p P + p F = 1, − G P = G F . 1 − Fp , donc GP
F
et GF
sont soit nuls soit de
signes différents. En revanche, si p P + p F ≠ 1 , il est possible de choisir SP
et
SF tels que GP et GF soient négatifs tous les deux c'est-à-dire tel que l'individu soit
perdant quel que soit le résultat du lancer 29 , autrement dit victime d'un "pari
hollandais" ("Dutch Book”).
La généralisation au cas de n événements incompatibles, dont un (et un seul)
doit se vérifier, est donnée par de Finetti (1937), lequel conclut : « On a ainsi le
théorème des probabilités totales sous la forme suivante : dans une classe complète
d'événements incompatibles, la somme des probabilités doit être égale à 1. La forme
plus générale : la probabilité de la somme logique de n événements incompatibles est
la somme de leurs probabilités, n'en est que le corollaire immédiat. » (de
Finetti (1937, p.8)).
L’approche préférentialiste est systématisée par Savage (1954) puisque la
mesure de probabilité subjective est déduite de la relation de préférence sur les
actions, pour laquelle des axiomes de rationalité ont été définis.
29
Par exemple, si pF =pP =0.2, alors, en fixant SP =SF =-500/3, on a GP =GF =-100.
Chapitre 3 : Incertitude, probabilités et croyances : fondements des probabilités subjectives
incertaines
Soit f
la relation binaire « est au moins aussi probable que » définie sur
~*
des événements, notés A,B,...; les parties asymétriques f* (« est (strictement) plus
probable que ») et symétrique ~* (« est aussi probable que ») étant définies comme
habituellement.
Soit P une mesure de probabilité définie sur des événements ⎯ on a donc :
P(S)=1, P(A) ≥0, A∩B=∅ ⇒ P(A∪B)=P(A)+P(B), où A et B sont des événements et S
l'événement universel.
On dit que (Savage (1954)) :
(i) P est presque compatible avec f lorsque A f B ⇒ P(A) ≥ P(B).
~*
~*
(ii) P est (strictement) compatible avec f lorsque
~*
A f B ⇔ P(A) ≥ P(B).
~*
Savage (1954) montre, dans un cadre où S est infini, que les axiomes portant
sur f et assurant la (stricte) compatibilité 30 sont obtenus à partir des axiomes P1
~*
à P6 — c'est-à-dire à partir des axiomes portant sur f — et de la relation : A f B
~
ssi ∀x,y∈X, x
f y ⇒ xAy f
~*
xBy. (voir Fishburn (1970, chapitre 14)).
Nous voyons donc que dans la perspective de de Finetti et de Savage, c’est
essentiellement un principe économique qui apparaît au fondement même de la
représentation des croyances. Autrement dit, c’est la rationalité instrumentale qui
fonde la cohérence des croyances et non la rationalité cognitive. Le sens que prend
la notion de probabilité apparaît alors assez ambigu et pose, en particulier, deux
30
Le terme compatibilité traduit « agreement » ou « compatibility ». On dit
également que ⎛⎜ 2 S , f ⎞⎟ , définie sur une algèbre de S, est représentable par P.
⎝
~* ⎠
Chapitre 3 : Incertitude, probabilités et croyances : fondements des probabilités subjectives
incertaines
difficultés importantes : 1) il est difficile de défendre l’idée que la cohérence dont il
est question ici concerne véritablement les croyances puisqu’elle concerne d’abord
les "goûts" c'est-à-dire le sentiment subjectif associé aux conséquences de décisions
incertaines ; 2) la valeur d’une probabilité mesurée à partir de paris risque d’être
sensible aux conséquences de ces paris et ainsi, là encore, dépendre non seulement
des croyances mais aussi des goûts 31 .
Croyances non réduites à des probabilités numériques dans l’approche
intuitive
Les probabilités numériques comme cas particulier (Koopman (1940))
Partant d'une approche intuitive, la représentation des croyances par des
probabilités numériques ne trouve pas de fondement normatif immédiat et
déterminant. Il s'agit de la position de Koopman (1940) 32 , lequel présente d'abord
31
Nous revenons dans la section 4.3.1 sur ce problème de la dépendance entre les
probabilités et les enjeux lorsque les probabilités sont révélées par des paris. Toutefois, nous
pouvons déjà donner une illustration directement à partir de l’exposé de Finetti (1937) à
propos du principe de cohérence : dans le cas de deux événements, le pari proposé permet
de s’assurer que l’individu réalisera une perte si SP et SF sont négatifs (resp. positifs) et
pP + pF < 1 (resp. pP + pF > 1 ). Or, si l’individu connaît les valeurs de SP et SF avant de
jouer, on peut supposer, puisque pP .SP + pF .SF constitue le prix du pari, qu’il sera tenté
d’annoncer pP + pF > 1 (resp. pP + pF < 1 ) quand SP et SF sont négatifs (resp. positifs).
32
« (...) all the axiomatic treatments of intuitive probability current in the literature
take as their starting point a number (usually between 0 and 1) corresponding to the "degree
of rational belief" or "credibility" of the eventuality in question. Now we hold that such a
number is in no wise a self-evident concomitant with or expression of the primordial
intuition of probability, but rather a mathematical construct derived from the latter under
very special conditions and as the result of a fairly complicated process implicitly based on
Chapitre 3 : Incertitude, probabilités et croyances : fondements des probabilités subjectives
incertaines
les
axiomes
caractérisant
« les
lois
de
cohérence
intuitivement
évidentes
gouvernant toutes les comparaisons de probabilités » (Koopman (1940, p.275)),
lesquels n'incluent pas la complétude et ne conduisent ainsi, au plus, qu'à des
comparaisons partielles. Puis, l'auteur introduit les conditions permettant de
représenter la relation de probabilité comparative par des probabilités quantitatives
inférieures et supérieures et, enfin, les conditions supplémentaires conduisant à
des probabilités numériques. Le passage de probabilités comparatives à des
probabilités quantitatives se fait, comme chez Keynes (1921), grâce à l'introduction
d'une hypothèse, « (...) the precise philosophical character of which we shall not
undertake to examine (...) » (Koopman (1940, p.283)), posant l'existence, pour tout
entier n, d'au moins un ensemble de n propositions d'union non nulle,
mutuellement exclusives et équiprobables ⎯ un tel ensemble est appelé une néchelle (« n-scale »).
Axiomes des probabilités qualitatives : présentation et critique
Une autre façon de critiquer la réduction des croyances à une probabilité
numérique consiste à emprunter le chemin inverse de celui de Koopman (1940)
c'est-à-dire à partir des conditions assurant la compatibilité pour ensuite souligner
leur insuffisante généralité dans la formalisation des croyances 33 .
many of the very intuitive assumptions which we are endeavoring to axiomatize: There is, in
short, what appears to us to be a serious rational lacuna between the primal intuition of
probability, and that branch of the theory of measure which passes conventionally under
the name of probability. Moreover, this assumption commits one to too great precision,
leading, either to absurdities, or else to the undue restriction of the field of applicability of
the idea of probability. » (Koopman (1940, pp.269-270)).
33
Ce qui suit est issu pour l'essentiel de Fishburn (1986a). Précisons que :
Chapitre 3 : Incertitude, probabilités et croyances : fondements des probabilités subjectives
incertaines
Soient S = {1,... , n} un ensemble (fini) appelé événement universel, ∅
l'événement vide, 2 S l'ensemble de tous les sous-ensembles de S notés A,B,... et
appelés événements.
compatible avec f
~*
est une relation de probabilité comparative. P est
f
~*
lorsque, pour tout A et B dans 2 S , A f B ⇔
~*
∑ pi
i ∈A
≥
∑ pi ,
i ∈B
où
( )
pi = P {i } , ∀i ∈ S .
f est une relation de probabilité qualitative (Savage (1954)) lorsque :
~*
(i) f est un préordre complet.
~*
(ii) A f B ssi A∪C f B∪C, pour tous les événements A,B,C tels
~*
~*
que A∩C=B∩C=∅ (additivité).
(iii) A f ∅, ∀A∈ 2 S (non-négativité).
~*
(iv) S f ∅ (non-trivialité).
~*
Les conditions définissant une probabilité qualitative sont nécessaires pour
assurer la compatibilité (de Finetti (1931)) mais pas suffisantes lorsque n ≥5 (Kraft
et alii. (1959)). En effet 34 , soient S = {1,2,3,4,5} et f
~*
qualitative
telle
que :
une relation de probabilité
A1 = {2 ,3 ,5 } f* B1 = {1,4} , A2 = {3 ,4} f* B2 = {2 ,5 } ,
A3 = {1,5 } f* B3 = {2 ,3} et A4 = {2} f* B4 = {3 ,5 } . Si une mesure P compatible
1) Nous ne nous intéressons qu'au cas fini.
2) Le traitement axiomatique de la relation de probabilité comparative est, de
manière privilégiée, attaché à l'approche intuitive ⎯ Kraft et alii. (1959) assimilent d'ailleurs
« probabilité intuitive » et « théorie axiomatique de la probabilité ».
34
Cet exemple est donné par Fishburn (1996).
Chapitre 3 : Incertitude, probabilités et croyances : fondements des probabilités subjectives
incertaines
avec
existait,
f
~*
nous
p2 + p3 + p5 > p1 + p4 ,
aurions
p3 + p4 > p2 + p5 ,
p1 + p5 > p2 + p3 et p2 > p3 + p5 , ce qui donne, par sommation et simplification
0 >0.
Une condition supplémentaire doit être ajoutée aux conditions (i) à (iv) pour
fournir
l'ensemble
des
conditions
nécessaires
et
suffisantes
assurant
la
compatibilité.
Définissons
( A1 ,... , Am ) =0 ( B1 ,... , Bm )
Aj , B j ∈ 2S
par :
{
j ∈ {1,... , m} et, pour chaque i ∈ {1,... , n} , # j : i ∈ A j
pour
tout
} = # {j : i ∈ B j } .
La condition supplémentaire est alors la suivante (Kraft et alii. (1959)) 35 .
(v) ∀m ≥ 2 , ∀A j , B j ∈ 2 S , [ ( A1 ,... , Am ) =0 ( B1 ,... , Bm ) et
A j f B j , ∀j < m ] ⇒ ¬( Am f* Bm ) (Additivité forte)
~*
Dans
l'exemple
{
}
{
}
{
}
# j : 1 ∈ Aj =
# {A3 } =
( A1 , A2 , A3 , A4 ) =0 ( B1 , B2 , B3 , B4 )
précédent,
{
}
{
}
# j : 1 ∈ Bj =
# {B1} ,
{
}
{
}
# j : 2 ∈ Aj =
puisque
# {A1 , A4 } =
# j : 2 ∈ B j = # {B2 , B3 } , # j : 3 ∈ A j = # {A1 , A2 } = # j : 3 ∈ B j = # {B3 , B4 } et
{
}
# j : 4 ∈ A j = # {A2 } = # j : 4 ∈ B j = # {B4 } . Pour que l'additivité forte soit
vérifiée, il faudrait donc que, par exemple, B4 f A4 .
~*
Dans quelle mesure les conditions (i) à (v) doivent-elles être imposées à tout
jugement
de
croyance
exprimé
sous
forme
d'une
relation
de
probabilité
comparative ?
35
Une discussion du caractère nécessaire et suffisant de cette condition pour la
compatibilité est donnée dans Fishburn (1986a,1996).
Chapitre 3 : Incertitude, probabilités et croyances : fondements des probabilités subjectives
incertaines
Nous laissons de côté la non-négativité et la non-trivialité qui ne semblent
pas contestables. En revanche, la complétude, la transitivité, l'additivité et
l'additivité forte sont discutables, notamment lorsque l'on a affaire à des
événements qualitativement différents.
Prenons les deux événements suivants : A=« La pollution à Paris le 12 juin
2005 dépassera le niveau 3 » et B=« Le taux Eonia (Euro Overnight Index Average)
sera supérieur à 2% le 12 juin 2005 ». Il n'est pas déraisonnable de refuser aussi
bien
A f B
~*
que
B f A.
~*
Le
rejet
de
la
complétude
est
argumenté
par
Keynes (1921) 36 .
L'exemple suivant, adapté de Fishburn (1986a), illustre une violation de la
transitivité de f* qui ne semble pas manifester une irrationalité des croyances.
Nous nous intéressons au quadruplet (x,y,z,w) donnant, dans l'ordre, les valeurs du
taux de croissance (Produit Intérieur Brut, en volume, en %), du taux d'inflation
(indice des prix à la consommation, en glissement annuel, en %), du solde des
transactions courantes (en milliards d'euros) et du taux de chômage (en
pourcentage de la population active), pour la France en 2005. Soient les quatre
événements
. ; 5 ; 10 ) ,
suivants : A = (2 ; 15
B = (1 ; 2.4 ; 35 ; 9 .0 ) ,
C = (3 ; 2.8 ; 25 ; 8.5 ) et D = (4 ; 2.0 ; 15 ; 9.5 ) . En supposant qu'un événement
est jugé plus probable qu'un autre si trois de ses dimensions (sur quatre) sont plus
36
« (...) there are some pairs of probabilities between the members of which no
comparison of magnitude is possible ; (...) by saying that not all probabilities are comparable
in respect of more and less, I mean that it is not always possible to say that the degree of
our rational belief in one conclusion is either equal to, greater than, or less than the degree
of our belief in another. » (Keynes (1921, p.34)).
Chapitre 3 : Incertitude, probabilités et croyances : fondements des probabilités subjectives
incertaines
vraisemblables, alors nous pouvons facilement accepter le cycle : A f* B, B f* C,
C f* D et D f* A 37 .
Le rejet de l'additivité peut s'appuyer sur l'exemple suivant donné par
Fishburn (1983b). Soit une course dans laquelle trois chevaux seulement sont
engagés, numérotés 1, 2 et 3. On sait que 1 a gagné environ 1/3 de ses courses (à
trois partants) précédentes mais on ne sait rien des performances antérieures de 2
et 3. On sait, de plus, que 1 a perdu un peu plus de 2/3 de ses courses précédentes
lorsque le terrain était lourd et qu'il y a 80% de chances qu'il pleuve le jour de la
course. Dans ces conditions, on peut très bien avoir, notant
{X }
l'événement « X
gagne la course », {1} f* {2} et {1} f* {3} , au regard des performances antérieures
de 1 ; mais {2 ,3} f* {1,2} et {2 ,3} f* {1,3} en considérant que, au regard des piètres
performances de 1 sur terrain lourd, 2 ou 3 ont plus de chances de gagner que 1 ou
2, ou 1 ou 3.
Un exemple proche du paradoxe d'Ellsberg peut être construit de la manière
suivante. Soit une urne contenant 102 boules : 41 sont marquées des chiffres 1 ou
2 et 61 sont marquées des chiffres 3, 4 ou 5. Notons {X ,Y } l'événement « La boule
tirée est marquée du chiffre X ou Y ». Le jugement de vraisemblance {1,2} f* {4 ,5 }
et
{4 ,5 ,3} f {1,2 ,3}
*
viole l'additivité sans pouvoir être considéré aisément comme
inadmissible.
37
Ce cycle est obtenu lorsque les jugements de vraisemblance portant sur chaque
dimension séparément sont :
- pour x : 2 f* 1 f* 3 f* 4.
- pour y : 2.0 f* 1.5 f* 2.4 f* 2.8.
- pour z : 25 f* 15 f* 5 f* 35.
- pour w : 9.0 f* 8.5 f* 9.5 f* 10.
Chapitre 3 : Incertitude, probabilités et croyances : fondements des probabilités subjectives
incertaines
Un exemple similaire conduit à une violation de l'additivité forte. Reprenons
le cas des jugements de vraisemblance illustrant le résultat de Kraft et alii. (1959),
où S = {1,2 ,3 ,4 ,5 } . Soit une urne contenant 102 boules dont on sait que : 40 boules
sont marquées des chiffres 1 ou 5, 40 boules sont marquées des chiffres 3 ou 4, 22
boules sont marquées du chiffre 2 et 40 boules sont marquées des chiffres 1 ou 4.
Partant
de
ces
informations,
les
jugements
A1 f* B1 ,
A2 f* B2 , A3 f* B3
et A4 f* B4 semblent parfaitement admissibles.
Donc, que l'on tente une construction axiomatique de la relation de
probabilité comparative ou que l'on discute les axiomes nécessaires et suffisants
pour construire une probabilité comparative compatible avec une probabilité
numérique,
l'approche
intuitive
montre
⎯ beaucoup
mieux
que
l'approche
préférentialiste ⎯ combien la probabilité numérique est une notion trop restrictive
pour appréhender la formalisation des croyances (personnelles).
Croyances et données de l'environnement
Fréquences et probabilités subjectives : le théorème de de Finetti
« Pourquoi sommes-nous donc poussés, dans la plupart des problèmes, à
évaluer une probabilité d'après l'observation d'une fréquence ? » (de Finetti (1937,
p.25)). La réponse que de Finetti donne à cette question fournit un exemple de règle
d'inférence particulièrement convaincant dans la mesure où : 1) Les fréquences
constituent effectivement des données de l'environnement souvent utilisées pour la
formation des croyances, 2) La règle d'inférence retenue ne repose sur aucune
propriété mystérieuse concernant le monde physique mais uniquement sur une
hypothèse portant sur les croyances elles-mêmes. Ce dernier point est central car
c'est en fait à une réinterprétation subjectiviste des résultats de la théorie
fréquentiste que l'auteur procède ici.
Chapitre 3 : Incertitude, probabilités et croyances : fondements des probabilités subjectives
incertaines
Supposons que l'on répète n fois dans des conditions identiques une
expérience aléatoire, dont l'issue se traduit par l'apparition ou la non-apparition
d'un événement de probabilité fixe et inconnue q, le résultat d'une expérience étant
indépendant des résultats précédents. Les lancers d'une pièce où l'événement
considéré est « la pile tombe sur face » servent traditionnellement d'illustration.
Soit X n la variable aléatoire prenant pour valeurs 1 ou 0 selon que l'événement
respectivement se réalise ou ne se réalise pas à la nième répétition. X 1 +...+ X n donne
alors le nombre d'apparitions de l'événement parmi n expériences. On a :
1) P ( X 1 +. ..+ X n = k ) = C nk q k ( 1 − q ) n − k (loi binomiale B(n,q)), avec 0≤ k≤ n.
2)
lim
n→∞
X 1 +...+ X n
= q (loi forte des grands nombres).
n
La présentation ci-dessus, qui repose sur la théorie fréquentiste, est vivement
critiquée par de Finetti (1937) car elle nécessite le recours à « la définition
nébuleuse et inexacte d'"événements indépendants avec probabilité fixe mais
inconnue" » (de Finetti (1937, p.50)), « la définition ancienne ne pouvait en fait être
dépouillée de son caractère, pour ainsi dire, "métaphysique" : on était obligé de
supposer que, au-delà de la loi de probabilité correspondant à notre jugement, il
devait y en avoir une autre, inconnue, correspondant à quelque chose de réel, et
que les diverses hypothèses sur cette loi inconnue ⎯ d'après laquelle les diverses
épreuves ne seraient plus dépendantes mais indépendantes ⎯ constitueraient des
événements dont on pourrait considérer la probabilité. De notre point de vue, ces
phrases sont complètement dénuées de sens (...) » (de Finetti (1937, p.49)).
Selon de Finetti (1937), l'objet qui nous intéresse est le jugement (personnel)
de probabilité, lequel s'appuie ⎯ implicitement ⎯ sur la totalité de l'expérience
individuelle vue comme un processus cumulatif permanent. C'est pourquoi, le sens
que prend ici le terme "événement" est complètement différent du sens qu'il prend
dans la théorie fréquentiste. Ainsi, « un événement est toujours un fait singulier : si
Chapitre 3 : Incertitude, probabilités et croyances : fondements des probabilités subjectives
incertaines
l'on a à considérer plusieurs épreuves, nous ne dirons jamais "épreuves d'un même
événement", mais "épreuves d'un même phénomène", et chaque "épreuve" sera un
"événement". » (de Finetti (1937, pp.6-7)).
Cependant,
rien
n'empêche
de
substituer
à
la
notion
"insensée"
d'indépendance physique une notion d'indépendance subjective ce qui conduit de
Finetti (1937) à définir des séquences d'événements équivalents 38 .
Définissons la variable aléatoire
l'ensemble
des
séquences
Xn
d'événements,
comme précédemment 39 . Soit S
s = ( htt ... ) ,
s' = ( thh ... ) ...
⎯ les
événements élémentaires sont h ou t (face ou pile). X n ( s ) = 1 signifie que la nème
composante de la séquence s est face. Soit p la probabilité subjective définie sur
tous les sous-ensembles de S.
Soit une séquence de variables aléatoires
X 1 , X 2 ,... , X n . Lorsque la
probabilité que X 1 , X 2 ,... , X n satisfassent à une condition donnée est la même que
celle que X k1 , X k2 ,... , X kn satisfassent à cette même condition pour tout n et toute
permutation
{k1 ,... kn }
de
{1,...n} ,
on dit que la séquence
{X 1 , X 2 ,... , X n }
est
symétrique ou que les variables aléatoires X 1 , X 2 , ... , X n sont équivalentes. Si
X 1 , X 2 ,... , X n
sont
des
variables
aléatoires
équivalentes,
les
événements
E i = ( X i ∈ I , i = 1,... , n ) (I, ensemble de nombres quelconques) sont équivalents.
Par exemple, si p( X 1 = 1, X 2 = 0 , X 3 = 1, X 4 = 1) = p( X 3 = 1, X 4 = 0 , X 2 = 1, X 1 = 1) ,
les variables aléatoires X 1, X 2 , X 3 , X 4 sont jugées équivalentes : l'ordre de la
38
Ou
« séquences
symétriques
d'événements » (« symmetric
sequences
events ») (Savage (1954))ou propriété d'« échangeabilité » (« exchangeability »).
39
La présentation donnée ici est issue de Kreps (1988, chapitre 11).
of
Chapitre 3 : Incertitude, probabilités et croyances : fondements des probabilités subjectives
incertaines
succession des épreuves du phénomène n'intervient pas dans le jugement de
probabilité.
On a alors (théorème de de Finetti) :
Les variables aléatoires de la séquence sont équivalentes ssi :
⎛⎧
a) p ⎜ ⎨s ∈ S :
⎝⎩
lim
n→∞
b) Soit α ( s ) =
X 1 ( s ) + X 2 ( s ) +...+ X n ( s )
⎫⎞
existe ⎬⎟ = 1 .
n
⎭⎠
lim
n→∞
X 1 ( s ) + X 2 ( s ) +...+ X n ( s )
, ∀s ∈ S :
n
p( X 1 +...+ X n = k ) =
(
1
k
∫ Cn γ
k
( 1 − γ ) n − k dF ( γ ) où
0
)
F ( γ ) = p {s ∈ S : α ( s ) ≤ γ } , ∀γ ∈ [0 ,1] .
Puisque le théorème de de Finetti permet de caractériser les lois de
probabilité correspondant au cas d'équivalence comme des "moyennes" de lois
correspondant au cas d'indépendance et d'équiprobabilité, il nous conduit à la
conclusion pratique suivante : « une expérience assez riche nous amène toujours à
considérer comme probables des fréquences ou distributions futures voisines de
celles observées ». (de Finetti (1937, p.50)).
Heuristics and Biases
Plutôt que de rechercher les conditions sous lesquelles les croyances
reposent sur des fréquences, les travaux réunis dans l'ouvrage Judgment under
Uncertainty : Heuristics and Biases (Kahneman et alii. (1982)) cherchent à répondre
à la question : comment les individus élaborent-ils leurs estimations et prévisions ?
Cette question suppose de déterminer les données de l'environnement qui sont
Chapitre 3 : Incertitude, probabilités et croyances : fondements des probabilités subjectives
incertaines
utilisées par les individus et notamment de savoir si nous sommes poussés à
évaluer une probabilité d'après l'observation d'une fréquence 40 .
Kahneman et alii. (1982) relèvent trois heuristiques largement utilisées :
1) La représentativité (« Representativeness ») : une personne
qui suit cette heuristique évalue la probabilité d'un événement « par le degré
auquel : (i) il est similaire dans ses propriétés essentielles à sa population de
référence ; et (ii) il reflète les caractéristiques saillantes du processus par lequel il a
été généré. » (Kahneman et Tversky (1972) in Kahneman et alii. (1982, p.33)).
2) La disponibilité (« Availability ») : une personne qui suit
cette heuristique évalue la probabilité d'un événement au travers de la facilité avec
laquelle les opérations mentales pertinentes de recherche, de construction ou
d'association peuvent être exécutées.
3) L'ajustement et l'ancrage (« Adjustment and anchoring ») :
une personne qui suit cette heuristique évalue la probabilité d'un événement en
partant d'une valeur initiale qui est ensuite ajustée par la prise en compte des
données pertinentes pour l'évaluation de la probabilité. La valeur initiale « peut être
suggérée par la formalisation du problème, ou elle peut être le résultat d'un calcul
partiel. » (Kahneman et alii. (1982, p.14)).
Parmi les nombreuses conséquences de l'utilisation de ces heuristiques, on
peut en citer deux pour lesquelles le lien entre fréquences et croyances est
concerné.
La première est la sous-estimation du poids des données observées,
connue sous le nom de conservatisme (Edwards (1968)). Soit une urne contenant
40
On suppose ici que les croyances peuvent être pleinement représentées par des
probabilités.
Chapitre 3 : Incertitude, probabilités et croyances : fondements des probabilités subjectives
incertaines
-
1
de boules blanches (urne de type R), soit
2
des boules rouges et blanches dans des proportions
boules rouges et
et
1
3
1
3
2
3
2
3
: on a soit
3
de boules blanches
3
de
de boules rouges (urne de type W). Un individu A a procédé à 5 tirages avec
remise dans l'urne et a obtenu : 4 boules rouges et 1 boule blanche. Un individu B
a procédé à 20 tirages avec remise dans l'urne et a obtenu : 12 boules rouges et 8
boules blanches. Quel est l'individu qui doit avoir le plus confiance dans
l'hypothèse que l'urne est de type R ? La règle de Bayes donne, en prenant
1
2
comme probabilité a priori que l'urne soit de type R, des probabilités a posteriori
égales à 0.89 pour l'individu A et 0.94 pour l'individu B. Or, la plupart des gens
pensent que c'est l'individu A qui doit avoir le plus confiance dans l'hypothèse que
l'urne est de type R (Kahneman et alii. (1982, p.7)).
La deuxième conséquence est la sous-estimation des probabilités a priori
(« base rates »). L'exemple suivant a été étudié par Grether (1980, 1992). Dans une
première étape, le tirage d'une boule dans une urne, que nous nommons Urne 1,
détermine l'urne (A ou B) utilisée dans une deuxième étape. Le résultat de ce tirage
n'est pas annoncé mais on connaît la composition de l'urne 1, ce qui nous donne la
probabilité a priori que l'urne A soit utilisée à la deuxième étape, cette probabilité
étant, selon les cas proposés
2
3
, 1 2 ou
1
3
. Dans une deuxième étape, 6 tirages
(avec remise) sont effectués dans l'urne A ou B (non connue des sujets), sachant
que l'urne A est composée de 4 boules marquées de la lettre N et 2 boules marquées
de lettre G et que l'urne B est composée de 3 boules marquées de la lettre N et 3
boules marquées de lettre G. Il est alors demandé aux sujets quelle est l'urne qu'ils
pensent avoir été utilisée à la deuxième étape. Les résultats montrent que les
croyances
exprimées
entrent
plus
fréquemment
en
contradiction
avec
les
probabilités a posteriori "théoriques" lorsque l'ensemble des 6 boules tirées (à la
deuxième étape) a une structure qui "représente" ("ressemble à") la composition de
Chapitre 3 : Incertitude, probabilités et croyances : fondements des probabilités subjectives
incertaines
l'urne la moins probable "théoriquement". C'est le cas, par exemple, lorsque la
probabilité a priori est
1
3
pour l'urne A et le nombre de boules N sur 6 tirées est
égal à 4 : ici, l'urne utilisée théoriquement la plus probable est l'urne B (la règle de
Bayes donne une probabilité a posteriori que l'urne A ait été utilisée égale à 0.41)
mais la structure de l'ensemble des 6 boules tirées "ressemble" plus à la
composition de l'urne A qu'à celle de l'urne B.
Quels sont les enjeux de tels résultats ?
D'après Kahneman et alii. (1982), le recours à certaines heuristiques dans la
réalisation d'estimations ou de prévisions peut être « assez utile » (Tversky et
Kahneman (1974) in Kahneman et alii. (1982, p.3)) mais mène parfois à « des
erreurs sévères et systématiques. » (Ibid.). L'utilité d'un tel recours peut être
facilement interprétée à partir de la prise en compte des limitations cognitives des
individus : la complexité des modèles théoriques est inaccessible pour les individus
qui sont conduits à substituer à ces modèles quelques heuristiques simples ; cette
substitution est nécessaire et utile (efficace) compte tenu des économies de calcul
qu'elle permet. Quant aux erreurs ou biais (« biases ») occasionnés, ils sont issus le
plus souvent du fait que les probabilités exprimées ne s'appuient pas sur les
fréquences observées, contredisant alors les lois du calcul des probabilités
habituellement admises. En conséquence, il y a une séparation nette entre une
Chapitre 3 : Incertitude, probabilités et croyances : fondements des probabilités subjectives
incertaines
théorie des probabilités objectives qui est normative et une théorie des probabilités
subjectives qui est descriptive 41 .
A l'interprétation en termes d'heuristiques et de biais, s'oppose celle de la
rationalité située (« Ecological rationality ») (Gigerenzer (1991)). Celle-ci, plutôt
que de souligner les contraintes internes (limitations cognitives) qui sont à la source
des "erreurs" des individus, part de l'étude des heuristiques du point de vue de leur
rationalité relative au contexte du jugement ou de l'action, c'est-à-dire relativement
aux contraintes externes qui s'imposent aux individus. Cette rationalité située
s'évalue par le « degré d'adaptation aux structures de l'environnement, à la fois
physique et social. » (Gigerenzer (2001, p.38)). En particulier, Gigerenzer et
Hoffrage (1995) précisent que la sous-estimation des probabilités a priori (« base
rate neglect ») peut apparaître comme parfaitement rationnelle lorsque l'information
est représentée sous forme de fréquences plutôt que sous forme de probabilités.
De notre point de vue, la critique qu’élabore l’approche en termes de
rationalité située à l’égard du programme heuristiques et biais est nécessairement
limitée dans la mesure où elle conserve l’idée que les fréquences sont des données
de l’environnement que les individus doivent utiliser dans la formation de leurs
croyances. Il ne s’agit pas d’affirmer que la rationalité cognitive des individus est
41
« Nous utilisons le terme "probabilité subjective" pour signaler toute estimation de
la probabilité d'un événement, qui est donnée par un individu, ou inférée de son
comportement (...). Nous utilisons le terme "probabilité objective" pour signifier les valeurs
calculées, sur la base de certaines hypothèses données, conformément aux lois du calcul
des probabilités. » (Kahneman et Tversky (1972) in Kahneman et alii. (1982, p.32)).
Chapitre 3 : Incertitude, probabilités et croyances : fondements des probabilités subjectives
incertaines
parfaite dans la réalité. Les erreurs de jugement sont effectivement fréquents 42 et
sans doute dépendants des contraintes externes à l’individu. Mais, l’utilisation des
fréquences par les individus dans la formation de leurs croyances est une question
empirique : elle ne permet pas de traiter de la rationalité des croyances puisque,
comme nous l’avons vu dans la section 3.2, les fréquences ne constituent pas des
probabilités objectives. Ce point de vue se retrouve chez de Finetti (1937) qui
précise que la condition d'équivalence qui conduit à la convergence des probabilités
subjectives vers les fréquences observées n'a « qu'une valeur subjective » (de
Finetti (1937, p.62)) et « On pourrait ne pas exclure du tout a priori une influence
de l'ordre des épreuves (...) [et tenir compte] non plus seulement de la fréquence
observée, mais aussi de régularités ou de tendances à certaines régularités que
l'observation peut révéler. » (de Finetti (1937, pp.53,54)).
42
Donnons deux exemples, l’un faisant intervenir un contexte d’incertitude, l’autre
non :
1) Soit une urne contenant des boules rouges ou noires dans des proportions
inconnues. Supposons qu’un tirage avec remise soit effectué et que la boule tirée soit noire.
Si, après ce tirage, un individu fixe la probabilité de tirer une boule noire dans l’urne égale à
zéro, nous pouvons affirmer que ses croyances ne sont pas rationnelles.
2) Kahneman et alii. (1982, pp.14-15) reportent une expérience dans laquelle un
groupe
de
sujets
a
fourni
une
estimation
médiane
égale
512
pour
le
produit
1×2×3×4×5×6×7×8 et un autre groupe a fourni une estimation médiane égale à 2250 pour le
produit 8×7×6×5×4×3×2×1. Il y a ici incontestablement une erreur de calcul et les
estimations données peuvent aisément être interprétées par une procédure d'ancrage et
d'ajustement.
Chapitre 3 : Incertitude, probabilités et croyances : fondements des probabilités subjectives
incertaines
Modèles mathématiques de l'incertitude
Présentation générale
L'analyse critique des interprétations fréquentistes, logiques et subjectives
conduit souvent, comme nous l'avons vu, à une remise en cause du concept de
probabilité lui-même et de ses propriétés mathématiques. Or, indépendamment ou
non d'une interprétation particulière, plusieurs modèles mathématiques apportent
des formalisations de l'incertitude plus générales que celle réduite à une probabilité
numérique. C'est à ces modèles que nous nous intéressons dans cette section.
Pour
la
clarté
de
la
présentation,
nous
proposons
de
distinguer,
grossièrement, les formalisations privilégiant :
1) Une
comparabilité
totale
c'est-à-dire
représentant
l'incertitude par une unique mesure numérique qui permet de caractériser
précisément tout événement associé au phénomène incertain considéré.
2) Une comparabilité partielle c'est-à-dire pour lesquelles une
caractérisation complète de l'incertitude attachée à un événement ne peut se faire
systématiquement à partir d'un seul nombre. Dès lors, l'ignorance ou l'"incroyance"
totale, au sens où un événement et son complémentaire peuvent avoir tous les deux
un degré d'incertitude ou de vraisemblance maximal, devient admissible. De même,
l'incapacité à trancher quant à la plus ou moins grande incertitude d'un événement
par rapport à un autre est une possibilité.
3) Une incomparabilité c'est-à-dire pour lesquelles, même si
une caractérisation de l'incertitude attachée à un événement particulier est
possible, on ne dispose pas, en général, de mesure permettant une comparaison de
l'incertitude ou de la vraisemblance de plusieurs événements.
Ces
trois
catégories
correspondent,
dans
l'ordre,
à
un
niveau
de
généralisation croissant mais on peut également souligner que le lien entre ces
Chapitre 3 : Incertitude, probabilités et croyances : fondements des probabilités subjectives
incertaines
différents niveaux relève de deux démarches distinctes. L'une consiste à rechercher
une généralisation de la théorie standard de la probabilité numérique en
abandonnant certaines de ses propriétés. L'autre consiste à rechercher une théorie
de l'incertitude proprement alternative à la théorie des probabilités, cette dernière
pouvant éventuellement apparaître comme un cas particulier de la théorie générale.
Dans toute cette section, Ω désigne l'ensemble de référence, supposé fini et
non vide et 2 Ω l'ensemble des parties de Ω, notées A,B... et appelées événements 43 .
Le premier cas correspond aux probabilités numériques telles qu'elles sont
axiomatisées par Kolmogoroff (1933). Rappelons qu'une mesure (simple) de
probabilité P est une fonction à valeurs réelles définie sur l'ensemble 2 Ω telle que :
(i) P(A) ≥0, ∀A∈ 2 Ω (axiome de non-négativité).
(ii) P(Ω) =1 (axiome de normalisation).
(iii) ∀A,B∈ 2 Ω tels que A∩B = ∅, P(A∪B) = P(A) + P(B) (axiome
d'additivité, dit des probabilités totales).
Rappelons également les propriétés suivantes. Pour tout événement A et tout
événement B :
(iv) P(A) + P( A c ) = 1, d'après (ii) et (iii).
(v) P(A∪B) = P(A) + P(B) - P(A∩B), d'après (iii).
(vi) Si B ⊆ A, alors P(A) ≥ P(B), d'après (iii) et (i) (Monotonie).
43
Rappelons les définitions suivantes. Une algèbre est définie sur un système
d'ensembles s ⊆ 2 Ω (où Ω est généralement infini) par : i) s est stable par réunions finies
(∀A,B∈s, A ∪B∈s) et ii) s est stable par complémentation (∀A∈s, A c ∈s). Si, de plus, s est
stable par réunions dénombrables ⎯ c'est-à-dire que
U A ∈s chaque fois que Γ est un sousΓ
ensemble dénombrable et non vide de s ⎯ alors s est une σ-algèbre.
Clairement, 2 Ω est une algèbre.
Chapitre 3 : Incertitude, probabilités et croyances : fondements des probabilités subjectives
incertaines
Le deuxième cas, correspond à une large classe de modèles, que nous
détaillons plus loin, qui généralisent ou rejettent la théorie mathématique des
probabilités. Ces modèles ne respectent pas l'additivité.
Le troisième cas, correspond à des formalisations totalement alternatives à la
théorie standard des probabilités, regroupant principalement :
1) Les probabilités comparatives incomplètes ainsi que nous l'avons vu dans
la section 3.1.3.
2) Les probabilités modales présentées notamment par Burgess (1969) dans
le langage des propositions et par Walley et Fine (1979) dans le langage des
événements. Ces derniers introduisent un opérateur P défini sur 2 Ω où PA signifie
« A n'est pas improbable » et tel que, pour tout A∈ 2 Ω :
(i) (PA et A ⊆ B) ⇒ PB.
(ii) PA ou P A c .
(iii) non P∅.
Walley et Fine (1979) fournissent également les liens entre cette structure
mathématique très générale et les approches plus restrictives (comparabilités
partielle et totale).
Comparabilité partielle
Probabilités imprécises et ensembles de mesures de probabilités
Soit une mesure de probabilité P sur 2 Ω . Supposons cependant que la
probabilité P(A) soit inconnue, inaccessible (Good (1962)) mais que seules soient
accessibles ses limites inférieure et supérieure P∗ (A) et P ∗ (A) respectivement. P∗ (A)
et P ∗ (A) sont des fonctions d'ensemble de 2 Ω dans [0,1] telles que (Good (1962),
Walley et Fine (1982)) :
Chapitre 3 : Incertitude, probabilités et croyances : fondements des probabilités subjectives
incertaines
(i) P∗ (∅) = P ∗ (∅) = 0 et P∗ (Ω) = P ∗ (Ω) = 1.
(ii) P ∗ (A) = 1 - P∗ ( A c ).
(iii) ∀A∩B = ∅, P∗ (A∪B) ≥ P∗ (A) + P∗ (B) (super-additivité).
(iv) ∀A∩B = ∅, P ∗ (A∪B) ≤ P ∗ (A) + P ∗ (B) (sous-additivité).
On a les propriétés suivantes (Good (1962), Walley et Fine (1982)) :
(v) P ∗ (A) ≥ P∗ (A).
(vi) B ⊆ A ⇒ P∗ (A) ≥ P∗ (B) et P ∗ (A) ≥ P ∗ (B) (monotonie).
(vii) A∩B = ∅, P ∗ (A∪B) ≥ P ∗ (A) + P∗ (B) ≥ P∗ (A∪B).
Les probabilités imprécises fournissent une représentation intuitive simple de
l'incertitude qui conduit à une comparabilité totale entre deux événements
quelconques A et B uniquement lorsque P ∗ (A) < P∗ (B).
Une limite de cette approche réside dans la précision qui est imposée aux
bornes P∗ (A) et P ∗ (A). La possibilité de rendre ces bornes elles-mêmes imprécises
(Good (1952)) se heurte, comme pour la définition de probabilités de second ordre
(Savage (1954, p.58)), au caractère infini de la procédure ainsi engagée (bornes
imprécises des bornes imprécises... ; voir Good (1962, p.327)).
Une représentation de l'incertitude proche de celle reposant sur des
probabilités imprécises suppose l'existence d'un ensemble P (non vide) de mesures
de probabilités sur 2 Ω (Smith (1961), Dempster (1967)).
Soit
P∗ : 2 Ω → [0,1]
une
fonction
d'ensemble
définie
par :
∀A∈ 2 Ω ,
P∗ (A) = inf { P(A) : P∈P }. P∗ est appelée une enveloppe inférieure (Walley et
Fine (1982))
et
est
une
probabilité
inférieure.
Et,
la
fonction
d'ensemble
P ∗ : 2 Ω → [0,1] définie par ∀A∈ 2 Ω , P ∗ (A) = sup { P(A) : P∈P } est appelée une
enveloppe supérieure et est une probabilité supérieure.
Chapitre 3 : Incertitude, probabilités et croyances : fondements des probabilités subjectives
incertaines
Cependant, soient P∗ et P ∗ une probabilité inférieure et une probabilité
supérieure
et
soit
P ∗ = { P : ∀A∈ 2 Ω ,
l'ensemble
P∗
de
mesures
P∗ (A) ≤ P(A) ≤ P ∗ (A) }. P ∗
de
probabilités
défini
par
peut être vide (Dempster (1967)) ;
autrement dit, si une enveloppe inférieure est une probabilité inférieure, une
probabilité inférieure peut ne pas être une enveloppe inférieure.
Mesures non-additives
Soit μ une fonction d'ensemble de 2 Ω dans ℜ. La conjuguée, ou duale de μ
( )
est la fonction d'ensemble μ définie sur 2 Ω par μ ( A) = μ (Ω ) − μ A c , ∀A⊆ 2 Ω .
La fonction d'ensemble μ : 2 Ω → ℜ est une capacité (Choquet (1953-54)) ou
mesure non-additive si :
(i) μ(∅) = 0.
(ii) μ(Ω) = 1.
(iii) ∀A,B∈ 2 Ω , B⊆A ⇒ μ(B) ≤ μ(A) (monotonie).
Une capacité est (voir Denneberg (1994) pour une étude détaillée) :
(iv) sous-additive si μ(A∪B) ≤ μ(A) + μ(B), ∀A∩B = ∅.
(v) super-additive si μ(A∪B) ≥ μ(A) + μ(B), ∀A∩B = ∅.
(vi) additive si elle est sous-additive et super-additive.
(vii) sous-modulaire ou 2-alternée ou concave si
μ(A∪B) + μ(A∩B) ≤ μ(A) + μ(B).
(viii) super-modulaire ou 2-monotone ou convexe si
μ(A∪B) + μ(A∩B) ≥ μ(A) + μ(B).
(ix) modulaire si elle est sous-modulaire et super-modulaire.
Notons que si μ est convexe alors μ est concave et réciproquement. Notons
également qu'une mesure de probabilité sur 2 Ω est une capacité additive.
Chapitre 3 : Incertitude, probabilités et croyances : fondements des probabilités subjectives
incertaines
Soit μ une capacité convexe. Soit le noyau de μ défini par core μ = { P :
P(A) ≥ μ(A), ∀A∈ 2 Ω } ; P est donc une mesure de probabilité dominant (faiblement),
pour tout événement, la capacité μ. Schmeidler (1986) et Chateauneuf et
Jaffray (1989) ont montré que core μ ≠ ∅, c'est-à-dire que μ est une enveloppe
inférieure donc une probabilité inférieure. On a donc ici ⎯ c'est-à-dire dans le cas
d'une capacité convexe ⎯, une interprétation immédiate de la capacité.
Cependant, soit P un ensemble (non vide) de mesures de probabilités. Alors,
μ définie par μ(A) = inf { P(A) : P∈P } peut ne pas être convexe (voir Chateauneuf et
Jaffray (1989, exemple 7)) et, si μ est convexe, P peut ne pas être son noyau (voir
Chateauneuf et Jaffray (1989, exemple 6)).
Shafer (1976) a introduit une capacité convexe particulière appelée fonction
de croyance (belief function). Une fonction de croyance Bel est une fonction
d'ensemble définie de 2 Ω dans [0,1] telle que :
(i) Bel(∅) = 0.
(ii) Bel(Ω) = 1.
(iii) Pour tout entier naturel k ≥2 et toute famille A1 ,... , An de
⎛ k
⎞
sous-ensembles de Ω, Bel ⎜ U Ai ⎟ ≥
⎝ i =1 ⎠
∑
∅ ≠ I ⊆ {1,...,k}
(−1) I + 1 . Bel ⎛⎜⎝ I Ai ⎞⎟⎠ .
i ∈I
Pour un k particulier, la condition (iii) est appelée k-monotonie (ou
monotonie d'ordre k). Lorsque k=2, on retrouve la convexité. Puisque l'inégalité de la
condition (iii) ("inégalités de Poincaré") est vérifiée pour tout entier naturel k ≥2, la
fonction Bel est dite
totalement monotone ou ∞-monotone (monotone d'ordre
infini). Notons que, pour k et k' entiers naturels tels que 2 ≤ k' ≤ k, la k-monotonie
implique la k'-monotonie (Chateauneuf et Jaffray (1989)).
Partant d'une fonction d'ensemble μ : 2 Ω → ℜ quelconque, on peut aisément
déterminer si μ est une fonction de croyance grâce aux résultats suivants. A chaque
Chapitre 3 : Incertitude, probabilités et croyances : fondements des probabilités subjectives
incertaines
fonction d'ensemble μ : 2 Ω → ℜ correspond une autre fonction d'ensemble
m : 2 Ω → ℜ définie par m(A) =
∑ (−1)
# (A − B )
B⊆A
. μ(B )
(Shafer (1976)) et
appelée
inversion de Möbius (Rota (1964)). Et, μ est une fonction d'ensemble non négative
∞-monotone ssi m est elle-même non négative (Shafer (1976), Chateauneuf et
Jaffray (1989)).
Le recours à la fonction m attachée à la fonction Bel est, par ailleurs, à
l'origine de l'interprétation de la fonction de la croyance. m(A) est en effet appelé par
Shafer (1976) la probabilité de base (« basic probability number ») de l'événement
A, c'est-à-dire la mesure de croyance portant exactement sur A ⎯ notons que
m(∅)=0 et que
∑ m( A )
A⊆Ω
= 1 . Mais, la croyance globale en l'événement A doit
également prendre en compte tous les événements impliquant A c'est-à-dire tous les
événements B⊆A. D'où la mesure totale de croyance Bel(A) calculée comme une
somme de probabilités de base ⎯ lesquelles ne portent pas sur des événements
distincts, comme cela serait le cas dans la théorie standard des probabilités, mais
sur des événements quelconques c'est-à-dire non exclusifs.
Enfin, la fonction duale d'une fonction de croyance est la fonction d'ensemble
notée Pl et appelée fonction de plausibilité (Plausibility function). On a : Pl(A) = 1 -
Bel ( A c ) =
∑ m( B ) .
A∩B ≠∅
Ainsi, « Bel(A) rassemble toute l'évidence positive en faveur
de A (B⊆A) tandis que Pl(A) rassemble l'évidence qui ne rend pas A impossible
(A∩B ≠ ∅) » (Dubois et Prade (1988, p.58)).
⎧0 si A ≠ Ω
Bel ( A ) = ⎨
est un exemple de fonction de croyance ⎯ impliquant
⎩1 si A = Ω
Pl(A)=1 pour tout événement A ⎯ qui caractérise une ignorance totale.
Chapitre 3 : Incertitude, probabilités et croyances : fondements des probabilités subjectives
incertaines
Soient maintenant N : 2 Ω →[0,1] et Π : 2 Ω →[0,1] deux fonctions d'ensemble
telles que :
(i) N(∅) = Π(∅) = 0.
(ii) N(Ω) = Π(Ω) = 1.
(iii) N(A∩B) = Min(N(A),N(B)).
(iv) Π(A∪B) = Max(Π(A),Π(B)).
N et Π sont appelées respectivement une mesure de nécessité (Dubois et
Prade (1980)) et une mesure de possibilité (Zadeh (1978)).
On a les propriétés suivantes :
(v) ∀A,B∈ 2 Ω , B⊆A ⇒ N(A) ≥ N(B) et Π(A) ≥ Π(B), d'après (iii) et
(iv) (monotonie).
(vi) N(A∪B) ≥ Max(N(A),N(B)) et Π(A∩B) ≤ Min(Π(A),Π(B)),
d'après (v).
(vii) N(A∪B) + N(A∩B) ≥ N(A) + N(B) d'après (iii) et (v)
(supermodularité).
(viii) Π(A∪B) + Π(A∩B) ≤ Π(A) + Π(B) d'après (iv) et (v)
(sous-modularité).
Les mesures de nécessité et de possibilité sont donc des capacités convexes
et concaves respectivement ⎯ la mesure de nécessité est la duale de la mesure de
possibilité ⎯ : elles peuvent donc être interprétées comme des probabilités
inférieures et supérieures.
Inversement, partant d'une capacité μ : 2 Ω →[0,1], la monotonie implique
μ(A∩B) ≤ Min(μ(A),μ(B)) et μ(A∪B) ≥ Max(μ(A),μ(B)). Les mesures de nécessité et de
possibilité apparaissent alors lorsque l'on restreint les inégalités précédentes à des
égalités.
Plus spécifiquement, soient Bel et m une fonction de croyance et une fonction
d'assignement de probabilité de base correspondant par l'inversion de Möbius. Le
sous-ensemble F de 2 Ω
tel que F = {A : m(A) >0} est appelé l'ensemble des
Chapitre 3 : Incertitude, probabilités et croyances : fondements des probabilités subjectives
incertaines
éléments focaux (Shafer (1976)). Lorsque F est une famille emboîtée d'ensembles
A1 ⊆K ⊆ An
⎯ et
que,
par
conséquent,
il
n'existe
pas
d'événements
incomparables ⎯ alors les fonctions Bel et Pl sont respectivement des mesures de
nécessité et de possibilité c'est-à-dire des fonctions de croyance et de nécessité
consonantes au sens de Shafer (1976) (voir Shafer (1987)). On peut alors considérer
que les mesures de possibilité et de nécessité synthétisent un corps de
connaissances imprécises mais cohérentes ⎯ puisque, du fait de la structure
emboîtée
de
F,
les
événements
se
confirment
mutuellement
(Dubois
et
Prade (1980)).
Terminons par la remarque suivante. Lorsque N et Π sont définis de 2 Ω dans
un ensemble borné totalement ordonné ayant 1 pour borne supérieure et 0 pour
borne inférieure, nous substituons à la théorie quantitative des possibilités une
théorie dite qualitative (ordinale) des possibilités. Dans ce cas, les mesures de
nécessité-possibilité n'apparaissent plus (directement) comme cas particuliers de
fonctions de croyance-plausibilité ou de probabilités imprécises (voir Dubois et
Prade (1998)).
Mesures décomposables
Soit g : 2 Ω →[0,1] une capacité telle que :
(i) ∀A∩B=∅, g(A∪B) = g(A) ┴ g(B) où ┴ est un opérateur de
[0,1]× [0,1] dans [0,1].
Une telle fonction d'ensemble est appelée une mesure décomposable et dite
générée par ┴. Les mesures décomposables ont été introduites par Dubois et
Prade (1982) et Weber (1984).
Si ┴ est non décroissante en chacun de ses arguments et a 0 pour élément
unité, alors ┴ est appelée une co-norme triangulaire (Schweizer et Sklar (1963)).
Chapitre 3 : Incertitude, probabilités et croyances : fondements des probabilités subjectives
incertaines
Trois classes principales de co-normes reposent sur les opérations des types
suivants (Dubois et alii. (1996)) :
1) a┴b = Max(a,b). g est alors une mesure de possibilité.
2) a┴b = Min(1,a+b).
Un
cas
particulier
de
mesure
décomposable
correspondante est une mesure de probabilité.
3) a┴b = a+b-ab. Les mesures décomposables correspondantes se comportent
de manière similaire aux mesures de possibilité, en particulier Max(g(A),g( A c ))=1.
Dubois et Prade (1988) rappèlent également que a┴b = a+b-λab mène à des
fonctions de plausibilité pour -1≤ λ≤0 et à des fonctions de croyance pour λ ≥0.
A la différence des probabilités imprécises, l'incertitude est ici évaluée par
des nombres précis. Cependant, ces nombres ne respectent pas en général les
règles du calcul des probabilités.
Comme dans l'approche par les mesures non-additives, deux nombres
(précis)
peuvent
être
nécessaires
pour
caractériser
pleinement
l'incertitude
entourant un événement quelconque A. Autrement dit, nous devons préciser les
caractéristiques de la fonction g , duale de la fonction décomposable g ⎯ avec
g ( A ) = 1 − g ( A c ) . Lorsque g est décomposable au travers d'une co-norme ┴ alors :
∀A,B∈ 2 Ω , A∪B=Ω ⇒ g ( A ∩ B ) = g ( A ) ∗ g ( B ) ,
où a∗ b =1-(1-a)┴(1-b). L'opération ∗ est appelée une norme triangulaire. On a
alors :
•
a∗ b = Min(a,b) quand a┴b = Max(a,b) et on retrouve les mesures de
nécessité et de possibilité.
•
a∗ b = Max(0,a+b-1) quand a┴b = Min(1,a+b).
•
a∗ b = ab quand a┴b = a+b-ab.
Chapitre 3 : Incertitude, probabilités et croyances : fondements des probabilités subjectives
incertaines
Interprétations et schéma synthétique
De même que le modèle mathématique des probabilités numériques
représenté par l'axiomatique de Kolmogoroff (1933) peut donner lieu à des
interprétations fréquentistes, subjectives ou logiques, les modèles mathématiques
alternatifs ou plus généraux présentés ci-dessus sont pour la plupart compatibles
avec des interprétations multiples. Nous discutons certaines de ces interprétations
dans cette section, ce qui nous permet de compléter le schéma 3.1, lequel
synthétise à la fois les différentes interprétations de l'incertitude, les différentes
modélisations et leurs relations.
On trouve chez Walley et Fine (1979) une interprétation des probabilités
modales en termes fréquentistes au travers du recours, d'une part, à la relation
existant entre la probabilité modale et la fonction de croyance et, d'autre part, à
l'idée de répétition d'observations imprécises. En effet, soient une probabilité
modale P et une fonction de croyance P∗ telles qu'elles ont été définies plus haut,
on a (Walley et Fine (1979, théorème 4)) : PA ⇔ P∗ (A) ≥ P∗ ( A c ). Si, de plus, la
fonction de croyance repose sur une séquence
d'ensembles
{
(et
non
}
m( A ) = # j : A j = A / N
{
} {
d'éléments),
et
A1 , A2 , ... , AN
Aj ∈ 2 Ω ,
avec
{
}
de
P∗ (A) = # j : A j ⊆ A / N ,
d'observations
telle
sorte
alors
que
PA
}
⇔ # j : A j ⊆ A ≥# j : A j ⊆ A c .
L'interprétation fournie ci-dessus par Walley et Fine (1979) concerne une
incertitude épistémique. Elle est similaire à celle développée par Dempster (1967)
dans le cas des ensembles de mesures de probabilités. En effet, chez ce dernier, les
probabilités objectives (fréquentistes) tirées des observations conduisent à des
probabilités (subjectives) ⎯ plus précisément des enveloppes ⎯ inférieures et
Chapitre 3 : Incertitude, probabilités et croyances : fondements des probabilités subjectives
incertaines
supérieures au travers d'une correspondance (one-to-many mapping) traduisant les
interprétations des observations.
Une
interprétation
fréquentiste
différente
est
donnée
par
Walley
et
Fine (1982) : leur modèle statistique repose sur des probabilités (enveloppes)
inférieures et supérieures représentant une instabilité des fréquences-limites. On a
affaire uniquement à des mesures objectives (physiques) et l'incertitude ⎯ ou plutôt
l'indétermination selon la terminologie des deux auteurs ⎯ est de type ontologique.
La perspective change quelque peu des précédentes avec Shafer (1976).
Premièrement, l'auteur insiste sur la séparation qui existe entre la dynamique
aléatoire de certains aspects du monde physique ⎯ répondant aux « lois de la
chance » c'est-à-dire aux lois de la théorie des probabilités numériques ⎯ et la
formation
44
des
croyances 44,45 .
Cette
séparation
doit
se
retrouver
dans
la
« The chances governing an aleatory experiment may or may not coincide with our
degrees of belief about the outcome of the experiment. If we know the chances, then we will
surely adopt them as our degrees of belief. But if we do not know the chances, then it will be
an extraordinary coincidence for our degrees of belief to be equal to them (...). Chances,
then, must be conceived of as features of the world. They are not necessarily features of our
knowledge or belief. » (Shafer (1976, p.16).
45
L'analyse est clairement très proche de celle de Shackle (1949) ; tant du point de
vue interprétatif que techniquement puisque, comme le remarque Shafer (1976, p.225)), le
degré de surprise potentielle défini par Shackle (1949) est tel que Dou(A) = Bel(A) où Bel est
une fonction de croyance consonante (ou mesure de nécessité).
La séparation croyance / probabilité (fréquentiste) est également réaffirmée dans le
modèle de croyance transférable (« The transferable belief model ») de Smets (1988). Celui-ci
est une adaptation du modèle de Shafer (1976) dans laquelle on n'a pas nécessairement
m(∅) = 0, ou de manière équivalente Bel(Ω) = 1 (voir Smets (2000) pour une interprétation
Chapitre 3 : Incertitude, probabilités et croyances : fondements des probabilités subjectives
incertaines
formalisation des deux phénomènes. Par conséquent, non seulement la croyance
n'a aucune raison d'être représentée par une probabilité numérique mais, plus
encore, cette dernière ne doit pas apparaître dans la formalisation : une fonction de
croyance
ne
doit
pas
être
interprétée
comme
une
enveloppe
inférieure.
Deuxièmement, l'évidence qui sert de support à la formation des croyances est
hétérogène 46 ;
non
réduite
seulement
à
des
fréquences
observées
(voir
Shafer (1982)).
Dans le cadre subjectiviste et préférentialiste, Walley et Fine (1979)
définissent un opérateur de désirabilité D sur des paris du type LA donne 1 si A
survient et -1 sinon ; DLA signifie : « le pari LA n'est pas indésirable ». On peut
alors poser : PA ssi DLA .
Une conséquence est que face aux deux paris LA
et L Ac , où A c est
l'événement complémentaire de A, on peut avoir ¬DLA et ¬DL Ac . On retrouve ainsi
une des caractéristiques essentielles du modèle de Smith (1961). Dans ce dernier,
les paris permettent de définir des probabilités inférieures et supérieures de la
manière suivante.
soit en termes de monde ouvert ⎯ Ω peut ne pas contenir le monde réel ⎯ ou en termes de
sources d'information conflictuelles).
46
Précisons que, si l'objectif de Shafer (1976) est la construction d'une « Théorie
Mathématique de l'Evidence », la croyance représentée est personnelle (voir le sens donné à
Ω, appelé « cadre de discernement » (« frame of discernment ») par l'auteur). Shafer (1976)
ne cherche donc pas à construire une croyance rationnelle (impersonnelle) au sens de
l'approche logique.
Chapitre 3 : Incertitude, probabilités et croyances : fondements des probabilités subjectives
incertaines
Soit une proposition B que je considère vraie à k.w contre k, c'est-à-dire que
j'accepte le pari qui rapporte k si B est vraie et coûte k.w si B est fausse 47 . Ce choix
correspond à une probabilité subjective égale à
k. w
( k + k. w )
=
w
( w + 1)
. Jusqu'à quel
point suis-je prêt à parier sur B ? D'après Smith (1961), ce point correspond à la
valeur de w maximale, notée w ∗ , pour laquelle j'accepte ce pari, et définit une
probabilité préférentialiste inférieure (« lower (pignic) probability ») pour B :
P∗ (B)=
w*
w* +1
. Prenons maintenant le pari qui rapporte k.W si B est fausse et coûte k
si B est vraie. Jusqu'à quel point suis-je prêt à parier contre B ? Ce point correspond
à la valeur de W minimale, notée W∗ , pour laquelle j'accepte ce pari, et définit une
probabilité préférentialiste supérieure pour B : P ∗ (B) =
entre
P∗ (B)
et
P ∗ (B)
est
appelée
une
W*
W* + 1
probabilité
. Toute valeur comprise
intermédiaire
(« medial
probability »). Lorsqu'il existe une probabilité fréquentiste connue, elle est, selon
Smith (1961), généralement égale aux probabilités inférieures et supérieures,
lesquelles sont donc confondues. Dans le cas contraire, il est possible que l'individu
refuse de parier à la fois sur B et contre B : par exemple si w ∗ < λ< W∗ et que le pari
sur B est proposé à k.λ contre k et le pari contre B à k contre k.λ.
Une démarche similaire est adoptée dans Walley (1991) bien que l'auteur
impose des critères de cohérence directement sur les probabilités inférieures, cellesci n'étant alors plus interprétées comme des enveloppes inférieures.
Dans un cadre subjectiviste et intuitif, Good (1962) fournit un ensemble
d'axiomes sur des probabilités inférieures et supérieures, à partir d'une démarche
47
Disons que l'unité est l'"utilité". Les valeurs des différentes variables sont
strictement positives.
Chapitre 3 : Incertitude, probabilités et croyances : fondements des probabilités subjectives
incertaines
différente de celle de Koopman (1940). En effet, cet ensemble est dérivé directement
d'un autre ensemble d'axiomes concernant une probabilité numérique (précise).
L'auteur suppose que cette dernière existe à l'intérieur de la « boite noire » dans
laquelle est affiné et enrichi le corps de croyances (« body of beliefs ») de l'individu
mais qu'elle reste généralement inaccessible pour cet individu. Celui-ci ne peut
donc exprimer ses croyances qu'au travers de probabilités imprécises sauf par
exemple dans le cas où il acquière la connaissance de la valeur d'une probabilité
logique.
Suppes (1974) retient également l'idée d'une probabilité précise représentant
la "vraie" probabilité et située entre des bornes inférieures et supérieures. Avant de
préciser la démarche de l'auteur, nous introduisons deux définitions, utiles pour la
suite.
Soit fo une relation binaire définie sur un ensemble Y (non vide). Soient les
conditions suivantes, avec x,y,z,w∈Y :
(i) ¬ x fo x (irréflexivité).
(ii) (x fo y et z fo w) ⇒ (x fo w ou z fo y).
(iii) (x fo y et y fo z) ⇒ (x fo w ou w fo z).
Une relation binaire satisfaisant les conditions (i) et (ii) est un ordre
d'intervalle (Fishburn (1970,1985)). Une relation binaire satisfaisant les conditions
(i), (ii), et (iii) est un semi-ordre (Luce (1956), Scott et Suppes (1958)).
Suppes (1974) fournit l'étude axiomatique d'une relation de probabilité
comparative
f
~*
compatible avec une mesure de probabilité pour certains
événements (les « événements standards ») et satisfaisant, pour les événements
quelconques :
(i) A fo B ⇒ P∗ (A) ≥ P ∗ (B),
Chapitre 3 : Incertitude, probabilités et croyances : fondements des probabilités subjectives
incertaines
(ii) P∗ (A) ≥ P ∗ (B) ⇒ A f B,
~*
où fo
est un semi-ordre et P ∗ et P∗ sont des probabilités supérieures et
inférieures.
Fishburn (1986b)
fournit
les
conditions
pour
la
représentation
plus
satisfaisante : A fo B ⇔ P∗ (A) > P ∗ (B), où fo est un intervalle d'ordre (le cas des
semi-ordres est également traité par l'auteur). Cependant, dans le cas où P∗ et P ∗
ont toutes les propriétés habituelles des probabilités inférieures et supérieures
⎯ notamment la super-additivité et la sub-additivité ⎯ et où il existe une mesure
de probabilité P telle que P ∗ ≥ P ≥ P∗ , la représentation nécessite un axiome que
Fishburn (1986b) lui-même qualifie d'horrible (« horrendous »).
Chapitre 3 : Incertitude, probabilités et croyances : fondements des probabilités subjectives
incertaines
Chapitre 3 : Incertitude, probabilités et croyances : fondements des probabilités subjectives
incertaines
Ce chapitre a constitué un détour par l’histoire (critique) des probabilités ;
détour qui nous a d’abord permis d’observer que les deux mesures de l’incertitude les
plus couramment utilisées en théorie de la décision font l’objet de remises en causes
importantes.
La probabilité fréquentiste, d’une part se heurte à l’unicité des phénomènes
(économiques) incertains concrets auxquels les individus sont confrontés. D’autre
part, et plus fondamentalement, elle est confrontée, pour tout phénomène incertain,
quel que soit sa nature, à un double problème : 1) la connaissance de la fréquence
intrinsèque vers laquelle converge la fréquence suppose l’application d’un principe de
symétrie dont l’acceptation relève d’une croyance (subjective) plus que d’une
connaissance (objective) ; 2) la connaissance d’une fréquence passée d’un phénomène
ne nous apprend rien sur la probabilité de survenance de cet événement dans un
futur fini.
La probabilité subjective de l’approche préférentialiste trouve sa principale
limite dans le fait que la source de sa justification se situe dans la cohérence de choix
entre des alternatives incertaines en non dans la cohérence des croyances que la
probabilité est pourtant censée représenter. Lorsque l’on abandonne toute référence à
des choix et que l’on s’intéresse uniquement à la cohérence des croyances — cas de
l’approche intuitive —, nous ne pouvons pas affirmer que la représentation des
croyances par une probabilité est une nécessité.
Nous avons vu ensuite qu’il existe, à côté de la probabilité, d’autres mesures
de l’incertitude, donc en particulier d’autres représentations possibles des croyances.
En théorie de la décision en incertain, l’alternative la plus connue est la capacité.
Dans le chapitre suivant, nous retenons une autre représentation des croyances : il
s’agit de ce que nous appelons des probabilités subjectives incertaines c'est-à-dire
des probabilités subjectives encadrées par les probabilités inférieures et supérieures.
Chapitre 3 : Incertitude, probabilités et croyances : fondements des probabilités subjectives
incertaines
Téléchargement