Chapitre 3 : Incertitude, probabilités et croyances : fondements des probabilités subjectives
incertaines
Incertitude, probabilités et croyances : fondements des
probabilités subjectives incertaines
L’objectif de ce chapitre est de s’appuyer sur l’histoire des probabilités pour
justifier le recours à des probabilités subjectives incertaines, c'est-à-dire à une
représentation des croyances dont l’utilisation est très peu courante en théorie
(économique) de la décision.
Historiquement, on peut voir que la mesure de l’incertitude est le plus souvent
donnée par un nombre unique (la probabilité) mais que s’opposent une interprétation
objective de la probabilité — fondée soit sur une propriété physique des phénomènes
aléatoires (approche fréquentiste) soit sur des nécessités logiques concernant les
croyances (approche logique) — et une interprétation subjective fondée sur les
croyances personnelles (section 3.1). La remise en cause de la pertinence de
l’approche fréquentiste pour l’analyse économique est bien connue : elle se fait au
travers de la distinction entre risque et incertitude. Mais, la pertinence de l’approche
fréquentiste peut également être questionnée pour tous les phénomènes incertains
(section 3.2). Au sein de l’approche subjective de l’incertitude, s’opposent une vision
intuitive des croyances et une vision préférentialiste. Alors que de Finetti et Savage
défendent, au sein de la vision préférentialiste, la probabilité (numérique) comme
seule mesure de croyance compatible avec des préférences rationnelles, la vision
intuitive favorise des mesures de croyances non réduites à une mesure de probabilité
(section 3.3). Enfin, de manière plus ou moins indépendante de l’interprétation
donnée à l’incertitude, plusieurs modélisations de cette dernière sont envisageables
(section 3.4).
Chapitre 3 : Incertitude, probabilités et croyances : fondements des probabilités subjectives
incertaines
Diversité des probabilités
La notion de probabilité est celle qui sert généralement, en théorie de la
décision et ailleurs, à appréhender l'évaluation des chances de survenance d'un
événement, lequel peut alors déterminer la conséquence d'une décision particulière.
Cependant, l'utilisation des probabilités pose nombre de difficultés dont une,
largement débattue dans un grand nombre de disciplines (statistiques, physique,
philosophie, économie...) est relative à la multiplicité des interprétations du concept
de probabilité.
La théorie classique et le principe de symétrie (Laplace (1812)) 1
La théorie classique des probabilités2 à la fois pose les principales bases
mathématiques du calcul des probabilités calcul qui prend sa forme moderne
dans le cadre axiomatique de Kolmogoroff (1933) et révèle les différentes
interprétations de la probabilité qui conduisent aux approches fréquentistes,
1 On trouvera dans Hamouda et Rowley (1996) des références bibliographiques
complètes. Pour notre part, nous ne précisons dans cette section que quelques références
généralement considérées comme essentielles.
2 Celle-ci débute avec les lettres échangées entre Blaise Pascal et Pierre Fermat à
propos des questions posées par le Chevalier de Méré sur les prix équitables dans des jeux
de hasard. Les développements ultérieurs sont dus principalement à Christian Huygens,
Jacques Bernoulli, Pierre Rémond de Montmort, Abraham de Moivre puis Pierre Simon de
Laplace.
Chapitre 3 : Incertitude, probabilités et croyances : fondements des probabilités subjectives
incertaines
logiques et subjectives. Ainsi, l'unité du concept de probabilité précède la diversité
que l'on connaît aujourd'hui (Shafer (1990))3
La théorie classique définit la probabilité d'un événement comme le rapport
entre le nombre de résultats élémentaires favorables à cet événement et le nombre
total de résultats élémentaires on est donc amené à une distribution uniforme
sur l'ensemble des résultats élémentaires (ou espace fondamental). Une telle
définition suppose l'acceptation d'un principe de symétrie, dû à Laplace (1812) et
connu sous le nom de principe de la raison insuffisante, selon lequel les
résultats élémentaires sont également vraisemblables4. Dit autrement, les résultats
élémentaires sont supposés avoir des probabilités identiques. Il y a là une source
évidente de circularité puisque la notion de probabilité est nécessaire à sa propre
définition.
3 « (...) Bernoulli and De Moivre's mathematics bound fair price, belief and frequency
tightly together. The probability of an event, in their theory was simultaneously the degree
to which we should believe it will happen and the long-run frequency with which it does
happen. It is also the fair price, in shillings, say, for a gamble that will return one shilling if
it does happen. » (Shafer (1990, p.436)).
4 Allais (1983) précise que ce même principe de symétrie est aussi présent dans les
théories purement mathématiques modernes des probabilités. En effet, les calculs réalisés
imposent que tous les événements (ou cas) possibles soient envisagés, donc supposés, au
moins implicitement, se réaliser simultanément (voir la section 3.2). Toutefois, ce principe,
appelé axiome d'égale possibilité par Allais (1983), n'est pas explicité dans les théories
axiomatiques modernes des probabilités ce qui contribue, selon l'auteur, au développement
de graves erreurs d'interprétation concernant le lien entre concept mathématique de
probabilité appelé fréquence mathématique par l'auteur et l'incertitude concrète (« le
hasard »).
Chapitre 3 : Incertitude, probabilités et croyances : fondements des probabilités subjectives
incertaines
De plus, et outre le caractère arbitraire du principe lui-même, l'application de
celui-ci suppose de pouvoir identifier sans ambiguïté les résultats élémentaires.
Lorsque l'on s'intéresse à des événements clairement structurés du type « obtenir
au moins une fois face sur deux lancers d'une pièce équilibrée », l'identification des
résultats élémentaires semble immédiate5. En revanche, dans le cas d'événements
plus complexes du type « un candidat socialiste est élu aux élections présidentielles
françaises de 2037 », l'identification des résultats élémentaires devient totalement
arbitraire6. Ce qui est en fait en jeu ici c'est l'étendue du domaine des phénomènes
incertains pour lesquels le principe de Laplace peut s'appliquer. En effet, en
s'appuyant sur une interprétation extensive du principe celle qui admet la
possibilité de définir des résultats élémentaires et de leur accorder une égale
vraisemblance, quelle que soit la complexité de l'événement , tout phénomène
incertain apparaît probabilisable. Une vision plus restrictive du domaine
d'application du principe appelé alors principe d'indifférence (Keynes (1921))
considère que l'application d'une distribution de probabilité uniforme concerne les
5 Notons toutefois qu'il s'agit là du fameux exemple pour lequel le mathématicien du
dix-huitième siècle Jean le Rond d'Alembert est supposé avoir identifié trois événements
élémentaires (0 fois face, 1 fois face, 2 fois face) et par conséquent assigné une probabilité de
2/3 plutôt que 3/4 à l'événement considéré.
Nous pouvons ajouter qu'une part d'arbitraire peut être présente même dans le cas
encore plus simple d'un seul lancé, l'espace fondamental pouvant être, par exemple, {pile,
face, tranche}.
6 Il faut ajouter que lorsque l'espace des résultats élémentaires est infini (événements
du type « le candidat communiste aux élections présidentielles françaises de 2037 obtient
un nombre de suffrages supérieur à 5% du total des suffrages exprimés »), l'identification
des résultats élémentaires est impossible.
Chapitre 3 : Incertitude, probabilités et croyances : fondements des probabilités subjectives
incertaines
phénomènes pour lesquels l'information disponible apparaît symétrique c'est-à-dire
"également favorable" pour chaque événement : alors que le principe de raison
insuffisante repose sur notre ignorance il n'y a aucune raison connue de ne pas
supposer les événements équiprobables , le principe d'indifférence repose sur une
connaissance partielle, symétrique, non décisive en faveur d'un ou plusieurs
événements au détriment des autres7.
L'approche logique ou nécessairiste (Keynes (1921), Jeffreys (1939),
Carnap (1950))
L'approche logique (ou nécessairiste) définit la probabilité ainsi : soient h et a
deux ensembles quelconques de propositions, « si une connaissance de h justifie
une croyance rationnelle dans a de degré
α
, nous disons qu'il y a une relation de
probabilité de degré
α
entre a et h. (Keynes (1921, p.4)). La probabilité est donc une
généralisation de l'implication8. Un exemple est donné par Keynes (1921) lorsqu'il
discute l'approche fréquentiste de Venn (1866) : « Si, par le passé, trois enfants sur
dix sont morts au cours de leurs quatre premières années d'existence, l'induction
peut reposer sur cette assertion incertaine, tous les enfants meurent dans cette
proportion. Mais nous ne pouvons affirmer sur cette base, ainsi que Venn souhaite
7 La distinction entre les deux principes n'apparaît pas toujours de manière claire
dans la littérature, du moins en ce qui concerne la terminologie employée. C'est le cas, par
exemple, chez Savage (1954) qui nous dit : « Perhaps what I here call the principle of
insufficient reason should be called the principle of cogent reason » (Savage (1954, p.64)).
8 La logique inductive développée par Carnap (1950) qui est mobilisée ici se
distingue de la logique déductive. Si a se déduit de h alors non-a ne peut pas se déduire d'un
ensemble h' contenant h. En revanche, si a est induit de h alors il n'est pas interdit que non-
a soit induit d'un ensemble h' contenant h.
1 / 63 100%
La catégorie de ce document est-elle correcte?
Merci pour votre participation!

Faire une suggestion

Avez-vous trouvé des erreurs dans linterface ou les textes ? Ou savez-vous comment améliorer linterface utilisateur de StudyLib ? Nhésitez pas à envoyer vos suggestions. Cest très important pour nous !