E11-TD01-modeles

publicité
E11-TD 01 - La notion de modèle en communication
1. Rappels définitoires
La communication
La notion de modèle
2. Analyse de quelques modèles circulants
Cybernétique et théorie des systèmes
Cybernétique (du grec « kubernetes » : pilote)
N. Wiener (1894-1964)
Mathématicien américain qui, durant la deuxième guerre mondiale, a
Etude des régulations des organismes vivants et des
initié la cybernétique au cours de travaux destinés à résoudre des
systèmes mécaniques. Elles reposent sur une boucle
problèmes théoriques de défense antiaérienne : comment prévoir la
circulaire d’information qui peut soit amplifier les
position future d’une cible mobile à partir d’une information partielle
tendances (retroactions positives) soit les limiter
sur sa trajectoire passée ? La solution passe par la réduction de l’écart
(retroactions négatives).
entre une situation actuelle (données en sortie) et un résultat projeté
Rétroaction (feed-back)
(but). En plus de probabilités qu’on peut prédire, Wiener associe un
Action exercée, après une perturbation, sur les valeurs
« feed-back », c’est-à-dire une correction du mécanisme au cours de
d’entrée d’un système cybernétique (input) par les valeurs
son déroulement même. Or, il remarque que ce dispositif est
de sortie (output) et qui rétablit les valeurs initiales.
analogue à celui des comportements volontaires humains (comme
porter un verre d’eau à ses lèvres, par exemple).
Système
Notion qui privilégie les relations globales par opposition à
l’approche isolée de chaque élément. En linguistique structurale,
le système définit la valeur des signes par les séries de leurs
oppositions, dans un ensemble cohérent, à un moment donné
(synchronie).
Théorie des systèmes
D’inspiration cybernétique, ce modèle insiste sur les dynamiques
de régulation, sur l’intégration de chaque système dans des
entités plus vastes et sur les échanges entre systèmes.
L. von Bertalanffy (1901-1972)
Biologue autrichien, auteur de La Théorie Générale des
Systèmes (1950) dans lequel il développe le modèle de la
cybernétique, en l’exprimant dans un formalisme
mathématique. Au lieu d’isoler les phénomènes pour les
étudier selon une optique plus traditionnelle (atomisme,
réductionnisme), il s’agit dans cette conception d’observer les
interactions complexes qui caractérisent les organisations
technologique et sociales. On étudie ainsi les systèmes
comme des totalités structurées par des relations
d’interdépendances entre les unités qui les composent.
La théorie de l’information : portée et limites
Entropie
C. Shannon (1916-2001)
Ingénieur des télécommunications américain, élève de Wiener et coEn thermodynamique, degré de désordre d’un système
auteur avec W. Weaver d’Une Théorie mathématique des
physique (le passage à l’ordre relatif, vers l’organisation
communications (1949) ouvrage fondateur de la Théorie statistique de
est appelé negentropie). En théorie statistique de
l’information. Il a popularisé le terme de bit (pour BInary digiT)
l’information, elle permet de mesurer la quantité
comme unité de mesure d’une source d’information numérique (c’estd’informations moyennes d’un ensemble d’événements
à-dire nécessaire au codage d’une quantité d’information). Ainsi un bit
(notamment des messages) et son incertitude.
(ou encore 1 Shannon) permet de coder 2 états : 0 ou 1 (pile ou face par
Redondance
Cas, relativement fréquent, où la quantité d’informations
est supérieure à ce qu’il n’est nécessaire.
Information
Degré d’incertitude, mesuré en bits, par rapport à une
source d’émission de messages. La mesure concerne le
désordre à la source, avant mise en forme et gradue donc
la liberté dans le choix d’un message. Pour l’émetteur, la
dissipation de l’incertitude sera d’autant plus grande, et
plus riche l’information transmise.
exemple). Le point de départ des théoriciens de l’information consiste à
tenter de surmonter les problèmes de parasitage des messages sur les
lignes téléphoniques par le bruit (toute altération du signal transmis).
Shannon s’est plus particulièrement intéressé à la notion d’entropie.
W. Weaver (1894-1978)
Egalement ingénieur en télécommunications, spécialiste de
cryptographie puis de recherches en traduction automatique. Selon lui,
la communication doit affecter le comportement sans quoi elle n’a
aucun effet discernable. Cette conception porte l’empreinte du
behaviourisme, philosophie qui prétend expliquer les processus
mentaux par les comportements observables de l’extérieur, notamment
en termes de réponses à des stimuli.
1. Le Président J.-F. Kennedy vient d’être assassiné aujourd’hui dans la ville de Dallas (Flash spécial d’information
radiophonique du 22 novembre 1963)
2. Il ne neigera pas demain à Palavas. [bulletin météorologique du 12 juillet 2006]
3. L’assassin habite au 21.
Est-ce
O
une carte
rouge ?
N
un
O
honneur ?
un carreau
?
un trèfle ?
O
N
O
N
une tête
couronnée
?
O
Arbre de décision pour deviner la valeur d’une carte dans un jeu de trente-deux.
une
reine ?
O
un as ?
O
O
un huit ?
N
un sept ?
N
O
N
O
N
N
N
une carte
paire ?
Le choix de Thésée
N
blanche
Voile
noire
1 bit
E11-TD 01 - La notion de modèle en communication
Texte 1
Le meilleur transmetteur est […] celui qui code le message de sorte que le signal ait précisément les caractéristiques
statistiques optimales qui soient le mieux adaptées au canal à utiliser, ce qui en fait maximalise l’entropie du signal (ou du
canal pourrait-on dire) et rend ce dernier égal à la capacité du canal. Shannon et Weaver (1949 :108)
Texte 2
« C’est une bien pauvre science, disait Lord Kelvin, celle qui n’est pas capable de s’exprimer dans des mesures » ; s’il est
abusif de vouloir réduire toute science à une mesure, car le but de la science est de comprendre, et la mesure n’aide pas
toujours à comprendre, il est bien certain que la proposition faite par Shannon de mesurer l’information a été essentielle.
Même si cette « information » ne coïncide avec le processus de communication que dans des conditions bien définies, bien
particulières, finalement assez étroites, et qui ont dues être fortement revues et étendues depuis, la Science de la
communication n’a pu se proclamer, s’ériger en discipline autonome qu’à partir du moment où Shannon a proposé cette
mesure de ce qui se trouvait « transporté » de l’émetteur jusqu'au récepteur, qu’il a appelée précisément information,
mesure à caractère statistique, indépendante de la communication particulière qu’elle considérait, mais par contre
dépendante des probabilités d’utilisation des signes dans le « comportement » global du récepteur, qu’il soit homme ou
machine. […]
Ce qui, chez Leibniz avait été une proposition philosophique était devenu, entre les mains de ce jeune ingénieur des
télégraphes, une véritable grandeur mesurant ce qu’on appelle maintenant le « message », à savoir l’objet matériel qui est
transmis de l’émetteur au récepteur.
Ainsi Shannon, sans le marquer explicitement, se trouvait reprendre une tradition antérieure de la philosophie scientifique,
celle du refus provisoire de la signification, du fond au profit de la forme, du contenu au profit du message, du médium au
profit du canal. Il faisait triompher une démarche méthodologique importante : le refus de la spécificité d’un message au
profit exclusif de ses caractéristiques physiques observables, et, en cela, mettait au point, par une série d’élargissements
successifs, un modèle de communication partant de l’échange de signes parfaitement définis dpus u point jusqu’à un autre
(comme le courant électrique dans une ligne télégraphique en fournit un exemple parfait), pour s’élargir progressivement
à la théorie du transfert de formes globales : la musique, la parole, l’image, d’un lieu ou d’un temps à un autre.
A. A. Moles, « Préface à la Théorie mathématique de la communication, de W. Weaver et C. Shannon, Retz-CEPL, Paris, 1975.
E11-TD 01 - La notion de modèle en communication
Texte 1
Le meilleur transmetteur est […] celui qui code le message de sorte que le signal ait précisément les caractéristiques
statistiques optimales qui soient le mieux adaptées au canal à utiliser, ce qui en fait maximalise l’entropie du signal (ou du
canal pourrait-on dire) et rend ce dernier égal à la capacité du canal. Shannon et Weaver (1949 :108)
Texte 2
« C’est une bien pauvre science, disait Lord Kelvin, celle qui n’est pas capable de s’exprimer dans des mesures » ; s’il est
abusif de vouloir réduire toute science à une mesure, car le but de la science est de comprendre, et la mesure n’aide pas
toujours à comprendre, il est bien certain que la proposition faite par Shannon de mesurer l’information a été essentielle.
Même si cette « information » ne coïncide avec le processus de communication que dans des conditions bien définies, bien
particulières, finalement assez étroites, et qui ont dues être fortement revues et étendues depuis, la Science de la
communication n’a pu se proclamer, s’ériger en discipline autonome qu’à partir du moment où Shannon a proposé cette
mesure de ce qui se trouvait « transporté » de l’émetteur jusqu'au récepteur, qu’il a appelée précisément information,
mesure à caractère statistique, indépendante de la communication particulière qu’elle considérait, mais par contre
dépendante des probabilités d’utilisation des signes dans le « comportement » global du récepteur, qu’il soit homme ou
machine. […]
Ce qui, chez Leibniz avait été une proposition philosophique était devenu, entre les mains de ce jeune ingénieur des
télégraphes, une véritable grandeur mesurant ce qu’on appelle maintenant le « message », à savoir l’objet matériel qui est
transmis de l’émetteur au récepteur.
Ainsi Shannon, sans le marquer explicitement, se trouvait reprendre une tradition antérieure de la philosophie scientifique,
celle du refus provisoire de la signification, du fond au profit de la forme, du contenu au profit du message, du médium au
profit du canal. Il faisait triompher une démarche méthodologique importante : le refus de la spécificité d’un message au
profit exclusif de ses caractéristiques physiques observables, et, en cela, mettait au point, par une série d’élargissements
successifs, un modèle de communication partant de l’échange de signes parfaitement définis dpus u point jusqu’à un autre
(comme le courant électrique dans une ligne télégraphique en fournit un exemple parfait), pour s’élargir progressivement
à la théorie du transfert de formes globales : la musique, la parole, l’image, d’un lieu ou d’un temps à un autre.
A. A. Moles, « Préface à la Théorie mathématique de la communication, de W. Weaver et C. Shannon, Retz-CEPL, Paris, 1975.
La notion de modèle en communication
Rappels définitoires
La communication
La notion de modèle
Les modèles circulants
Cybernétique et théorie des systèmes
Cybernétique (du grec « kubernetes » : pilote)
N. Wiener (1894-1964)
Mathématicien américain qui, durant la deuxième guerre mondiale, a
Etude des régulations des organismes vivants et des
initié la cybernétique au cours de travaux destinés à résoudre des
systèmes mécaniques. Elles reposent sur une boucle
problèmes théoriques de défense antiaérienne : comment prévoir la
circulaire d’information qui peut soit amplifier les
position future d’une cible mobile à partir d’une information partielle
tendances (retroactions positives) soit les limiter
sur sa trajectoire passée ? La solution passe par la réduction de l’écart
(retroactions négatives).
entre une situation actuelle (données en sortie) et un résultat projeté
Rétroaction (feed-back)
(but). En plus de probabilités qu’on peut prédire, Wiener associe un
Action exercée, après une perturbation, sur les valeurs
« feed-back », c’est-à-dire une correction du mécanisme au cours de
d’entrée d’un système cybernétique (input) par les valeurs
son déroulement même. Or, il remarque que ce dispositif est
analogue à celui des comportements volontaires humains (comme
de sortie (output) et qui rétablit les valeurs initiales.
porter un verre d’eau à ses lèvres, par exemple).
Système
Notion qui privilégie les relations globales par opposition à
l’approche isolée de chaque élément. En linguistique structurale,
le système définit la valeur des signes par les séries de leurs
oppositions, dans un ensemble cohérent, à un moment donné
(synchronie).
Théorie des systèmes
D’inspiration cybernétique, ce modèle insiste sur les dynamiques
de régulation, sur l’intégration de chaque système dans des
entités plus vastes et sur les échanges entre systèmes.
L. von Bertalanffy (1901-1972)
Biologue autrichien, auteur de La Théorie Générale des
Systèmes (1950) dans lequel il développe le modèle de la
cybernétique, en l’exprimant dans un formalisme
mathématique. Au lieu d’isoler les phénomènes pour les
étudier selon une optique plus traditionnelle (atomisme,
réductionnisme), il s’agit dans cette conception d’observer les
interactions complexes qui caractérisent les organisations
technologique et sociales. On étudie ainsi les systèmes
comme des totalités structurées par des relations
d’interdépendances entre les unités qui les composent.
La théorie de l’information : portée et limites
Entropie
C. Shannon (1916-2001)
Ingénieur des télécommunications américain, élève de Wiener et coEn thermodynamique, degré de désordre d’un système
auteur avec W. Weaver d’Une Théorie mathématique des
physique (le passage à l’ordre relatif, vers l’organisation
communications (1949) ouvrage fondateur de la Théorie statistique de
est appelé negentropie). En théorie statistique de
l’information. Il a popularisé le terme de bit (pour BInary digiT)
l’information, elle permet de mesurer la quantité
comme unité de mesure d’une source d’information numérique (c’estd’informations moyennes d’un ensemble d’événements
à-dire nécessaire au codage d’une quantité d’information). Ainsi un bit
(notamment des messages) et son incertitude.
(ou encore 1 Shannon) permet de coder 2 états : 0 ou 1 (pile ou face par
Redondance
Cas, relativement fréquent, où la quantité d’informations
est supérieure à ce qu’il n’est nécessaire.
Information
Degré d’incertitude, mesuré en bits, par rapport à une
source d’émission de messages. La mesure concerne le
désordre à la source, avant mise en forme et gradue donc
la liberté dans le choix d’un message. Pour l’émetteur, la
dissipation de l’incertitude sera d’autant plus grande, et
plus riche l’information transmise.
Problème
niveau
Technique
Sémantique
D’efficacité
exemple). Le point de départ des théoriciens de l’information consiste à
tenter de surmonter les problèmes de parasitage des messages sur les
lignes téléphoniques par le bruit (toute altération du signal transmis).
Shannon s’est plus particulièrement intéressé à la notion d’entropie.
W. Weaver (1894-1978)
Egalement ingénieur en télécommunications, spécialiste de
cryptographie puis de recherches en traduction automatique. Selon lui,
la communication doit affecter le comportement sans quoi elle n’a
aucun effet discernable. Cette conception porte l’empreinte du
behaviourisme, philosophie qui prétend expliquer les processus
mentaux par les comportements observables de l’extérieur, notamment
en termes de réponses à des stimuli.
avec quelle exactitude les symboles de la communication peuvent-ils être transmis ?
avec quelle précision les symboles transmis véhiculent-ils la signification désirée ?
avec quelle efficacité la signification reçue influence-t-elle la conduite dans le sens désiré ?
Susciter le rappel du CM : Dans le schéma de la théorie de l’information, toute communication suppose une source, distincte ou
pas d’un émetteur, qui code, dans un message la signification issue de la source quelle que soit la nature matérielle du code
utilisé : signaux acoustiques, vocaux ou non, optiques, directs non permanents (gestes, éclairs) ou, au contraire, fixés en
enregistrement ou documents (écriture,photo, ciné), le message constitué est transmis par un support matériel, ligne ou canal de
transmission vers un récepteur qui déchiffre ou décode le message dans l’état où il le reçoit après pertes et et brouillages éventuels
dus au bruit et en tire ainsi sa propre version ou signification (version du destinaire).
Une information correspond à un ou plusieurs événements possibles d’un ensemble donné. De façon radicale, dans son sens
formel, on n’appellera information que ce qui est susceptible d’avoir un effet, une retombée sur nos décisions, ce qui explique le
point de vue de Weaver (cf. théorie de la décision, arbre de décision). On voit la différence avec le sens plus trivial et plus
répandu, celui du journalisme, par exemple dont en définitive assez peu de manifestations sont de ce point de vue des
« informations ». Si l’on prend le cas, en revanche, d’une messagerie électronique saturée, on aboutit au problème inverse, donné
par l’excès d’information, entravant la prise de décision.
Le Président J.-F. Kennedy vient d’être assassiné aujourd’hui dans la ville de Dallas (Flash spécial d’information radiophonique
du 22 novembre 1963)
Le jour d’une telle annonce, on passe d’une improbabilité initiale (son caractère inaattendu) à l’expression de beaucoup
d’information. Plus le message est original, invraisemblable, ou inattendu, plus il fournit d’information. Celle-ci correspond à la
mesure mathématique de l’originalité de la situation créée au récepteur par l’avènement du message, contrairement à l’acception
journalistique banale (qui en fait une série de messages aux contenus variables).
Il ne neigera pas demain à Palavas. [bulletin météorologique du 12 juillet 2006]
En revanche, cet énoncé ne présente aucune information à proprement parler : il s’agit d’une « nouvelle » que nous savions déjà et
qui ne modifie en rien notre comportement.
Il faut donc rendre pertinente l’info, ce qui revient à réduire l’incertitude initiale, par ex :
L’assassin habite au 21.
Est-ce
L’information est pertinente si le numéro correspond à l’une des maisons d’une rue qui en compte une centaine mais pas dans le
cas où elle se trouverait être la seule habitation de la voie considérée. C’est le problème de la redondance qui est posé ici.
La B.U.M.3 possède un grand nombre d'ouvrages, des revues, des livres et des dictionnaires. Je cherche un cours complet sur la
théorie de l'information. Il apparaît logique que je ne trouverai pas ce dossier dans des ouvrages d'arts ou de littérature; je viens
donc d'obtenir une information qui diminuera mon temps de recherche. J’ai précisé que je voulais aussi un cours complet, je ne le
trouverai donc ni dans une revue, ni dans un dictionnaire. J’ai obtenu une information supplémentaire (je cherche un livre), qui
réduira encore le temps de ma recherche.
O
une carte
rouge ?
un carreau
?
N
un trèfle ?
un
O
une tête
couronnée
?
honneur ?
O
N
O
N
Arbre de décision pour deviner la valeur d’une carte dans un jeu de trente-deux.
une
reine ?
O
un as ?
O
O
un huit ?
N
un sept ?
N
O
N
O
N
O
N
N
une carte
paire ?
N
Obtention de l’information recherchée en 5 bits
Une information (bit) = logarithme à Base deux
Egée attend le retour de son fils Thésée dont le navire doit arborer une voilure blanche en cas de victoire contre le
Minotaure. Par négligence, la voile est noire. Egée se jette dans la mer qui portera son nom.
blanche = Thésée victorieux revient vivant.
Voile
1 bit
noire
= Thésée a succombé à sa défaite contre le monstre crétois.
(pb de la restriction jusqu’à l’absurde de la mesure du nb de choix binaires nécessaires pour sélectionner un message puisqu’on ne
tient pas compte du sens, de la signification même du message)
Alphabet de 26 lettres :
blanche
= Thésée victorieux revient vivant.
noire
= Thésée a succombé à sa défaite contre le monstre crétois.
Information est à
distinguer de
signification (« les aspects sémantiques de la communication ne relèvent pas de ses aspects
technologiques », selon Shannon). Et notamment parce que le contenu d’information d’un message dépend
de son contexte.
Voile
1 bit
Il faut moins de bits pour écrire chien que mammifère. Pourtant l'indication Médor est un chien contient bien plus d'information que
l'indication Médor est un mammifère : le contenu d'information sémantique d'un message dépend du contexte. En fait, c'est le
couple message + contexte qui constitue le véritable porteur d'information, et jamais le message seul (voir paradoxe du
compresseur).
Le meilleur transmetteur est […] celui qui code le message de sorte que le signal ait précisément les caractéristiques
statistiques optimales qui soient le mieux adaptées au canal à utiliser, ce qui en fait maximalise l’entropie du signal (ou du
canal pourrait-on dire) et rend ce dernier égal à la capacité du canal. Shannon et Weaver (1949 :108)
« C’est une bien pauvre science, disait Lord Kelvin, celle qui n’est pas capable de s’exprimer dans des mesures » ; s’il est
abusif de vouloir réduire toute science à une mesure, car le but de la science est de comprendre, et la mesure n’aide pas
toujours à comprendre, il est bien certain que la proposition faite par Shannon de mesurer l’information a été essentielle.
Même si cette « information » ne coïncide avec le processus de communication que dans des conditions bien définies, bien
particulières, finalement assez étroites, et qui ont dues être fortement revues et étendues depuis, la Science de la
communication n’a pu se proclamer, s’ériger en discipline autonome qu’à partir du moment où Shannon a proposé cette
mesure de ce qui se trouvait « transporté » de l’émetteur jusqu'au récepteur, qu’il a appelée précisément information,
mesure à caractère statistique, indépendante de la communication particulière qu’elle considérait, mais par contre
dépendante des probabilités d’utilisation des signes dans le « comportement » global du récepteur, qu’il soit homme ou
machine. […]
Ce qui, chez Leibniz avait été une proposition philosophique était devenu, entre les mains de ce jeune ingénieur des
télégraphes, une véritable grandeur mesurant ce qu’on appelle maintenant le « message », à savoir l’objet matériel qui est
transmis de l’émetteur au récepteur.
Ainsi Shannon, sans le marquer explicitement, se trouvait reprendre une tradition antérieure de la philosophie scientifique,
celle du refus provisoire de la signification, du fond au profit de la forme, du contenu au profit du message, du médium au
profit du canal. Il faisait triompher une démarche méthodologique importante : le refus de la spécificité d’un message au
profit exclusif de ses caractéristiques physiques observables, et, en cela, mettait au point, par une série d’élargissements
successifs, un modèle de communication partant de l’échange de signes parfaitement définis dpus u point jusqu’à un autre
(comme le courant électrique dans une ligne télégraphique en fournit un exemple parfait), pour s’élargir progressivement
à la théorie du transfert de formes globales : la musique, la parole, l’image, d’un lieu ou d’un temps à un autre.
A. A. Moles, « Préface à la Théorie mathématique de la communication, de W. Weaver et C. Shannon, Retz-CEPL, Paris, 1975.
Shannon et sa théorie de l’information ont eu une grande influence sur l’activité intellectuelle de la seconde
moitié du XXème s. En linguistique, même si sa portée s’est avérée limitée, ils ont inspiré notamment le
fameux schéma de la communication de R. Jakobson, que vous verrez plus tard dans le déroulement du
cours. L’apport de la science de l’information dans le domaine numérique est bien connu (cf. la notion de
bits) : l’informatique en est une application technique directe qui automatise les traitements d’information (la
transmission, le transport, notamment)  cf. « technologie de l’Information et de la Communication ».
Problème
Technique
Sémantique
D’efficacité
avec quelle exactitude les symboles de la communication peuvent-ils être transmis ?
avec quelle précision les symboles transmis véhiculent-ils la signification désirée ?
avec quelle efficacité la signification reçue influence-t-elle la conduite dans le sens désiré ?
Mais elle présente de sévères limitations pour une application aux problèmes de communication à
proprement parler. Les trois niveaux de problèmes soulevés par Wiener sont en particulier marqués par
l’oubli des conditions et du processus de production du message liés à l’émetteur (cf. dimension
pragmatique). D’autre part, conditions et processus de production sont vus sous l’angle normatif et pratique
de l’efficacité, en rapport avec les fins de l’émetteur sans envisager les effets qui n’ont pas de rapport avec
ces fins et notamment sans prendre en compte les fins du récepteur.
Cette conception est celle d’un ingénieur qui considère le récepteur comme une mantière qur laquelle il doit
avoir prise.  grande différence avec le point de vue d’un psychosocioologue ou d’un thérapeute, par ex.
La théorie de l’info ne coïncide pas avec le domaine théorique de la communication. Ce n’est pas une théorie
unitaire mais elle porte simplement sur certaines conditions nécessires et instrumentales de la
communication. De fait, il n’existe pas, à proprement parler, de théorie unifiée de la communication mais un
domaine d’étude qui fait l’objet de recherches et de modélisations hétérogènes dont la coordination peut être
féconde.
1
B1
0
B2
1
D1
?
A
1
0
1
0
E1
C
1
0
1
0
E3
1
D2
1
E4
0
E5
0
0
1
0
1
0
Téléchargement