E11-TD 01 - La notion de modèle en communication
1. Rappels définitoires La communication
La notion de modèle
2. Analyse de quelques modèles circulants
Cybernétique et théorie des systèmes
Cybernétique (du grec « kubernetes » : pilote)
Etude des régulations des organismes vivants et des
systèmes mécaniques. Elles reposent sur une boucle
circulaire d’information qui peut soit amplifier les
tendances (retroactions positives) soit les limiter
(retroactions négatives).
Rétroaction (feed-back)
Action exercée, après une perturbation, sur les valeurs
d’entrée d’un système cybernétique (input) par les valeurs
de sortie (output) et qui rétablit les valeurs initiales.
N. Wiener (1894-1964)
Mathématicien américain qui, durant la deuxième guerre mondiale, a
initié la cybernétique au cours de travaux destinés à résoudre des
probmes théoriques de défense antiaérienne : comment prévoir la
position future d’une cible mobile à partir d’une information partielle
sur sa trajectoire passée ? La solution passe par la réduction de l’écart
entre une situation actuelle (données en sortie) et un résultat proje
(but). En plus de probabilis qu’on peut prédire, Wiener associe un
« feed-back », c’est-à-dire une correction du mécanisme au cours de
son déroulement même. Or, il remarque que ce dispositif est
analogue à celui des comportements volontaires humains (comme
porter un verre d’eau à ses lèvres, par exemple).
Système
Notion qui privilégie les relations globales par opposition à
l’approche isolée de chaque élément. En linguistique structurale,
le système définit la valeur des signes par les séries de leurs
oppositions, dans un ensemble cohérent, à un moment donné
(synchronie).
Théorie des systèmes
D’inspiration cybernétique, ce modèle insiste sur les dynamiques
de régulation, sur l’intégration de chaque système dans des
entités plus vastes et sur les échanges entre systèmes.
L. von Bertalanffy (1901-1972)
Biologue autrichien, auteur de La Théorie Générale des
Systèmes (1950) dans lequel il développe le modèle de la
cybernétique, en l’exprimant dans un formalisme
mathématique. Au lieu d’isoler les phénomènes pour les
étudier selon une optique plus traditionnelle (atomisme,
réductionnisme), il s’agit dans cette conception d’observer les
interactions complexes qui caractérisent les organisations
technologique et sociales. On étudie ainsi les systèmes
comme des totalités structurées par des relations
d’interdépendances entre les unités qui les composent.
La théorie de l’information : portée et limites
Entropie
En thermodynamique, degré de désordre d’un système
physique (le passage à l’ordre relatif, vers l’organisation
est appelé negentropie). En théorie statistique de
l’information, elle permet de mesurer la quanti
d’informations moyennes d’un ensemble d’événements
(notamment des messages) et son incertitude.
Redondance
Cas, relativement fréquent, où la quantité d’informations
est supérieure à ce qu’il n’est nécessaire.
C. Shannon (1916-2001)
Ingénieur des télécommunications américain, élève de Wiener et co-
auteur avec W. Weaver d’Une Théorie mathématique des
communications (1949) ouvrage fondateur de la Théorie statistique de
l’information. Il a popularisé le terme de bit (pour BInary digiT)
comme unité de mesure d’une source d’information numérique (c’est-
à-dire nécessaire au codage d’une quantité d’information). Ainsi un bit
(ou encore 1 Shannon) permet de coder 2 états : 0 ou 1 (pile ou face par
exemple). Le point de départ des théoriciens de l’information consiste à
tenter de surmonter les problèmes de parasitage des messages sur les
lignes téléphoniques par le bruit (toute altération du signal transmis).
Shannon s’est plus particulièrement intéressé à la notion d’entropie.
Information
Degré d’incertitude, mesuré en bits, par rapport à une
source d’émission de messages. La mesure concerne le
désordre à la source, avant mise en forme et gradue donc
la liber dans le choix d’un message. Pour l’émetteur, la
dissipation de l’incertitude sera d’autant plus grande, et
plus riche l’information transmise.
W. Weaver (1894-1978)
Egalement ingénieur en lécommunications, spécialiste de
cryptographie puis de recherches en traduction automatique. Selon lui,
la communication doit affecter le comportement sans quoi elle n’a
aucun effet discernable. Cette conception porte l’empreinte du
behaviourisme, philosophie qui prétend expliquer les processus
mentaux par les comportements observables de l’extérieur, notamment
en termes de réponses à des stimuli.
1. Le Président J.-F. Kennedy vient d’être assassiné aujourd’hui dans la ville de Dallas (Flash spécial d’information
radiophonique du 22 novembre 1963)
2. Il ne neigera pas demain à Palavas. [bulletin méorologique du 12 juillet 2006]
3. L’assassin habite au 21.
O
O
N
O
Arbre de décision pour deviner la valeur d’une carte dans un jeu de trente-deux.
une carte
rouge ?
N
N
O
O
une
reine ?
N
O
O
N
un as ?
N
O
O
un huit ?
N
O
Est-ce
un
honneur ?
N
N
un sept ?
N
Le choix de Thésée
blanche
Voile
noire
1 bit
E11-TD 01 - La notion de modèle en communication
Texte 1
Le meilleur transmetteur est […] celui qui code le message de sorte que le signal ait précisément les caractéristiques
statistiques optimales qui soient le mieux adaptées au canal à utiliser, ce qui en fait maximalise l’entropie du signal (ou du
canal pourrait-on dire) et rend ce dernier égal à la capacité du canal. Shannon et Weaver (1949 :108)
Texte 2
« C’est une bien pauvre science, disait Lord Kelvin, celle qui n’est pas capable de s’exprimer dans des mesures » ; s’il est
abusif de vouloir réduire toute science à une mesure, car le but de la science est de comprendre, et la mesure n’aide pas
toujours à comprendre, il est bien certain que la proposition faite par Shannon de mesurer l’information a été essentielle.
Même si cette « information » ne coïncide avec le processus de communication que dans des conditions bien définies, bien
particulières, finalement assez étroites, et qui ont dues être fortement revues et étendues depuis, la Science de la
communication n’a pu se proclamer, s’ériger en discipline autonome qu’à partir du moment Shannon a proposé cette
mesure de ce qui se trouvait « transporté » de l’émetteur jusqu'au récepteur, qu’il a appelée précisément information,
mesure à caractère statistique, indépendante de la communication particulière qu’elle considérait, mais par contre
dépendante des probabilités d’utilisation des signes dans le « comportement » global du cepteur, qu’il soit homme ou
machine. […]
Ce qui, chez Leibniz avait été une proposition philosophique était devenu, entre les mains de ce jeune ingénieur des
télégraphes, une véritable grandeur mesurant ce qu’on appelle maintenant le « message », à savoir l’objet mariel qui est
transmis de lémetteur au récepteur.
Ainsi Shannon, sans le marquer explicitement, se trouvait reprendre une tradition antérieure de la philosophie scientifique,
celle du refus provisoire de la signification, du fond au profit de la forme, du contenu au profit du message, du médium au
profit du canal. Il faisait triompher une démarche méthodologique importante : le refus de la spécificité d’un message au
profit exclusif de ses caractéristiques physiques observables, et, en cela, mettait au point, par une série d’élargissements
successifs, un modèle de communication partant de léchange de signes parfaitement définis dpus u point jusqu’à un autre
(comme le courant électrique dans une ligne télégraphique en fournit un exemple parfait), pour s’élargir progressivement
à la théorie du transfert de formes globales : la musique, la parole, limage, d’un lieu ou d’un temps à un autre.
A. A. Moles, « Préface à la Théorie mathématique de la communication, de W. Weaver et C. Shannon, Retz-CEPL, Paris, 1975.
E11-TD 01 - La notion de modèle en communication
Texte 1
Le meilleur transmetteur est […] celui qui code le message de sorte que le signal ait précisément les caractéristiques
statistiques optimales qui soient le mieux adaptées au canal à utiliser, ce qui en fait maximalise l’entropie du signal (ou du
canal pourrait-on dire) et rend ce dernier égal à la capacité du canal. Shannon et Weaver (1949 :108)
Texte 2
« C’est une bien pauvre science, disait Lord Kelvin, celle qui n’est pas capable de s’exprimer dans des mesures » ; s’il est
abusif de vouloir réduire toute science à une mesure, car le but de la science est de comprendre, et la mesure n’aide pas
toujours à comprendre, il est bien certain que la proposition faite par Shannon de mesurer l’information a été essentielle.
Même si cette « information » ne coïncide avec le processus de communication que dans des conditions bien définies, bien
particulières, finalement assez étroites, et qui ont dues être fortement revues et étendues depuis, la Science de la
communication n’a pu se proclamer, s’ériger en discipline autonome qu’à partir du moment Shannon a proposé cette
mesure de ce qui se trouvait « transporté » de l’émetteur jusqu'au récepteur, qu’il a appelée précisément information,
mesure à caractère statistique, indépendante de la communication particulière qu’elle considérait, mais par contre
dépendante des probabilités d’utilisation des signes dans le « comportement » global du cepteur, qu’il soit homme ou
machine. […]
Ce qui, chez Leibniz avait été une proposition philosophique était devenu, entre les mains de ce jeune ingénieur des
télégraphes, une véritable grandeur mesurant ce qu’on appelle maintenant le « message », à savoir l’objet mariel qui est
transmis de lémetteur au récepteur.
Ainsi Shannon, sans le marquer explicitement, se trouvait reprendre une tradition antérieure de la philosophie scientifique,
celle du refus provisoire de la signification, du fond au profit de la forme, du contenu au profit du message, du médium au
profit du canal. Il faisait triompher une démarche méthodologique importante : le refus de la spécificité d’un message au
profit exclusif de ses caractéristiques physiques observables, et, en cela, mettait au point, par une série d’élargissements
successifs, un modèle de communication partant de léchange de signes parfaitement définis dpus u point jusqu’à un autre
(comme le courant électrique dans une ligne télégraphique en fournit un exemple parfait), pour s’élargir progressivement
à la théorie du transfert de formes globales : la musique, la parole, limage, d’un lieu ou d’un temps à un autre.
A. A. Moles, « Préface à la Théorie mathématique de la communication, de W. Weaver et C. Shannon, Retz-CEPL, Paris, 1975.
La notion de modèle en communication
Rappels définitoires
La communication
La notion de modèle
Les modèles circulants
Cybernétique et théorie des systèmes
Cybernétique (du grec « kubernetes » : pilote)
Etude des régulations des organismes vivants et des
systèmes mécaniques. Elles reposent sur une boucle
circulaire d’information qui peut soit amplifier les
tendances (retroactions positives) soit les limiter
(retroactions négatives).
Rétroaction (feed-back)
Action exercée, après une perturbation, sur les valeurs
d’entrée d’un système cybernétique (input) par les valeurs
de sortie (output) et qui rétablit les valeurs initiales.
N. Wiener (1894-1964)
Mathématicien américain qui, durant la deuxième guerre mondiale, a
initié la cybernétique au cours de travaux destinés à résoudre des
probmes théoriques de défense antiaérienne : comment prévoir la
position future d’une cible mobile à partir d’une information partielle
sur sa trajectoire passée ? La solution passe par la réduction de l’écart
entre une situation actuelle (données en sortie) et un résultat proje
(but). En plus de probabilis qu’on peut prédire, Wiener associe un
« feed-back », c’est-à-dire une correction du mécanisme au cours de
son déroulement même. Or, il remarque que ce dispositif est
analogue à celui des comportements volontaires humains (comme
porter un verre d’eau à ses lèvres, par exemple).
Système
Notion qui privilégie les relations globales par opposition à
l’approche isolée de chaque élément. En linguistique structurale,
le système définit la valeur des signes par les séries de leurs
oppositions, dans un ensemble cohérent, à un moment donné
(synchronie).
Théorie des systèmes
D’inspiration cybernétique, ce modèle insiste sur les dynamiques
de régulation, sur l’intégration de chaque système dans des
entités plus vastes et sur les échanges entre systèmes.
L. von Bertalanffy (1901-1972)
Biologue autrichien, auteur de La Théorie Générale des
Systèmes (1950) dans lequel il développe le modèle de la
cybernétique, en l’exprimant dans un formalisme
mathématique. Au lieu d’isoler les phénomènes pour les
étudier selon une optique plus traditionnelle (atomisme,
réductionnisme), il s’agit dans cette conception d’observer les
interactions complexes qui caractérisent les organisations
technologique et sociales. On étudie ainsi les systèmes
comme des totalités structurées par des relations
d’interdépendances entre les unités qui les composent.
La théorie de l’information : portée et limites
Entropie
En thermodynamique, degré de désordre d’un système
physique (le passage à l’ordre relatif, vers l’organisation
est appelé negentropie). En théorie statistique de
l’information, elle permet de mesurer la quanti
d’informations moyennes d’un ensemble d’événements
(notamment des messages) et son incertitude.
Redondance
Cas, relativement fréquent, où la quantité d’informations
est supérieure à ce qu’il n’est nécessaire.
C. Shannon (1916-2001)
Ingénieur des télécommunications américain, élève de Wiener et co-
auteur avec W. Weaver d’Une Théorie mathématique des
communications (1949) ouvrage fondateur de la Théorie statistique de
l’information. Il a popularisé le terme de bit (pour BInary digiT)
comme unité de mesure d’une source d’information numérique (c’est-
à-dire nécessaire au codage d’une quantité d’information). Ainsi un bit
(ou encore 1 Shannon) permet de coder 2 états : 0 ou 1 (pile ou face par
exemple). Le point de départ des théoriciens de l’information consiste à
tenter de surmonter les problèmes de parasitage des messages sur les
lignes téléphoniques par le bruit (toute altération du signal transmis).
Shannon s’est plus particulièrement intéressé à la notion d’entropie.
Information
Degré d’incertitude, mesuré en bits, par rapport à une
source d’émission de messages. La mesure concerne le
désordre à la source, avant mise en forme et gradue donc
la liber dans le choix d’un message. Pour l’émetteur, la
dissipation de l’incertitude sera d’autant plus grande, et
plus riche l’information transmise.
W. Weaver (1894-1978)
Egalement ingénieur en lécommunications, spécialiste de
cryptographie puis de recherches en traduction automatique. Selon lui,
la communication doit affecter le comportement sans quoi elle n’a
aucun effet discernable. Cette conception porte l’empreinte du
behaviourisme, philosophie qui prétend expliquer les processus
mentaux par les comportements observables de l’extérieur, notamment
en termes de réponses à des stimuli.
niveau
Technique
avec quelle exactitude les symboles de la communication peuvent-ils être transmis ?
Problème
Sémantique
avec quelle précision les symboles transmis véhiculent-ils la signification désirée ?
D’efficacité
avec quelle efficacité la signification reçue influence-t-elle la conduite dans le sens désiré ?
Susciter le rappel du CM : Dans le schéma de la théorie de linformation, toute communication suppose une source, distincte ou
pas d’un émetteur, qui code, dans un message la signification issue de la source quelle que soit la nature matérielle du code
utilisé : signaux acoustiques, vocaux ou non, optiques, directs non permanents (gestes, éclairs) ou, au contraire, fixés en
enregistrement ou documents (écriture,photo, ciné), le message constitué est transmis par un support matériel, ligne ou canal de
transmission vers un récepteur qui déchiffre ou décode le message dans l’état où il le reçoit après pertes et et brouillages éventuels
dus au bruit et en tire ainsi sa propre version ou signification (version du destinaire).
Une information correspond à un ou plusieurs événements possibles d’un ensemble donné. De façon radicale, dans son sens
formel, on n’appellera information que ce qui est susceptible d’avoir un effet, une retombée sur nos décisions, ce qui explique le
point de vue de Weaver (cf. théorie de la décision, arbre de décision). On voit la différence avec le sens plus trivial et plus
répandu, celui du journalisme, par exemple dont en définitive assez peu de manifestations sont de ce point de vue des
« informations ». Si l’on prend le cas, en revanche, d’une messagerie électronique saturée, on aboutit au problème inverse, don
par l’excès d’information, entravant la prise de décision.
Le Président J.-F. Kennedy vient d’être assassiné aujourd’hui dans la ville de Dallas (Flash spécial d’information radiophonique
du 22 novembre 1963)
Le jour d’une telle annonce, on passe d’une improbabilité initiale (son caractère inaattendu) à l’expression de beaucoup
d’information. Plus le message est original, invraisemblable, ou inattendu, plus il fournit d’information. Celle-ci correspond à la
mesure mathématique de l’originalité de la situation créée au récepteur par l’avènement du message, contrairement à l’acception
journalistique banale (qui en fait une série de messages aux contenus variables).
Il ne neigera pas demain à Palavas. [bulletin méorologique du 12 juillet 2006]
En revanche, cet énoncé ne présente aucune information à proprement parler : il s’agit d’une « nouvelle » que nous savions déjà et
qui ne modifie en rien notre comportement.
Il faut donc rendre pertinente l’info, ce qui revient à réduire l’incertitude initiale, par ex :
L’assassin habite au 21.
Linformation est pertinente si le numéro correspond à lune des maisons dune rue qui en compte une centaine mais pas dans le
cas où elle se trouverait être la seule habitation de la voie considérée. Cest le problème de la
redondance
qui est posé ici.
La B.U.M.3 possède un grand nombre d'ouvrages, des revues, des livres et des dictionnaires. Je cherche un cours complet sur la
théorie de l'information. Il apparaît logique que je ne trouverai pas ce dossier dans des ouvrages d'arts ou de littérature; je viens
donc d'obtenir une information qui diminuera mon temps de recherche. Jai précisé que je voulais aussi un cours complet, je ne le
trouverai donc ni dans une revue, ni dans un dictionnaire. Jai obtenu une information supplémentaire (je cherche un livre), qui
réduira encore le temps de ma recherche.
O
O
N
O
Arbre de décision pour deviner la valeur d’une carte dans un jeu de trente-deux.
une carte
rouge ?
N
N
O
O
une
reine ?
N
O
O
N
un as ?
N
O
O
un huit ?
N
O
Est-ce
un
honneur ?
N
N
un sept ?
N
Obtention de l’information recherchée en 5 bits
Une information (bit) = logarithme à Base deux
Egée attend le retour de son fils Thésée dont le navire doit arborer une voilure blanche en cas de victoire contre le
Minotaure. Par négligence, la voile est noire. Egée se jette dans la mer qui portera son nom.
blanche
= Thésée victorieux revient vivant.
Voile
noire
= Thésée a succombé à sa défaite contre le monstre crétois.
1 bit
(pb de la restriction jusqu’à l’absurde de la mesure du nb de choix binaires nécessaires pour sélectionner un message puisqu’on ne
tient pas compte du sens, de la signification même du message)
Alphabet de 26 lettres :
Information est à
distinguer de
signification (« les aspects sémantiques de la communication ne relèvent pas de ses aspects
technologiques », selon Shannon). Et notamment parce que le contenu d’information d’un message dépend
de son contexte.
Il faut moins de bits pour écrire chien que mammifère. Pourtant l'indication dor est un chien contient bien plus d'information que
l'indication dor est un mammifère : le contenu d'information sémantique d'un message dépend du contexte. En fait, c'est le
couple message + contexte qui constitue le ritable porteur d'information, et jamais le message seul (voir paradoxe du
compresseur).
Le meilleur transmetteur est […] celui qui code le message de sorte que le signal ait précisément les caractéristiques
statistiques optimales qui soient le mieux adaptées au canal à utiliser, ce qui en fait maximalise l’entropie du signal (ou du
canal pourrait-on dire) et rend ce dernier égal à la capacité du canal. Shannon et Weaver (1949 :108)
blanche
= Thésée victorieux revient vivant.
Voile
noire
= Thésée a succombé à sa défaite contre le monstre crétois.
1 bit
« C’est une bien pauvre science, disait Lord Kelvin, celle qui n’est pas capable de s’exprimer dans des mesures » ; s’il est
abusif de vouloir réduire toute science à une mesure, car le but de la science est de comprendre, et la mesure n’aide pas
toujours à comprendre, il est bien certain que la proposition faite par Shannon de mesurer l’information a été essentielle.
Même si cette « information » ne coïncide avec le processus de communication que dans des conditions bien définies, bien
particulières, finalement assez étroites, et qui ont dues être fortement revues et étendues depuis, la Science de la
communication n’a pu se proclamer, s’ériger en discipline autonome qu’à partir du moment Shannon a proposé cette
mesure de ce qui se trouvait « transporté » de l’émetteur jusqu'au récepteur, qu’il a appelée précisément information,
mesure à caractère statistique, indépendante de la communication particulière qu’elle considérait, mais par contre
dépendante des probabilités d’utilisation des signes dans le « comportement » global du cepteur, qu’il soit homme ou
machine. […]
Ce qui, chez Leibniz avait été une proposition philosophique était devenu, entre les mains de ce jeune ingénieur des
télégraphes, une véritable grandeur mesurant ce qu’on appelle maintenant le « message », à savoir l’objet mariel qui est
transmis de lémetteur au récepteur.
Ainsi Shannon, sans le marquer explicitement, se trouvait reprendre une tradition antérieure de la philosophie scientifique,
celle du refus provisoire de la signification, du fond au profit de la forme, du contenu au profit du message, du médium au
profit du canal. Il faisait triompher une démarche méthodologique importante : le refus de la spécificité d’un message au
profit exclusif de ses caractéristiques physiques observables, et, en cela, mettait au point, par une série d’élargissements
successifs, un modèle de communication partant de léchange de signes parfaitement définis dpus u point jusqu’à un autre
(comme le courant électrique dans une ligne télégraphique en fournit un exemple parfait), pour s’élargir progressivement
à la théorie du transfert de formes globales : la musique, la parole, limage, d’un lieu ou d’un temps à un autre.
A. A. Moles, « Préface à la Théorie mathématique de la communication, de W. Weaver et C. Shannon, Retz-CEPL, Paris, 1975.
Shannon et sa théorie de l’information ont eu une grande influence sur l’activité intellectuelle de la seconde
moitié du XXème s. En linguistique, même si sa portée s’est avérée limitée, ils ont inspiré notamment le
fameux schéma de la communication de R. Jakobson, que vous verrez plus tard dans le déroulement du
cours. L’apport de la science de l’information dans le domaine numérique est bien connu (cf. la notion de
bits) : linformatique en est une application technique directe qui automatise les traitements d’information (la
transmission, le transport, notamment) cf. « technologie de l’Information et de la Communication ».
Technique
avec quelle exactitude les symboles de la communication peuvent-ils être transmis ?
Problème
Sémantique
avec quelle précision les symboles transmis véhiculent-ils la signification désirée ?
D’efficacité
avec quelle efficacité la signification reçue influence-t-elle la conduite dans le sens désiré ?
Mais elle présente de sévères limitations pour une application aux problèmes de communication à
proprement parler. Les trois niveaux de problèmes soulevés par Wiener sont en particulier marqués par
l’oubli des conditions et du processus de production du message liés à l’émetteur (cf. dimension
pragmatique). Dautre part, conditions et processus de production sont vus sous l’angle normatif et pratique
de l’efficacité, en rapport avec les fins de l’émetteur sans envisager les effets qui n’ont pas de rapport avec
ces fins et notamment sans prendre en compte les fins du récepteur.
Cette conception est celle d’un ingénieur qui considère le récepteur comme une mantière qur laquelle il doit
avoir prise. grande différence avec le point de vue d’un psychosocioologue ou d’un thérapeute, par ex.
La théorie de l’info ne coïncide pas avec le domaine théorique de la communication. Ce n’est pas une théorie
unitaire mais elle porte simplement sur certaines conditions nécessires et instrumentales de la
communication. De fait, il n’existe pas, à proprement parler, de théorie unifiée de la communication mais un
domaine d’étude qui fait l’objet de recherches et de modélisations hétérogènes dont la coordination peut être
féconde.
1
1
B1
0
1
A
0
B2
0
1
1
E1
0
?
C
1
D1
0
E3
1
1 / 6 100%
La catégorie de ce document est-elle correcte?
Merci pour votre participation!

Faire une suggestion

Avez-vous trouvé des erreurs dans linterface ou les textes ? Ou savez-vous comment améliorer linterface utilisateur de StudyLib ? Nhésitez pas à envoyer vos suggestions. Cest très important pour nous !