E11-TD 01 - La notion de modèle en communication 1. Rappels définitoires La communication La notion de modèle 2. Analyse de quelques modèles circulants Cybernétique et théorie des systèmes Cybernétique (du grec « kubernetes » : pilote) N. Wiener (1894-1964) Mathématicien américain qui, durant la deuxième guerre mondiale, a Etude des régulations des organismes vivants et des initié la cybernétique au cours de travaux destinés à résoudre des systèmes mécaniques. Elles reposent sur une boucle problèmes théoriques de défense antiaérienne : comment prévoir la circulaire d’information qui peut soit amplifier les position future d’une cible mobile à partir d’une information partielle tendances (retroactions positives) soit les limiter sur sa trajectoire passée ? La solution passe par la réduction de l’écart (retroactions négatives). entre une situation actuelle (données en sortie) et un résultat projeté Rétroaction (feed-back) (but). En plus de probabilités qu’on peut prédire, Wiener associe un Action exercée, après une perturbation, sur les valeurs « feed-back », c’est-à-dire une correction du mécanisme au cours de d’entrée d’un système cybernétique (input) par les valeurs son déroulement même. Or, il remarque que ce dispositif est de sortie (output) et qui rétablit les valeurs initiales. analogue à celui des comportements volontaires humains (comme porter un verre d’eau à ses lèvres, par exemple). Système Notion qui privilégie les relations globales par opposition à l’approche isolée de chaque élément. En linguistique structurale, le système définit la valeur des signes par les séries de leurs oppositions, dans un ensemble cohérent, à un moment donné (synchronie). Théorie des systèmes D’inspiration cybernétique, ce modèle insiste sur les dynamiques de régulation, sur l’intégration de chaque système dans des entités plus vastes et sur les échanges entre systèmes. L. von Bertalanffy (1901-1972) Biologue autrichien, auteur de La Théorie Générale des Systèmes (1950) dans lequel il développe le modèle de la cybernétique, en l’exprimant dans un formalisme mathématique. Au lieu d’isoler les phénomènes pour les étudier selon une optique plus traditionnelle (atomisme, réductionnisme), il s’agit dans cette conception d’observer les interactions complexes qui caractérisent les organisations technologique et sociales. On étudie ainsi les systèmes comme des totalités structurées par des relations d’interdépendances entre les unités qui les composent. La théorie de l’information : portée et limites Entropie C. Shannon (1916-2001) Ingénieur des télécommunications américain, élève de Wiener et coEn thermodynamique, degré de désordre d’un système auteur avec W. Weaver d’Une Théorie mathématique des physique (le passage à l’ordre relatif, vers l’organisation communications (1949) ouvrage fondateur de la Théorie statistique de est appelé negentropie). En théorie statistique de l’information. Il a popularisé le terme de bit (pour BInary digiT) l’information, elle permet de mesurer la quantité comme unité de mesure d’une source d’information numérique (c’estd’informations moyennes d’un ensemble d’événements à-dire nécessaire au codage d’une quantité d’information). Ainsi un bit (notamment des messages) et son incertitude. (ou encore 1 Shannon) permet de coder 2 états : 0 ou 1 (pile ou face par Redondance Cas, relativement fréquent, où la quantité d’informations est supérieure à ce qu’il n’est nécessaire. Information Degré d’incertitude, mesuré en bits, par rapport à une source d’émission de messages. La mesure concerne le désordre à la source, avant mise en forme et gradue donc la liberté dans le choix d’un message. Pour l’émetteur, la dissipation de l’incertitude sera d’autant plus grande, et plus riche l’information transmise. exemple). Le point de départ des théoriciens de l’information consiste à tenter de surmonter les problèmes de parasitage des messages sur les lignes téléphoniques par le bruit (toute altération du signal transmis). Shannon s’est plus particulièrement intéressé à la notion d’entropie. W. Weaver (1894-1978) Egalement ingénieur en télécommunications, spécialiste de cryptographie puis de recherches en traduction automatique. Selon lui, la communication doit affecter le comportement sans quoi elle n’a aucun effet discernable. Cette conception porte l’empreinte du behaviourisme, philosophie qui prétend expliquer les processus mentaux par les comportements observables de l’extérieur, notamment en termes de réponses à des stimuli. 1. Le Président J.-F. Kennedy vient d’être assassiné aujourd’hui dans la ville de Dallas (Flash spécial d’information radiophonique du 22 novembre 1963) 2. Il ne neigera pas demain à Palavas. [bulletin météorologique du 12 juillet 2006] 3. L’assassin habite au 21. Est-ce O une carte rouge ? N un O honneur ? un carreau ? un trèfle ? O N O N une tête couronnée ? O Arbre de décision pour deviner la valeur d’une carte dans un jeu de trente-deux. une reine ? O un as ? O O un huit ? N un sept ? N O N O N N N une carte paire ? Le choix de Thésée N blanche Voile noire 1 bit E11-TD 01 - La notion de modèle en communication Texte 1 Le meilleur transmetteur est […] celui qui code le message de sorte que le signal ait précisément les caractéristiques statistiques optimales qui soient le mieux adaptées au canal à utiliser, ce qui en fait maximalise l’entropie du signal (ou du canal pourrait-on dire) et rend ce dernier égal à la capacité du canal. Shannon et Weaver (1949 :108) Texte 2 « C’est une bien pauvre science, disait Lord Kelvin, celle qui n’est pas capable de s’exprimer dans des mesures » ; s’il est abusif de vouloir réduire toute science à une mesure, car le but de la science est de comprendre, et la mesure n’aide pas toujours à comprendre, il est bien certain que la proposition faite par Shannon de mesurer l’information a été essentielle. Même si cette « information » ne coïncide avec le processus de communication que dans des conditions bien définies, bien particulières, finalement assez étroites, et qui ont dues être fortement revues et étendues depuis, la Science de la communication n’a pu se proclamer, s’ériger en discipline autonome qu’à partir du moment où Shannon a proposé cette mesure de ce qui se trouvait « transporté » de l’émetteur jusqu'au récepteur, qu’il a appelée précisément information, mesure à caractère statistique, indépendante de la communication particulière qu’elle considérait, mais par contre dépendante des probabilités d’utilisation des signes dans le « comportement » global du récepteur, qu’il soit homme ou machine. […] Ce qui, chez Leibniz avait été une proposition philosophique était devenu, entre les mains de ce jeune ingénieur des télégraphes, une véritable grandeur mesurant ce qu’on appelle maintenant le « message », à savoir l’objet matériel qui est transmis de l’émetteur au récepteur. Ainsi Shannon, sans le marquer explicitement, se trouvait reprendre une tradition antérieure de la philosophie scientifique, celle du refus provisoire de la signification, du fond au profit de la forme, du contenu au profit du message, du médium au profit du canal. Il faisait triompher une démarche méthodologique importante : le refus de la spécificité d’un message au profit exclusif de ses caractéristiques physiques observables, et, en cela, mettait au point, par une série d’élargissements successifs, un modèle de communication partant de l’échange de signes parfaitement définis dpus u point jusqu’à un autre (comme le courant électrique dans une ligne télégraphique en fournit un exemple parfait), pour s’élargir progressivement à la théorie du transfert de formes globales : la musique, la parole, l’image, d’un lieu ou d’un temps à un autre. A. A. Moles, « Préface à la Théorie mathématique de la communication, de W. Weaver et C. Shannon, Retz-CEPL, Paris, 1975. E11-TD 01 - La notion de modèle en communication Texte 1 Le meilleur transmetteur est […] celui qui code le message de sorte que le signal ait précisément les caractéristiques statistiques optimales qui soient le mieux adaptées au canal à utiliser, ce qui en fait maximalise l’entropie du signal (ou du canal pourrait-on dire) et rend ce dernier égal à la capacité du canal. Shannon et Weaver (1949 :108) Texte 2 « C’est une bien pauvre science, disait Lord Kelvin, celle qui n’est pas capable de s’exprimer dans des mesures » ; s’il est abusif de vouloir réduire toute science à une mesure, car le but de la science est de comprendre, et la mesure n’aide pas toujours à comprendre, il est bien certain que la proposition faite par Shannon de mesurer l’information a été essentielle. Même si cette « information » ne coïncide avec le processus de communication que dans des conditions bien définies, bien particulières, finalement assez étroites, et qui ont dues être fortement revues et étendues depuis, la Science de la communication n’a pu se proclamer, s’ériger en discipline autonome qu’à partir du moment où Shannon a proposé cette mesure de ce qui se trouvait « transporté » de l’émetteur jusqu'au récepteur, qu’il a appelée précisément information, mesure à caractère statistique, indépendante de la communication particulière qu’elle considérait, mais par contre dépendante des probabilités d’utilisation des signes dans le « comportement » global du récepteur, qu’il soit homme ou machine. […] Ce qui, chez Leibniz avait été une proposition philosophique était devenu, entre les mains de ce jeune ingénieur des télégraphes, une véritable grandeur mesurant ce qu’on appelle maintenant le « message », à savoir l’objet matériel qui est transmis de l’émetteur au récepteur. Ainsi Shannon, sans le marquer explicitement, se trouvait reprendre une tradition antérieure de la philosophie scientifique, celle du refus provisoire de la signification, du fond au profit de la forme, du contenu au profit du message, du médium au profit du canal. Il faisait triompher une démarche méthodologique importante : le refus de la spécificité d’un message au profit exclusif de ses caractéristiques physiques observables, et, en cela, mettait au point, par une série d’élargissements successifs, un modèle de communication partant de l’échange de signes parfaitement définis dpus u point jusqu’à un autre (comme le courant électrique dans une ligne télégraphique en fournit un exemple parfait), pour s’élargir progressivement à la théorie du transfert de formes globales : la musique, la parole, l’image, d’un lieu ou d’un temps à un autre. A. A. Moles, « Préface à la Théorie mathématique de la communication, de W. Weaver et C. Shannon, Retz-CEPL, Paris, 1975. La notion de modèle en communication Rappels définitoires La communication La notion de modèle Les modèles circulants Cybernétique et théorie des systèmes Cybernétique (du grec « kubernetes » : pilote) N. Wiener (1894-1964) Mathématicien américain qui, durant la deuxième guerre mondiale, a Etude des régulations des organismes vivants et des initié la cybernétique au cours de travaux destinés à résoudre des systèmes mécaniques. Elles reposent sur une boucle problèmes théoriques de défense antiaérienne : comment prévoir la circulaire d’information qui peut soit amplifier les position future d’une cible mobile à partir d’une information partielle tendances (retroactions positives) soit les limiter sur sa trajectoire passée ? La solution passe par la réduction de l’écart (retroactions négatives). entre une situation actuelle (données en sortie) et un résultat projeté Rétroaction (feed-back) (but). En plus de probabilités qu’on peut prédire, Wiener associe un Action exercée, après une perturbation, sur les valeurs « feed-back », c’est-à-dire une correction du mécanisme au cours de d’entrée d’un système cybernétique (input) par les valeurs son déroulement même. Or, il remarque que ce dispositif est analogue à celui des comportements volontaires humains (comme de sortie (output) et qui rétablit les valeurs initiales. porter un verre d’eau à ses lèvres, par exemple). Système Notion qui privilégie les relations globales par opposition à l’approche isolée de chaque élément. En linguistique structurale, le système définit la valeur des signes par les séries de leurs oppositions, dans un ensemble cohérent, à un moment donné (synchronie). Théorie des systèmes D’inspiration cybernétique, ce modèle insiste sur les dynamiques de régulation, sur l’intégration de chaque système dans des entités plus vastes et sur les échanges entre systèmes. L. von Bertalanffy (1901-1972) Biologue autrichien, auteur de La Théorie Générale des Systèmes (1950) dans lequel il développe le modèle de la cybernétique, en l’exprimant dans un formalisme mathématique. Au lieu d’isoler les phénomènes pour les étudier selon une optique plus traditionnelle (atomisme, réductionnisme), il s’agit dans cette conception d’observer les interactions complexes qui caractérisent les organisations technologique et sociales. On étudie ainsi les systèmes comme des totalités structurées par des relations d’interdépendances entre les unités qui les composent. La théorie de l’information : portée et limites Entropie C. Shannon (1916-2001) Ingénieur des télécommunications américain, élève de Wiener et coEn thermodynamique, degré de désordre d’un système auteur avec W. Weaver d’Une Théorie mathématique des physique (le passage à l’ordre relatif, vers l’organisation communications (1949) ouvrage fondateur de la Théorie statistique de est appelé negentropie). En théorie statistique de l’information. Il a popularisé le terme de bit (pour BInary digiT) l’information, elle permet de mesurer la quantité comme unité de mesure d’une source d’information numérique (c’estd’informations moyennes d’un ensemble d’événements à-dire nécessaire au codage d’une quantité d’information). Ainsi un bit (notamment des messages) et son incertitude. (ou encore 1 Shannon) permet de coder 2 états : 0 ou 1 (pile ou face par Redondance Cas, relativement fréquent, où la quantité d’informations est supérieure à ce qu’il n’est nécessaire. Information Degré d’incertitude, mesuré en bits, par rapport à une source d’émission de messages. La mesure concerne le désordre à la source, avant mise en forme et gradue donc la liberté dans le choix d’un message. Pour l’émetteur, la dissipation de l’incertitude sera d’autant plus grande, et plus riche l’information transmise. Problème niveau Technique Sémantique D’efficacité exemple). Le point de départ des théoriciens de l’information consiste à tenter de surmonter les problèmes de parasitage des messages sur les lignes téléphoniques par le bruit (toute altération du signal transmis). Shannon s’est plus particulièrement intéressé à la notion d’entropie. W. Weaver (1894-1978) Egalement ingénieur en télécommunications, spécialiste de cryptographie puis de recherches en traduction automatique. Selon lui, la communication doit affecter le comportement sans quoi elle n’a aucun effet discernable. Cette conception porte l’empreinte du behaviourisme, philosophie qui prétend expliquer les processus mentaux par les comportements observables de l’extérieur, notamment en termes de réponses à des stimuli. avec quelle exactitude les symboles de la communication peuvent-ils être transmis ? avec quelle précision les symboles transmis véhiculent-ils la signification désirée ? avec quelle efficacité la signification reçue influence-t-elle la conduite dans le sens désiré ? Susciter le rappel du CM : Dans le schéma de la théorie de l’information, toute communication suppose une source, distincte ou pas d’un émetteur, qui code, dans un message la signification issue de la source quelle que soit la nature matérielle du code utilisé : signaux acoustiques, vocaux ou non, optiques, directs non permanents (gestes, éclairs) ou, au contraire, fixés en enregistrement ou documents (écriture,photo, ciné), le message constitué est transmis par un support matériel, ligne ou canal de transmission vers un récepteur qui déchiffre ou décode le message dans l’état où il le reçoit après pertes et et brouillages éventuels dus au bruit et en tire ainsi sa propre version ou signification (version du destinaire). Une information correspond à un ou plusieurs événements possibles d’un ensemble donné. De façon radicale, dans son sens formel, on n’appellera information que ce qui est susceptible d’avoir un effet, une retombée sur nos décisions, ce qui explique le point de vue de Weaver (cf. théorie de la décision, arbre de décision). On voit la différence avec le sens plus trivial et plus répandu, celui du journalisme, par exemple dont en définitive assez peu de manifestations sont de ce point de vue des « informations ». Si l’on prend le cas, en revanche, d’une messagerie électronique saturée, on aboutit au problème inverse, donné par l’excès d’information, entravant la prise de décision. Le Président J.-F. Kennedy vient d’être assassiné aujourd’hui dans la ville de Dallas (Flash spécial d’information radiophonique du 22 novembre 1963) Le jour d’une telle annonce, on passe d’une improbabilité initiale (son caractère inaattendu) à l’expression de beaucoup d’information. Plus le message est original, invraisemblable, ou inattendu, plus il fournit d’information. Celle-ci correspond à la mesure mathématique de l’originalité de la situation créée au récepteur par l’avènement du message, contrairement à l’acception journalistique banale (qui en fait une série de messages aux contenus variables). Il ne neigera pas demain à Palavas. [bulletin météorologique du 12 juillet 2006] En revanche, cet énoncé ne présente aucune information à proprement parler : il s’agit d’une « nouvelle » que nous savions déjà et qui ne modifie en rien notre comportement. Il faut donc rendre pertinente l’info, ce qui revient à réduire l’incertitude initiale, par ex : L’assassin habite au 21. Est-ce L’information est pertinente si le numéro correspond à l’une des maisons d’une rue qui en compte une centaine mais pas dans le cas où elle se trouverait être la seule habitation de la voie considérée. C’est le problème de la redondance qui est posé ici. La B.U.M.3 possède un grand nombre d'ouvrages, des revues, des livres et des dictionnaires. Je cherche un cours complet sur la théorie de l'information. Il apparaît logique que je ne trouverai pas ce dossier dans des ouvrages d'arts ou de littérature; je viens donc d'obtenir une information qui diminuera mon temps de recherche. J’ai précisé que je voulais aussi un cours complet, je ne le trouverai donc ni dans une revue, ni dans un dictionnaire. J’ai obtenu une information supplémentaire (je cherche un livre), qui réduira encore le temps de ma recherche. O une carte rouge ? un carreau ? N un trèfle ? un O une tête couronnée ? honneur ? O N O N Arbre de décision pour deviner la valeur d’une carte dans un jeu de trente-deux. une reine ? O un as ? O O un huit ? N un sept ? N O N O N O N N une carte paire ? N Obtention de l’information recherchée en 5 bits Une information (bit) = logarithme à Base deux Egée attend le retour de son fils Thésée dont le navire doit arborer une voilure blanche en cas de victoire contre le Minotaure. Par négligence, la voile est noire. Egée se jette dans la mer qui portera son nom. blanche = Thésée victorieux revient vivant. Voile 1 bit noire = Thésée a succombé à sa défaite contre le monstre crétois. (pb de la restriction jusqu’à l’absurde de la mesure du nb de choix binaires nécessaires pour sélectionner un message puisqu’on ne tient pas compte du sens, de la signification même du message) Alphabet de 26 lettres : blanche = Thésée victorieux revient vivant. noire = Thésée a succombé à sa défaite contre le monstre crétois. Information est à distinguer de signification (« les aspects sémantiques de la communication ne relèvent pas de ses aspects technologiques », selon Shannon). Et notamment parce que le contenu d’information d’un message dépend de son contexte. Voile 1 bit Il faut moins de bits pour écrire chien que mammifère. Pourtant l'indication Médor est un chien contient bien plus d'information que l'indication Médor est un mammifère : le contenu d'information sémantique d'un message dépend du contexte. En fait, c'est le couple message + contexte qui constitue le véritable porteur d'information, et jamais le message seul (voir paradoxe du compresseur). Le meilleur transmetteur est […] celui qui code le message de sorte que le signal ait précisément les caractéristiques statistiques optimales qui soient le mieux adaptées au canal à utiliser, ce qui en fait maximalise l’entropie du signal (ou du canal pourrait-on dire) et rend ce dernier égal à la capacité du canal. Shannon et Weaver (1949 :108) « C’est une bien pauvre science, disait Lord Kelvin, celle qui n’est pas capable de s’exprimer dans des mesures » ; s’il est abusif de vouloir réduire toute science à une mesure, car le but de la science est de comprendre, et la mesure n’aide pas toujours à comprendre, il est bien certain que la proposition faite par Shannon de mesurer l’information a été essentielle. Même si cette « information » ne coïncide avec le processus de communication que dans des conditions bien définies, bien particulières, finalement assez étroites, et qui ont dues être fortement revues et étendues depuis, la Science de la communication n’a pu se proclamer, s’ériger en discipline autonome qu’à partir du moment où Shannon a proposé cette mesure de ce qui se trouvait « transporté » de l’émetteur jusqu'au récepteur, qu’il a appelée précisément information, mesure à caractère statistique, indépendante de la communication particulière qu’elle considérait, mais par contre dépendante des probabilités d’utilisation des signes dans le « comportement » global du récepteur, qu’il soit homme ou machine. […] Ce qui, chez Leibniz avait été une proposition philosophique était devenu, entre les mains de ce jeune ingénieur des télégraphes, une véritable grandeur mesurant ce qu’on appelle maintenant le « message », à savoir l’objet matériel qui est transmis de l’émetteur au récepteur. Ainsi Shannon, sans le marquer explicitement, se trouvait reprendre une tradition antérieure de la philosophie scientifique, celle du refus provisoire de la signification, du fond au profit de la forme, du contenu au profit du message, du médium au profit du canal. Il faisait triompher une démarche méthodologique importante : le refus de la spécificité d’un message au profit exclusif de ses caractéristiques physiques observables, et, en cela, mettait au point, par une série d’élargissements successifs, un modèle de communication partant de l’échange de signes parfaitement définis dpus u point jusqu’à un autre (comme le courant électrique dans une ligne télégraphique en fournit un exemple parfait), pour s’élargir progressivement à la théorie du transfert de formes globales : la musique, la parole, l’image, d’un lieu ou d’un temps à un autre. A. A. Moles, « Préface à la Théorie mathématique de la communication, de W. Weaver et C. Shannon, Retz-CEPL, Paris, 1975. Shannon et sa théorie de l’information ont eu une grande influence sur l’activité intellectuelle de la seconde moitié du XXème s. En linguistique, même si sa portée s’est avérée limitée, ils ont inspiré notamment le fameux schéma de la communication de R. Jakobson, que vous verrez plus tard dans le déroulement du cours. L’apport de la science de l’information dans le domaine numérique est bien connu (cf. la notion de bits) : l’informatique en est une application technique directe qui automatise les traitements d’information (la transmission, le transport, notamment) cf. « technologie de l’Information et de la Communication ». Problème Technique Sémantique D’efficacité avec quelle exactitude les symboles de la communication peuvent-ils être transmis ? avec quelle précision les symboles transmis véhiculent-ils la signification désirée ? avec quelle efficacité la signification reçue influence-t-elle la conduite dans le sens désiré ? Mais elle présente de sévères limitations pour une application aux problèmes de communication à proprement parler. Les trois niveaux de problèmes soulevés par Wiener sont en particulier marqués par l’oubli des conditions et du processus de production du message liés à l’émetteur (cf. dimension pragmatique). D’autre part, conditions et processus de production sont vus sous l’angle normatif et pratique de l’efficacité, en rapport avec les fins de l’émetteur sans envisager les effets qui n’ont pas de rapport avec ces fins et notamment sans prendre en compte les fins du récepteur. Cette conception est celle d’un ingénieur qui considère le récepteur comme une mantière qur laquelle il doit avoir prise. grande différence avec le point de vue d’un psychosocioologue ou d’un thérapeute, par ex. La théorie de l’info ne coïncide pas avec le domaine théorique de la communication. Ce n’est pas une théorie unitaire mais elle porte simplement sur certaines conditions nécessires et instrumentales de la communication. De fait, il n’existe pas, à proprement parler, de théorie unifiée de la communication mais un domaine d’étude qui fait l’objet de recherches et de modélisations hétérogènes dont la coordination peut être féconde. 1 B1 0 B2 1 D1 ? A 1 0 1 0 E1 C 1 0 1 0 E3 1 D2 1 E4 0 E5 0 0 1 0 1 0