les opérations réalisées par la conscience. Les concepts de signification, de forme et
d'information pourraient jouer un plus grand rôle d'intégration en apportant une unification de
secteurs entiers de la recherche.
Les différents concepts d'information, de forme et de signification, ainsi que leurs
interconnexions, sont discutées ci-après. Des questions sont ensuite posées et des
directions pour des travaux futurs sont suggérées.
L'information
À première vue, l'"information" ne joue aucun rôle dans le monde de la physique. Les
faits, les données et l'information sont contenus dans les livres, ou assemblés par des
scientifiques, mais n'ont aucune existence indépendante et objective dans le monde
physique indépendamment de leur interprétation par les humains. La "théorie de
l'information" de Shannon et Weaver, par exemple, concerne la manière dont les données
sont transmises : voyages des bits d'information le long d'une ligne téléphonique ou dans
d'autres systèmes de transmission. La "signification" d'un message particulier est non
pertinente, ce qui est significatif est seulement le mécanisme de son codage et du décodage,
plus les rôles relatifs joués par le bruit et la redondance.
Pourtant une recherche plus profonde suggère que les choses sont plus subtiles et
moins évidentes. La notion de l'entropie, par exemple, est présente en théorie de
l'information et en thermodynamique. C'est un autre concept qui a commencé par une
ontologie incertaine. D'un côté en thermodynamique, l'entropie est liée à des variables bien
définies, comme la température et l’énergie thermique, d’un autre côté, le mot entropie
désigne de façon subjective un degré de "désordre" dans un système, ou une décomposition
de l'ordre et de l'information, ou la dégradation de la teneur en information d'un message.
Il y a la question de la quantité d’informations exigée pour définir un système. Un
système apparemment "ordonné", montrant un comportement strictement périodique, exige
peu d'informations pour sa définition. Des systèmes fortement complexes ou aléatoires,
d'autre part, sont définis par une quantité d'informations potentiellement infinie. Mais est-ce
que ces mesures sont purement objectives ou dépendent-elles toujours d'un certain sujet
humain qui leur attribue une signification ? Prigogine essaye de replacer le concept de
l'entropie dans une base objective plus claire mais le débat continue toujours.
Le mystère de l'information s’approfondit encore avec la découverte de Beckenstein
de la relation entre la quantité d'information passant par un horizon d'événements, la teneur
en entropie, et le rayon d'un trou noir. Voici une définition totalement objective et quantitative
de l'information dans la physique. (Dans ce cas-ci, cependant, c'est la quantité d'information
plutôt que son contenu ou sa signification réelle qui est significative.) La section ci-dessous,
sur la forme, discute également des façons dont la forme (reliée à l'in-form-ation) joue un rôle
significatif dans la physique quantique.
La percée théorique qui a donné à l'information plus de rôle "physique" est venue
avec la proposition de Bohm, disant que l'information joue un rôle actif dans des
systèmes quantiques. Les écrits de Bohm de 1952 sur les variables cachées ont proposé
une approche alternative à la théorie quantique dans laquelle l'électron est une vraie
particule guidée par un nouveau genre de force, le potentiel quantique. Tandis qu'à
première vue la théorie de Bohm semble légèrement "classique" - les électrons ont de vrais
chemins - le potentiel quantique est entièrement nouveau. À la différence de tous les
autres potentiels dans la physique, ses effets ne dépendent pas de la force ou de la