PETIT MANUEL EXPLICATIF DE LA FABRIQUE SILENCIEUSE DU TERRORISME SMALL EXPLANATORY MANUAL ON THE SILENT TERRORISM « FABRIC » Selon le Dictionnaire de musique de Jean-Jacques ROUSSEAU, M. DCC. LXVIII. à la page 477, l’expérience qui suit sert de principe à toute Harmonie Artificielle et est tirée du Système de Giuseppe TARTINI 1692-1770 : « Toutes les fois que deux sons forts, justes et soutenus, se font entendre au même instant, il résulte de leur choc un troisième son plus ou moins sensible, à proportion de la simplicité du rapport des deux premiers et de la finesse d’oreille des écoutants. » Sur le site de : www.universalis.fr/encyclopedie, on retrouve une explication de ce phénomène dit de Giuseppe TARTINI, au registre des OTO-EMISSIONS ACOUSTIQUES : « Dès 1714, Giuseppe Tartini découvrait, par une méthode psycho-acoustique, que lorsqu'il écoutait deux sons purs, de fréquences proches, émis simultanément, il entendait un troisième son. » Sur le site de Wikipedia.fr au registre de L’OTO-EMISSION ACOUSTIQUE, il est dit : « Les oto-émissions acoustiques sont des vibrations de nature sonore générées par les mouvements des cellules ciliées externes, situées le long de la membrane basilaire cochléaire. Phénomène prédit en 1948 par Thomas Gold, sa démonstration expérimentale a été réalisée par le physicien David Kemp en 1978 grâce au perfectionnement micros ultrasensibles. » Avec pour mécanisme : « Quand un son atteint l’oreille, il passe par le pavillon et finit dans la cochlée qui joue le rôle d'amplificateur : les cellules ciliées stimulées par l’onde acoustique génèrent à leur tour un son très faible qui sort de l’oreille. » Sur le site de www.coclhea.eu, au registre des OTO-EMISSIONS ACOUSTIQUES, il est dit : « Découvertes "prématurément" en 1978 (Kemp), les oto-émissions acoustiques (OEAs) ont été mieux interprétées quelques années plus tard, à la lumière des avancées sur les mécanismes actifs et les propriétés électromotiles des céllules cliliées externes (CCEs) dont elles sont en fait le reflet. En plaçant une sonde dans le conduit auditif externe, on peut enregistrer une réponse acoustique après une stimulation (oto-émissions provoquées), ou même, dans certains cas, une émission spontanée. » Sur le site de www.universalis.fr/encyclopedie, il est précisé que : « Les oto-émissions provoquées, contrairement aux oto-émissions spontanées, n'apparaissent que lorsque l'oreille est stimulée par ce qu'on appelle communément un clic, un son bref et de large spectre. » Sur : http://www.cochlea.eu/son/psychoacoustique « Si on fait entendre sur une même oreille un son complexe composé de deux sons purs de fréquences différentes mais proches, la sonie reste la même tant que l’écart entre ces deux fréquences est inférieur à la largeur de la bande critique ; dès que cet écart dépasse la largeur de la bande critique, la sonie augmente. » Sur : http://www.minidisc.org/French_tech/section1.html La sensibilité de notre organe auditif n'est pas linéaire, elle varie en fonction de la fréquence (20-20 000 Hz) et du niveau sonore. L'oreille possède un maximum de sensibilité pour des fréquences comprises entre 2 et 5 kHz (pointe à 4 kHz). De ce fait, deux sons de fréquence différentes et de même intensité peuvent provoquer une sensation de force sonore différente (ou une sonie différente). L'expression de la sonie se définit en sones, où un sone représente une sensation de force sonore équivalente de 40 dB à 1 kHz. En fonction de la sonie et de la fréquence, le comportement de notre oreille varie et des phénomènes de masquage apparaissent. On parle de masquage quand un son est rendu inaudible par un autre. Il existe plusieurs sortes d'effets de masque. Tout d'abord le plus connu, celui que l'on peut expérimenter tous les jours en discutant avec une personne pendant qu'un train passe à proximité, c'est-à-dire le masquage simultané ou fréquentiel. Il intervient lorsque le cerveau doit analyser deux modulations dont la fréquence et l'amplitude sont proches. Il existe également un masquage appelé "effet de précédence" (ou effet de Haas) qui apparaît lorsque le signal masqué est émis après le signal masquant. Enfin, un son masqué émis avant le signal masquant est un masquage de postériorité. Le masquage de postériorité et l'effet de précédence sont des masquages temporels. On peut constater que l'effet de Haas est beaucoup plus "tolérant" que le masquage de postériorité. Un son théoriquement masqué étant émis plus de 2 ou 3 ms avant le son soit disant masquant, devient un pré-écho audible et gênant tandis que dans le cas du masquage par précédence, une fois le son masquant émis, le son masqué le reste tant qu'il survient dans les 20 ms (environ) qui suivent l'émission du son masquant. Ces valeurs ne sont cependant valables que pour des impulsions très brèves, du type transitoires. Pour des durées supérieures, le phénomène n'est plus le même. Un sujet est soumis à un son pur (dans ce cas 1 kHz à 60 dB) et doit se manifester lorsqu'il perçoit un autre son pur‚ de fréquence différente ou voisine. On constate que le seuil d'audition absolu est alors "relevé". En effet, au voisinage de 1 kHz, il faut augmenter de façon considérable le niveau de… ‚ pour que le sujet l'entende. Il est important de noter que le phénomène est d'autant plus perceptible lorsqu'on dépasse la fréquence du son masquant, à savoir 1 kHz. Ceci souligne en fait le comportement de notre oreille interne, notamment la membrane basilaire, à l'intérieur de laquelle les sons graves ont tendance à masquer les sons aigus, ce qui explique la dissymétrie du parcours de… ‚ autour de…. Grâce à ce test, nous avons pu constater qu'il y a une grande partie du spectre qui n'est pas perçue par l'oreille. Sur : http://www.sebsite.org/article.php3?id_article=22 relatif à la compression ATRAC (Adaptive Transform Acoustic Coding) pour MiniDisc : En effet, l'oreille analyse le spectre audio en le découpant en bandes dites critiques. Dans chacune de ces bandes (dont la largeur varie en fonction de la précision de l'oreille à ces fréquences et non de la largeur de la courbe de masking), l'oreille assimile les fréquences et ne les différencie plus. Ces bandes correspondent d'ailleurs à la répartition des cellules ciliées dans l'oreille interne. Suite : http://www.minidisc.org/French_tech/section1.html La théorie des bandes critiques est née de la découverte du phénomène décrit cidessus. Elle vient de l'idée que notre oreille intègre les sons par tranches de fréquences appelées sous-bandes. Nous avons en effet pu constater que pour entendre le son ‚ au voisinage de..., il fallait fournir beaucoup plus de niveau chez… ‚ par rapport au seuil d'audition. Le phénomène observé n'est pas linéaire: selon la fréquence mise en cause, la largeur de ces bandes critiques varie. Bande Fréquence (Hz) Bande Fréquence (Hz) Critique Basse Haute Largeur Critique Basse Haute Largeur 0 0 100 100 13 2000 2320 320 1 100 200 100 14 2320 2700 380 2 200 300 100 15 2700 3150 450 3 300 400 100 16 3150 3700 550 4 400 510 110 17 3700 4400 700 5 510 630 120 18 4400 5300 900 6 630 770 140 19 5300 6400 1100 7 770 920 150 20 6400 7700 1300 8 920 1080 160 21 7700 9500 1800 9 1080 1270 190 22 9500 12000 2500 10 1270 1480 210 23 12000 15500 3500 11 1480 1720 240 24 15500 22050 6550 12 1720 2000 280 Sur : http://www.audiosonica.com/fr/cours/post/23/Perception_du_son_Effet_Haas On appelle effet Haas un certain phénomène physique qui concerne la perception du son par le cerveau. Prenons en considération le cas d'un son produit par une source sonore, et imaginons que nous nous trouvons dans une pièce et que nous sommes placés à une certaine distance de la source même. En raison des réflexions du son sur les parois, c'est avant tout le signal provenant directement de la source qui nous parviendra et, dans un deuxième temps, celui produit par les réflexions du signal même, sur les parois de la pièce. Ce retard est dû au fait que le son reflété traverse un parcours plus long que le signal direct. Si les deux signaux parviennent avec un léger retard l'un par rapport à l'autre, le cerveau perçoit un son unique provenant d'une seule direction. La direction perçue par le cerveau comme la direction de provenance du son est celle de l'onde qui arrive la première (ceci est valable même si l'intensité de la seconde onde est supérieure à la première). C'est pour cette raison que cet effet prend le nom d'effet de précédence. Cet effet se produit quand le retard entre les deux signaux est suffisamment court, plus précisément il ne doit pas dépasser les 30-35 ms. Cet intervalle temporel est ainsi défini zone de Haas: Équation 2.2. zone de Haas [0 - 35ms] Quand le retard entre les signaux sort de la zone de Haas, on avertit deux signaux distincts et nous entrons dans le cas de l'effet écho, où l'auditeur perçoit les deux sons comme s'ils étaient distincts. D’après un document PDF intitulé La Psychoacoustique.pdf du : http://cnr.annecy.regie.free.fr/cours/La%20Psychoacoustique.pdf L'oreille interne L'oreille interne ou labyrinthe, séparée de l'oreille moyenne par la fenêtre ovale, est un ensemble complexe de cavités osseuses, creusées dans l'os mastoïde et remplies de divers liquides. Elle est le siège de l'organe transducteur de l'audition. Son mécanisme est si complexe qu’on n’en connaît pas le fonctionnement exact et il est toujours un sujet d'études. La cochlée ou limaçon est une cavité spiralée contenant des liquides qui vont transmettre les vibrations provenant du tympan. Elle contient l'organe transducteur mécanique-neuronal : l'organe de Corti, fixé sur la membrane basilaire, est constitué d'environ 16 000 cellules, appelées cellules ciliées ; ces capteurs essentiels ont la propriété d’être sensibles aux micromouvements mécaniques de la membrane tectoriale par le moyen d’un cil (d’où leur nom) et transmettent ainsi l’information sonore sous forme d’impulsions électriques au nerf auditif. Elles sont disposées sur quatre rangées le long de toute la membrane basilaire. Les cellules internes transmettent une information électrochimique aux fibres nerveuses du nerf auditif rejoignant le cerveau. Elles sont dites afférentes par rapport au cerveau : privées de ces cellules, tout en conservant les externes, par exemple lors des traumatismes sonores qui détruisent les cils de ces cellules, nous devenons sourds. Celles-ci ont donc une valeur essentiellement sensorielle. Les cellules externes sont liées à des fibres descendantes venant du cerveau. Contractiles et adaptatrices, elles font partie du système efférent du cerveau. Leur altération par l’âge compromet l’intelligibilité du langage. Situées en plusieurs rangées, leur rôle est de se contracter en fonction d’une fréquence reçue, c’est à dire que pour telle zone de la membrane basilaire, tel ensemble de fibres est activé. Celles-ci, représentant 5% de fibres non myélinisées, sont donc en nombre infime mais elles ont un rôle considérable, c’est à dire un rôle adaptateur, à la manière d'un pré-ampli vis-à-vis du son plus ou moins organisé, qui a subi un premier acheminement via le cerveau. Elles peuvent aussi affaiblir un son, l’amortir, si celui- ci est d’une intensité trop forte ou s’il se situe dans des fréquences trop graves. Cette mobilisation répond à une fréquence particulière selon le lieu de la membrane basilaire envisagé (tonotopie). Les fréquences aigues feraient plutôt réagir les cellules ciliées placées à la base de la membrane basilaire, c’est-à-dire près de la fenêtre ovale, tandis que les fréquences aigues exciteraient plutôt les cellules placées au bout. 1. Les cellules ciliées internes 2. Les trois rangées de cellules ciliées externes 3. Fibres nerveuses Schéma de la cochlée montrant, sur la partie gauche les cellules ciliées internes (1) sur une seule rangée et sur la partie droite, les cellules ciliées externes (2) sur trois rangées. Les autres cellules sont des cellules de soutien Ce qui circule sur les fibres du nerf optique ne ressemble pas du tout aux vibrations.... Sans en dire plus, les axones auditifs rejoignent les premières aires auditives du cerveau dans lesquels il y a concurrence avec des axones venant de nombreuses autres régions... La localisation latérale est un des principaux critères entrant en considération dans la perception de l’espace sonore. Nous emploierons ici le terme localisation pour désigner la faculté d’évaluer la position d’une source sonore dans l’espace d’un point de vue angulaire, sans prendre en compte l’impression de distance. La précision de la localisation sonore est remarquable : dans le plan frontal, l’angle minimum audible est de 2° (Mills 1958), et ce, particulièrement pour des sons brefs ou présents dans un environnement bruyant ou très réverbérant. Les paramètres les plus significatifs pour la localisation de sons dans le plan horizontal dépendent de la comparaison des signaux arrivant aux deux oreilles. On parle alors de localisation binaurale. Considérons une source sonore placée d’un côté de la tête. Le son parvenant à l’oreille la plus éloignée arrivera plus tard et avec une intensité moindre que celui arrivant à l’oreille la plus proche. Cette constatation simple permet d’ores et déjà de distinguer les deux principales façons que nous avons de localiser une source sonore : -la différence interaurale de temps (ITD) -la différence interaurale d’intensité (ILD) Cependant du fait de la nature ondulatoire des sons, ces deux moyens ne sont pas d’une égale efficacité pour toutes les fréquences. En effet, les sons basses fréquences ont une longueur d’onde grande par rapport à la taille de la tête qui ne représente donc pas un obstacle à la progression du son. Au contraire, dans les hautes fréquences, là où la longueur d’onde est très petite, la tête constituera un écran. En 1907, John Strutt, plus connu sous le nom de Lord Rayleigh, développe sur ces bases sa « duplex théorie », confirmée et affinée par la suite par Mills et Woodworth. Cette théorie met en évidence l’importance des disparités binaurales en précisant le rôle des différences de temps (ITD) et d’intensité (ILD) en fonction d’une échelle fréquentielle. L’idée de cette théorie est que ILD et ITD sont complémentaires ; les différences de temps ne procurent des résultats utilisables que pour des fréquences inférieures à 1500 Hz (ce qui correspond à une longueur d’onde d’environ 23 cm, proche de la distance interaurale), alors que les différences d’intensité sont les plus importantes dans les hautes fréquences, au-dessus de 1500 Hz et peuvent atteindre jusqu’à 20 dB. Alors que les principaux indices de la localisation dans le plan horizontal sont binauraux, ceux concernant la sensation d’élévation sont souvent dits monauraux. En effet, dans le plan médian, les différences interaurales sont inexistantes et le repérage spatial s’en voit considérablement affecté ; l’incertitude de localisation peut aller jusqu’à 20° (Damaske 1969) dans le cas d’une source sonore placée juste audessus de la tête. De plus la direction perçue ne correspond pas forcément avec l’incidence réelle de la source. En réalité Blauert en 1970 et Château en 1995 ont remarqué que le système auditif semblait localiser la source émise dans une direction imposée par le spectre de son signal. Ainsi « la sensation de direction dans le plan vertical est déterminée par les zones spectrales ou le signal possède le maximum de son énergie ; s’il se trouve que le signal est un son pur, ou à spectre étroit, il peut être localisé dans une direction tout autre que sa direction réelle » (Canévet). La localisation hors du plan horizontal est en fait basé en grande partie sur le codage induit par la géométrie de l’oreille externe, la tête et le torse qui provoquent un filtrage lié à des phénomènes de diffraction et d’interférences permettant au cerveau de localiser le son en soustrayant la fonction de transfert de la dégradation au message sonore. Cela suppose évidemment que le son est déjà connu et mémorisé par le cerveau. Ce filtrage qui dépend à la fois de la direction et de la distance de la source est appelé HRTF pour Head Related Transfert Fonction et son équivalent dans l’échelle temporelle est nommé HRIR pour Head Related Impulse Response. L’effet acoustique du pavillon est basé sur des phénomènes variés tels que réflexions, masquage, dispersion, diffraction, interférences et résonances. En fait, il fonctionne exactement comme un filtre car il est constitué comme un système de réflecteurs multiples. La combinaison résultante des ondes directes et réfléchies va dépendre des différentes valeurs de retard induit par le pavillon, et donc, de l’incidence primaire de l’onde sonore. Pour des retards faibles, le signal retardé introduit une atténuation des hautes fréquences, tandis que pour les retards plus grands on observe un filtrage en peigne. Ces déformations spectrales ne sont pas perçues par le système auditif comme des modifications de timbre, mais bien comme des changements de direction d’un même signal. Aux basses fréquences les signaux arrivent en phase alors qu’aux hautes fréquences le signal retardé par la réflexion est déphasé par rapport au signal direct, ce qui engendre des interférences destructives. Lorsque la différence de marche est égale à la moitié de la longueur d’onde, l’interférence est maximale et provoque un «décrochage» fréquentiel (trou visible vers 10 kHz sur la fig. 6) compris généralement entre 6 et 16 kHz. D’autre part, le pavillon est un meilleur réflecteur pour les sons venant de devant que pour ceux venant de l’arrière, du fait même de leur forme et de leur position tournée vers l’avant. C’est pourquoi le « trou » est plus prononcé pour des sons venant de l’avant. De plus, la différence de marche change avec l’élévation donc la taille et la fréquence centrale du « trou » changent selon le placement de la source. À tout cela s’ajoutent encore les diffractions sur le torse et la tête. Ainsi les indices de localisation permettant de percevoir l’azimut et l’élévation d’une source sonore sont contenus dans une paire de HRTFs correspondante. À chaque HRTF correspond une incidence que l’auditeur a acquise au cours de ses expériences. Par conséquent chaque individu possède une carte unique et personnelle de toutes les fonctions de transfert. Les nombreuses mesures effectuées jusqu’à aujourd’hui montrent que les différences entre individus sont plus prononcées pour les autre que pour les différences interaurales de temps : en effet les morphologies de l’oreille notamment peuvent être très différentes alors que la distance interaurale reste presque constante. Il est amusant de noter que, suite à des expériences, on a pu constater que chez les sujets possédants des grandes oreilles, les variations du « décrochage » se situaient plus bas fréquentiellement que chez les autres sujets. La performance dans la précision directionnelle de notre système auditif dépend généralement de la largeur de la bande spectrale de la source sonore. Plus cette bande sera étendue, plus la direction de l'évènement auditif, c'est-à-dire notre interprétation perceptuelle de la source sonore, correspondra à la direction réelle de la source sonore. Ainsi, les sons complexes couvrant plusieurs octaves, et ayant des enveloppes aux attaques rapides, seront toujours aisément localisables. Par leurs caractéristiques, ces sons font appel à la différence interaurale de temps, la différence interaurale d'intensité et aux modifications du pavillon de l'oreille pour permettre la localisation. Cette conjugaison des mécanismes apporte une redondance des indices de localisation et crée un évènement auditif dont la correspondance spatiale avec la source sonore originale est très élevée. Par contre, pour les sons simples comme une onde sinusoïdale sans attaque précise, un seul mécanisme de localisation sera sollicité. L'absence de redondance dans les indices de localisation contribuera à augmenter l'impression résiduelle de localisation, le flou de localisation, de l'évènement auditif par rapport à la source originale. Le flou de localisation n'est pas uniforme sur toute la sphère de perception et varie en fonction des mécanismes de localisation qui sont sollicités. La localisation dans le plan horizontal fait appel à la différence interaurale de temps et à la différence interaurale d'intensité. Mesuré avec des impulsions de bruit blanc de durée 100 ms, le flou de localisation dans le plan horizontal est de 8° pour une source placée devant l'auditeur, de 20° pour une source face aux oreilles et de 11° pour une source placée derrière l'auditeur. Le flou de localisation variera de façon graduelle et continue entre ces azimuts. On peut s'attendre à ce que le flou de localisation dans le plan médian, où seules les modifications apportées par les fonctions de transfert donnent l'information nécessaire, soit plus grand que dans le plan horizontal. Comme le mentionne Blauert, l'expérience auditive préalable des sujets devrait alors jouer un rôle important dans la diminution du flou de localisation dans le plan médian. Cela a effectivement été vérifié. Mesuré avec la voix d'une personne connue comme source sonore, le flou de localisation dans le plan médian est, pour la partie se situant devant la tête, de 18° pour une source à 0° d'élévation, de 20° pour une source à 30° d'élévation et de 26° pour une source à 75° d'élévation. Pour la partie du plan médian se situant derrière la tête, le flou de localisation est de 30° pour une source à 27° d'élévation et de 44° pour une source à 68° d'élévation. Toutefois, même la connaissance de la source sonore ne peut contrer les situations où cette source présente une largeur de bande spectrale trop étroite : à moins de 2/3 d'octave, l'évaluation de la direction dans le plan médian devient impossible. Quoi qu’il en soit, la zone critique de fréquences où le flou de localisation est le plus grand, et ce, peu importe l'azimut ou l'élévation de la source, est aux alentours de 2000 Hz. Puisque la différence interaurale de phase diminue graduellement d'efficacité à partir de 800 Hz et que la différence interaurale d'intensité n'est pas vraiment fonctionnelle avant 2000 Hz, il y a un manque de chevauchement des zones couvertes efficacement par ces mécanismes de localisation. Notre manque de discrimination directionnelle autour de 2000 Hz explique aussi, en partie, que notre plus grande sensibilité à l'amplitude acoustique se situe dans ce secteur de fréquences, tel que confirmé par les courbes d'isosonie. Les mouvements de la tête, conscients ou inconscients, apportent des informations complémentaires sur la localisation des sources. Ils sont même indispensables pour lever les incertitudes ou les ambiguïtés entre les différents secteurs avant-arrière, dessus-dessous. Si on considère le cas simple d’une source sonore définie par une différence interaurale de temps ∆t et d’intensité ∆i, on se rend compte que cette source peut être située sur n’importe quel point d’un cône appelé cône de confusion (Von Hornbostel et Wertheimer 1920). Si l’auditeur ne possède pas d’autres informations, il n’aura jamais la possibilité de lever ces ambiguïtés. Si l’auditeur peut tourner la tête, il aura alors à sa disposition une seconde série de coordonnées ∆t’ et ∆i’. L’association de ces deux couples de coordonnées permet au cerveau, en les associant à la même source, de lever toutes les ambiguïtés possibles (Van Soest 1929). Selon le modèle de von Hornbostel et Wertheimer l’ensemble des points se trouvant à égale distance des oreilles gauche et droite est une hyperbole dans le plan horizontal (a) et la surface d’un cône pour les plus grandes distances dans l’espace tridimensionnel (b) La capacité à percevoir la distance et la profondeur d’une image sonore détermine de façon cruciale notre appréciation subjective de la qualité sonore. Il existe différents indices interdépendants responsables de la sensation de distance. Les HRTFs Theile insiste sur le fait que les HRTFs sont indispensables pour externaliser les sons. De fait les variations de transfert interaurale et plus particulièrement les différences interaurales d’intensité peuvent être importantes lorsque la distance têtesource varie : plus la source est proche plus la différence interaurale d’intensité sera importante. Cela est très significatif pour des distances inférieures à un mètre. L’intensité L’énergie varie avec l’inverse du carré de la distance. La variation d’intensité perçue pour une source émettant à un niveau constant donne donc un indice sur l’éloignement ou le rapprochement de cette source. Mais le niveau du son direct dépend bien évidemment de la puissance de la source et peut être partiellement modifié dans une salle par l’apport des réflexions précoces provenant d’un horizon spatio-temporel proche (direction voisine et retard inférieur à quelques dizaines de millisecondes). Il ne peut donc pas constituer un indice fiable. De plus, l’utilisation du niveau comme indice repose le plus souvent sur la connaissance que l’auditeur possède a priori du message : l’estimation de la distance sera alors plus précise pour les signaux connus, comme la voix humaine pour laquelle chacun de nous, par sa propre expérience, connaît les différentes caractéristiques (murmures, cris) ou des instruments de musique, que pour les sons inouïs. Les mouvements parallaxes Lorsque l’auditeur bouge sa tête de façon perpendiculaire à l’incidence de la source, un changement de perspective s’opère. Pour des sources très proches un petit déplacement occure un changement radical de l’azimut alors que pour une source lointaine l’azimut ne subira pratiquement aucun changement. La différence de timbre La densité spectrale d’un signal acoustique varie spectralement au cours de sa propagation, et ce, de façon totalement inhomogène. Cela est dû à l’absorption de l’air dans les hautes fréquences. Le rapport champ direct-champ réverbéré Le rapport champ direct-champ réverbéré varie avec l’éloignement de la source : il dépend de la géométrie et de l’absorption de la salle, de la directivité de la source et de sa position dans la salle. Ce principe, employé très efficacement en postproduction pour créer des plans sonores, est cependant discutable car il peut s’accompagner d’effets secondaires comme la perte de définition et de précision dans la localisation azimutale. Dans un environnement d’écoute normal le son produit par une source arrive à nos oreilles via un grand nombre de trajets différents. Une partie du son arrive par un chemin direct, mais une grande partie nous arrive après avoir subit une ou plusieurs réflexions sur des murs par exemple. Cela devrait perturber notre sens de localisation. Pourtant il n'en est rien, nous ne sommes pas conscients de ces réflexions ou échos très précoces, mais il semble qu’ils aient une réelle influence sur notre perception de la localisation. Lorsque deux sons brefs sont émis dans un intervalle très court, ils sont perçus comme un seul son : c’est l’effet de fusion (Wallach 1949). L’intervalle maximum pour que cet effet fonctionne et appelé temps de fusion, il est de l’ordre de 5 ms pour des transitoires (clic) et de 40 ms pour les sons plus complexes. Lorsqu’il y a fusion, nous interprétons ce mélange comme le timbre apparent, c'est pour cela que la nature des premières réflexions (dues à l'acoustique de la pièce) change en grande partie le timbre. De plus, la localisation du son résultant est déterminée par l’incidence du premier : c’est l’effet de précédence, appelé également loi du premier front d’onde par Blauert (1983) ou « effet Haas » d’après Haas (1951). Le scientifique allemand, lors d’expérience sur les échos montra que pour que le son délayé soit perçu au même niveau que le premier émis, il faut qu’il soit jusqu’à une dizaine de dB plus fort. S’il y a une trop importante décorrélation entre les deux signaux l’effet de précédence ne pourra bien sûr fonctionner. À l’opposé si l’intervalle d’arrivée des signaux est inférieur à 1 ms alors l’effet de précédence ne fonctionne plus (Blauert 1974). Il est clair que l’effet de précédence joue un rôle très important dans notre perception quotidienne du son. Il nous permet de localiser, d’interpréter et d’identifier les sons malgré les transformations qu’ils peuvent subir dans les conditions acoustiques très différentes que nous rencontrons. Mais parfois cet effet peut devenir un inconvénient ; il suffit de constater le décalage de l’image stéréo lorsque l’on ne se situe pas au milieu des deux enceintes. Cependant on notera que les aveugles développent une écoute fine distinguant plus précisément les premiers échos (dus aux obstacles) des sons directs. En frappant le sol avec leur canne ils peuvent appréhender un obstacle avec l'Echos qu'il provoque. On a tous fait l'expérience d'élever le ton de notre voix, de la rendre plus aigue, afin de poursuivre une conversation lorsque l'on passe près d'un chantier ou lorsque le gérant du café décide de pousser violemment le son de la musique. Notre voix est masquée par un son ou bruit plus fort (le son masquant) : nous venons de subir l'effet de masque. Les scientifiques Wegel et Lane élaborèrent (en 1924 au laboratoire BELL) un protocole expérimental permettant d'établir des courbes de relation entre les fréquences des sons masquant, leurs niveaux et les seuils d'audibilités résultants. Un son masquant de hauteur donné augmente l'intensité que doit avoir un son pour être perçu. Son effet sera maximum pour des sons de hauteur proche ou plus aigus. On conçoit qu'un bruit ayant une large répartition de fréquence masquera presque tous les sons. Réfléchissez à l'utilisation du "chut!" pour masquer une conversation. Remarquons que dans l'harmonie et l'orchestration ces notions sont connues depuis longtemps. Bien que nos facultés binaurales soient déterminantes pour la localisation précise des sons, ce n’est pas là leur unique fonction. Le fait d’utiliser deux oreilles nous permet une attention sélective vers des sons provenant d’une direction particulière en excluant le reste de l’environnement sonore. Cette faculté est souvent connue sous le nom d’ « effet cocktail-party ». Le système auditif est capable de percevoir et de distinguer des sons dans un environnement masquant, que cet environnement soit constitué d’autres sources sonores ou de bruits. C’est le principe du masquage binaural : il nous est plus facile de détecter et d’identifier une source sonore particulière dans un environnement bruyant si la relation de phase entre les deux oreilles concernant ce signal est différente de la relation de phase concernant le bruit masquant. L’expérimentation a prouvé que cette faculté de détection est bien moins grande dans le cas où les relations de phase concernant le bruit et le signal masqué sont les mêmes. Cette meilleure capacité de détection s’exprime en termes de MLD (Masking Level Difference), ce qui peut se traduire par « différence de seuil de masquage » (Moore). Cette différence dans le cas d’un son pur masqué par un bruit peut atteindre 15 dB pour un son basse fréquence dont la relation de phase est l’inverse de celle du bruit. Il est intéressant de noter que cette MLD ne variera pas si le bruit masquant couvre un spectre plus large. En effet il semble que les résultats restent ceux que l’on peut obtenir avec un bruit limité à la bande critique centrée autour du signal masqué. Les stimuli qui provoquent une réaction de l’attention auditive sont de trois sortes : stimulus présentant une saillance physique (dynamique ou fréquentielle), -stimulus à caractère nouveau : nouveauté spectrale, temporelle ou cognitive. -stimulus présentant une saillance cognitive mettant en jeu les automatismes et réflexes attentionnels. La saillance physique Le premier paramètre stimulant à considérer est de façon évidente la dynamique du son et sa forme d’onde. Ainsi les sons ayant une forme d’onde abrupte ou des transitoires marqués sont susceptibles de provoquer une réaction de l’orientation de l’attention. Celle-ci peut être également forcée par les caractéristiques fréquentielles du son alertant. En effet, dans la zone sensible de l’oreille (bande de fréquences s’étendant entre 1500 Hz et 3500 Hz), les sons ayant des fréquences élevées s’avèrent plus alertant que ceux restant dans les basses fréquences (à mettre en rapport avec les courbes isosoniques de Fletcher). De plus la présence de fréquences aiguës est souvent synonyme de proximité car chacun sait que l’éloignement s’accompagne d’une perte d’aigus. Un son comportant des fréquences élevées sera donc analysé comme étant proche. Or dans les réflexes d’animaux dont l’homme n’est pas dépourvu, une telle proximité peut être synonyme de danger et donc attire de manière quasi systématique l’attention. Stimulus à caractère nouveau On appelle stimulus à caractère nouveau tout simplement un stimulus sonore apparaissant pour la première fois. La nouveauté peut être dynamique, fréquentielle, spatiale, cognitive ou même sémantique. La compréhension du fonctionnement de ce stimulus fait appel à la notion de mémoire sensorielle. D’un point de vue cognitif, lorsqu’un son est entendu, il est identifié et traité par un module de traitement qui lui est propre. Si l’on provoque à nouveau ce module par un son identique ou très proche au sens cognitif, le module sera directement accessible puisque fraîchement appelé en mémoire, sans provoquer l’attention de l’auditeur. En effet, la nouveauté cognitive d’un son provoque une réaction de l’attention car elle nécessite l’élaboration d’un processus de traitement ou le rappel d’un module lointain. Et ces constructions sont très coûteuses en traitements attentionnels car ce sont des tâches qui touchent très profondément l’architecture mentale. Ainsi un son de même localisation que le précédent éveillera moins l’attention. Il en va de même pour les timbres, les fréquences... Selon la durée qui sépare les apparitions d’un même son ou le nombre de ses répétitions, le cerveau peut ou non effacer de sa mémoire un son déjà entendu ou n’en conserver que son caractère alertant pour une prochaine stimulation. De plus lorsqu’un stimulus sonore est répété plusieurs fois, le système s’adapte, et les symptômes de la réaction d’orientation de l’attention s’affaiblissent jusqu’à disparaître. Au fur et à mesure des répétitions, le traitement cognitif consomme de moins en moins de ressources, les sons soumis à l’habituation étant traités de façon parallèle, ce qui permet une remise à disposition des ressources et donc une réorientation de l’attention auditive. La saillance cognitive Parmi le flux de représentations qui occupent continuellement notre vie mentale, certaines sont susceptibles d’être activées sans que leur évocation ait fait l’objet d’une intention préalable ou d’une attention particulière. Les stimuli concernés par ces automatismes ou réflexes n’empruntent pas le chemin habituel de l’attention. Un traitement automatique ne consomme pas, par définition, de ressources. C’est pourquoi il est considéré comme un traitement parallèle, il n’interfère pas avec les autres traitements et ne perturbe pas leur déroulement. Ces traitements ne peuvent donc pas faire l’objet de masquages attentionnels, ils ne sont pas commandés par le réservoir unique de ressources. Ils sont d’autant plus dangereux pour la réaction d’orientation qu‘ils échappent aux filtrages attentionnels. L’absence de contrôle intentionnel est caractérisée par le fait que ces traitements se déclenchent sans intention de l’auditeur. L’arrêt de leur déroulement est uniquement conditionné par l’intervention de l’attention, et pour provoquer cet arrêt devra dépenser beaucoup de ressources au détriment des autres traitements en cours. Si un automatisme cognitif est déclenché par certains sons, soit il sera totalement effectué, soit l’auditeur l’interrompra en mobilisant bon nombre de ressources, ce qui nuira aux traitements d’autres stimuli auditifs. Donc quand on croise deux ondes audibles de fréquences légèrement différentes : il en est générée une troisième (effet TARTINI) inaudible par l’oreille humaine car ultrasonore : la porteuse (Wikipedia : la porteuse : Dans le domaine des télécommunications une onde porteuse, ou, plus simplement, porteuse, est une forme d'onde, généralement sinusoïdale qui est modulée par un signal d'entrée dans le but de transporter des informations. La porteuse a généralement une fréquence beaucoup plus élevée que le signal d'entrée. L'intérêt de la porteuse est le plus souvent soit de transmettre une information à travers l'espace sous forme d'onde électromagnétique : comme pour la radio, soit de permettre à plusieurs porteuses de fréquences différentes de partager un même support physique par multiplexage fréquentiel : comme dans le cas de la télévision par câble), mais à laquelle le cerveau est obligé d’obéir, à la lumière de ce qui a été dit plus haut en psychoacoustique : saillance cognitive, disponible sur le site du conservatoire national de région d’Annecy. Ainsi, en acoustique et signal radio, on parle d’ HETERODYNE ACOUSTIQUE : hétérodyne qui est composé du grec hétéro « différent » et dyne « puissance ». Comme il est très dur de trouver des informations en français simples sur ce phénomène, employé pourtant dans les télévisions, radios et comme on l’a vu en sonorisation ou sur simples supports musicaux sonores tels que les minidiscs ou CD, voilà ce qu’en dit Wikipedia en anglais : Heterodyning is a radio signal processing technique invented in 1901 by Canadian inventor-engineer Reginald Fessenden, in which new frequencies are created by combining or mixing two frequencies. Heterodyning is used to shift one frequency range into another, new one, and is also involved in the processes of modulation and demodulation. Sur wikipedia en français à Reginald Fessenden, on trouve : L'invention majeure de Fessenden est la radiophonie. Le 23 décembre 1900, il transmet la voix humaine de Cobb Island près de Washington, D.C., pour la première fois de l'histoire. C'est en faisant un essai de modulation d'une onde à haute fréquence avec un micro qu'il envoie un message à son collaborateur. En 1902, il décide de former sa propre entreprise. Il établit le principe de l'hétérodyne, technique toujours employée dans les récepteurs radios AM et FM. Il établit également un moyen de communiquer des messages vocaux à des navires en mer, alors qu'il réussit la liaison avec des vaisseaux de la United Fruit alors qu'il est à l'emploi de la société National Electric Signaling. Reginald Fessenden invente le terme d'« hétérodyne » voulant dire ici : généré par une différence de fréquences. Avec l'apparition des triodes (La lampe triode est le premier dispositif amplificateur d'un signal électronique) on peut obtenir le même résultat par l'adjonction d'un oscillateur local dans le récepteur, appelé aussi BFO (Beat Frequency Oscillator). Si on fait varier la fréquence du BFO, la note de l'hétérodynage varie aussi. Si les fréquences sont trop éloignées l'une de l'autre, le battement devient ultrasonique, et donc inaudible. Aujourd’hui, quoi de mieux que nos téléphones sans fil dits fixes, ou les portables (donc les deux utilisant le spectre des ondes électromagnétiques) pour transmettre du son et des communications ? Et là si on cherche on trouve en anglais toutes les études de Allan H FREY : Frey, Allan H., Human Auditory system response to electromagnetic energy. J. Appl. Physiol. 17(4): p 689-692. 1962. modulated Sur : http://www.futurquantique.org/2010/07/29/avertissement-votre-telephoneportable-et-le-wi-fi-sont-dangereux-pour-votre-sante/, on trouve En 1960, Frey, alors âgé de 25 ans, travaillait au Centre d’Électronique Avancée de General Electric à l’université Cornell quand il fut contacté par un technicien dont le travail était de mesurer les signaux émis par les stations radars. À l’époque, Frey s’était intéressé à la nature électrique du corps humain, spécifiquement la manière dont les champs électriques affectent le fonctionnement neural. Le technicien prétendait quelque chose d’incroyable : il disait qu’il pouvait « entendre » le radar sur l’un des sites où il travaillait. Fred alla sur cette installation et se mit dans le champ du radar. « Et comme prévu, je pouvais l’entendre aussi, » dit-il, décrivant le bourdonnement à bas niveau persistant. Frey continua pour établir que l’effet était réel – la radiation électromagnétique (EM) du radar pouvait en quelque sorte être entendue par les êtres humains. « L’écoute », cependant, ne se produisait pas via des ondes sonores perçues par l’oreille. Elle se produisait quelque part dans le cerveau, puisque les ondes EM interagissent avec les cellules du cerveau lui-même, ce qui crée de minuscules champs électriques. Cette idée vint à être connue comme l’effet Frey, et elle provoqua des remous dans la communauté scientifique. Les ondes dont se souciait Frey étaient celles émises par la partie non ionisée du spectre EM – la partie dont les scientifiques ont toujours supposé qu’elle ne pouvait faire de dommages biologiques directs. Lorsque Frey commença sa recherche, on supposait que la seule manière que les micro-ondes pouvaient avoir un effet biologique dommageable était d’augmenter la puissance de leurs signaux et les concentrer comme des pointes d’épée – au point où elles pouvaient cuire la viande. En 1967, cela eut pour résultat le premier four à micro-ondes populaire, qui utilisait les fréquences micro-ondes à très haute puissance, concentrées et contenues dans une boîte métallique. À part cet effet thermique fabriqué, les signaux étaient censés être sécuritaires. À l’avant-garde d’un nouveau domaine d’étude qui vint à être connu comme le bioélectromagnétisme, il trouva ce qui semblait être des effets non thermiques des fréquences micro-ondes – la partie du spectre qui appartient non seulement aux signaux radar et aux fours à micro-ondes mais aussi, au cours des quinze dernières années, aux téléphones portables. Donc si on résume : en croisant deux ondes audibles de fréquences différentes il en est générée une troisième inaudible par l’oreille humaine car ultrasonore mais à laquelle le cerveau obéit car ne peut pas l’effacer (Voir la psychoacoustique plus haut). Et l’oreille joue le rôle de transducteur comme dans nos haut-parleurs : (Sur Wikipedia : Haut-parleur : Un haut-parleur ou hautparleur est un transducteur électroacoustique destiné à produire des sons à partir d'un signal électrique. Il est en cela l'inverse du microphone. Par extension, on emploie parfois ce terme pour désigner un appareil complet destiné à la reproduction sonore (voir Enceinte). Trois types de haut-parleurs, électrodynamique, électrostatique et piézoélectrique, représentent les technologies actuelles les plus courantes). Sur Wikipedia à Transducteur : Un transducteur est un dispositif convertissant un signal physique en un autre ; par exemple un signal lumineux en signal nerveux… Types de transducteurs • • • • • • • • • Transducteur électroacoustique : o Hydrophone (transforme, dans les liquides, des oscillations acoustiques en oscillations électriques) ; o Haut-parleur, écouteur, bipeur, ronfleur (transforme un signal électrique en ondes acoustiques) ; o Microphone (transforme des ondes acoustiques en un signal électrique) ; o Cristal piézoélectrique ; o Transducteur microusiné ; o Phonocapteur (transforme des oscillations mécaniques en un signal électrique). Transducteur électromécanique : o Sonde à effet Hall ; o Capteur inductif. Transducteur magnétoélectrique. Transducteur magnétooptique : o Capteur à effet Faraday. Transducteur optoélectronique. Transducteur thermoélectrique : o Thermocouple ; o Thermorésistance ; o Module à effet Peltier ; o Tube cathodique. Transducteur magnétostrictif. Transducteur pour ultrasons (convertit une énergie électrique en énergie acoustique dans la gamme des ultrasons, de quelques mW à quelques kW). Transducteur mécanoacoustique : o Phonographe ; o Gramophone. Ou, sur : http://www.audiosonica.com/fr/cours/post/18/Perception_du_sonL_oreille_de_l_homme L'oreille recouvre le rôle de transducteur dans la transformation de l'énergie acoustique, d'abord en énergie mécanique, puis en énergie électrique. Une fois l'énergie convertie par l'oreille depuis sa forme mécanique à celle électrique, les impulsions électriques arrivent au cerveau à travers les terminaisons nerveuses. C'est là qu'elles sont élaborées, permettant ainsi la perception du son et donc l'écoute de la musique. Maintenant rapporté aux téléphones portables, vous vous souvenez cette publicité : « Allo, défibrillateurs mobiles, j’écoute ! » Pour comprendre, regardez ci-dessous : Sur : http://jacrieth.free.fr/Causeries/Oscillat.html Les oscillateurs sont partout : ils sont présents dans tous les systèmes de télécommunication, dans les téléviseurs, les ordinateurs, dans nos horloges, pendules et montres, dans les fours à micro-ondes, les clignotants de nos voitures, etc… il y en a même un, à l’intérieur de nous-mêmes, qui revêt une certaine importance : notre cœur ! Sur Wikipedia à oscillateur : Un oscillateur est un objet qui fait des mouvement de vas et vient de manière plus ou moins longue et plus ou moins stable. On peut distinguer : • L'oscillateur mécanique est souvent a base d'un ressort Sur : http://jacrieth.free.fr/Causeries/Oscillat.html, on parle même de : Oscillateur hydraulique : la fontaine intermittente. Soit un récipient dont le fond est traversé par un siphon recourbé, le récipient étant plus haut que le coude supérieur du siphon. Un filet d’eau alimente le récipient. Lorsque le niveau de l’eau atteint l’orifice de la petite branche du siphon (niveau " a "), l’eau monte à la fois dans le récipient et dans le siphon. Lorsque le niveau atteint le coude du siphon (niveau " b "), le siphon s’amorce et évacue de l’eau vers l’extérieur ; si son débit est supérieur à celui de l’alimentation, le niveau baisse et lorsqu’il atteint " a ", l’air entre dans le siphon qui se désamorce et le cycle recommence. Sur Wikipedia à Klepsydre : La clepsydre est une horloge à eau, fonctionnant sur le principe d'un écoulement régulier au fil du temps. Maintenant vous vous souvenez ce slogan avec dessins techniques de la tuyauterie devant derrière sur les maillots du PSG : « Fly Emirates » en Français : Voler en E.A.U ! Sinon : lisez la suite de Wikipedia sur l’étymologie de la Klepsydre : Le mot clepsydre provient du grec κλεψύδρα (klepsydra), repris par le latin clepsydra. Ce nom est formé des éléments grecs κλέπτειν kleptein, "voler", et ὕδωρ hudor, "eau". La clepsydre fonctionne sur le même principe que le sablier. C'est l'écoulement d'une quantité d'eau qui fixe la durée écoulée. Sur Wikipedia à horloge à quartz : Une horloge à quartz utilise un oscillateur à quartz pour définir le temps. Le quartz a la propriété d'osciller à une fréquence précise lorsqu'il est stimulé électriquement. L’eau qui nous constitue à 99% peut elle être considérée comme un quartz : un cristal (Cristalline c’est mon eau à moi !), un piézoélectrique à maille cubique ??? Sur Wikipedia à piézoélectrique : La piézoélectricité (du grec πιέζειν, piézein presser, appuyer) est la propriété que possèdent certains corps de se polariser électriquement sous l’action d’une contrainte mécanique et réciproquement de se déformer lorsqu’on leur applique un champ électrique. Sur : http://www.champs-electro-magnetiques.com/ondes/les-courants-induits-dansle-corps-56.html Les courants induits dans le corps humain D'après les lois fondamentales de l'électromagnétisme, lorsqu'un matériau conducteur (ex: fil de cuivre) est amené à proximité d'une source de champ magnétique, il y a apparition d'un courant électrique à l'intérieur de ce matériau conducteur. De même, lorsqu'un courant électrique est appliqué dans un matériau conducteur, il y a apparition d'un champ magnétique autour de celui-ci. Les différents systèmes conducteurs du corps humain Le corps humain est constitué de cellules, qui regroupées ensembles forment des organes, le système sanguin et lymphatique, le système musculaire, le système nerveux, le système glandulaire et le système osseux. Ces différents systèmes utilisent ou produisent de l'énergie électrique (ex. les nerfs et le cerveau, les muscles et le coeur, le sang, la peau). Les nerfs peuvent être assimilés à des fils conducteurs, de même que le sang qui contient des sels dissous.Les sels dissous dans un liquide le rendent conducteur (ex. l'électrolyse). Il en va de même pour le sang, qui peut être assimilé à un conducteur électrique. Les os eux-mêmes produisent, et donc sont sensibles, à l'électricité (ex. effet piézo-électrique). Nous pouvons donc considérer les systèmes biologiques (humains, animaux et végétaux) comme des producteurs, et des consommateurs d'électricité. Par conséquences, les cellules ont la capacité d'être influencées (et donc d'interpréter) les signaux issus des rayonnements électromagnétiques. Sachant qu'un conducteur placé dans un environnement électromagnétiques va voir apparaître à l'intérieur de lui-même un courant électrique. On est en droit de penser qu'il va en être de même pour un système biologique. Partant de ce postulat, on peut tirer les deux conclusions suivantes : - Tout corps biologique vivant situé dans un environnement électromagnétiques va voir apparaître à l'intérieur de lui-même des courants induits correspondants aux fréquences de cet environnement. - De même, tout corps biologique se déplaçant dans cet environnement selon une vitesse variable, va voir ces courants induits varier en intensité en fonction de sa vitesse de déplacement. D’après l’éminent Professeur Marc HENRY de l’Université de Strasbourg : L’eau au niveau quantique (niveau nanométrique) serait « interfaciale » : voir : http://lanaturedeleau.blogspot.fr/2013/03/leau-interfaciale-le-4eme-etat.html À une échelle macroscopique l’eau se trouve sur notre planète sous trois états physique différents: glace, liquide et vapeur. Ces notions si familières des états de l'eau ne s’appliquent plus lorsque l’eau se trouve confinée à une échelle nanométrique, où l’eau existe sous un seul état appelé: “eau interfaciale”. Dans cet état où la loi des grands nombres ne s’applique plus, l’eau présente de nouvelles propriétés comme la capacité à rejeter des espèces polaires ou ioniques qu’elle aurait acceptées à une plus grande échelle. Ce mécanisme de discrimination ionique est le tout premier pas pour que les phénomènes vitaux puissent se manifester et donne donc un sens précis à l’expression “L’eau c’est la vie”. Sur la page relative à la structuration de l’eau en domaines de Cohérence, du même site du Professeur Marc HENRY, on trouve ceci : (http://lanaturedeleau.blogspot.fr/2013/09/eau-et-information-2.html) Après l’eau les deux espèces intracellulaires les plus abondantes sont les protéines (75 millions) et les ions potassium (67 millions). Viennent ensuite les ions magnésium (6 millions), les ions sodium et chlorure (5 millions), les ions bicarbonate (4 millions) puis l’ATP avec environ un million de molécules. Enfin il y entre 48 et 48 000 ions calcium et seulement une cinquantaine de protons... Si l’on fait le rapport entre le nombre de molécules d’eau et le nombre total de molécules et d’ions, on trouve que % H2O (nombre) = 1900000/19163 = 99%. Sur un plan topologique et non métrique, un être vivant est donc fait à 99% d’eau qui existe sous un état, appelé «eau interfaciale», ayant ses caractéristiques thermodynamiques propres. Or dans toute forme d’eau vapeur, liquide, interfaciale ou solide il existe des espaces vides qui entourent en permanence les molécules d’eau reliées par des ponts hydrogène. Selon la théorie quantique des champs, cet espace exempt de matière est capable de capturer des photons générés par les fluctuations du vide quantique pour donner naissance à des domaines de cohérence au niveau des phases quantiques. On aura compris que dans une cellule, les molécules comme l’ADN ou l’ARN jouent le rôle de support incohérent à l’information nécessaire pour que la vie s’exprime, tandis que l’eau avec son réseau de liaisons hydrogène fluctuant sur une échelle de temps de l’ordre de la picoseconde permet de donner de la cohérence et donc de «lire» et «comprendre» ce qui est écrit sur le support incohérent. La stabilisation de la phase quantique n’étant assurée que via une interaction à trois partenaires: vide, molécules d’eau et lumière, impliquant un réseau fluctuant de liaisons hydrogène, un moyen évident d’action sur ces domaines de cohérence est d’utiliser des ondes de nature électromagnétique comme la lumière. Incidemment, le rayonnement infrarouge terrestre dans lequel baignent tous les êtres vivants présente un maximum dans la gamme 9-11 µm. De plus, sachant que les ondes de cohérence se propagent sous forme de soliton à une vitesse de l’ordre de 1 m.s-1, une autre gamme d’action au niveau de la cohérence entre les domaines et non plus à l’intérieur d’un domaine est envisageable en utilisant des ondes de fréquence νsoliton = c/νcohérent dans la gamme 3 kHz à 1 MHz, domaine des ondes radio de type VLF, LF et MF. Les photons étant les vecteurs de l’interaction électromagnétique, ces domaines de cohérence expliqueraient la sensibilité de l’eau aux ondes infrarouge et aux champs électromagnétiques radiofréquence ainsi que le stockage de certaines fréquences moléculaires de tout soluté présents dans l’eau. Pour commencer, il faut envisager que les molécules d'eau ne soient pas reliées par des interactions purement statiques (Liaisons Hydrogène, interactions électrique dipôle-dipôle). L’aspect fondamentalement novateur de la théorie est que les interactions entre les systèmes microscopiques (atomes et molécules) ne sont pas limitées aux «plus proches voisins» mais s'étendent sur des domaines typiques ayant la taille de la longueur d'onde du champ électromagnétique qui vibrent à la fréquence commune des systèmes de matière. De tels domaines de cohérence «DC» représentent les éléments fondamentaux de la matière condensée, à l'intérieur desquels la matière (atomes, molécules, électrons et noyaux) oscillent en accord (techniquement: en phase) avec un champ électromagnétique macroscopique (classique), de la même manière qu’un laser mais avec la différence fondamentale que le rayonnement électromagnétique cohérent est maintenant emprisonné en permanence dans les DC, sa fonction étant de maintenir le système stable en regard des fluctuations thermiques. Sur sa page concernant « l’eau interfaciale » : http://lanaturedeleau.blogspot.fr/2013/03/leau-interfaciale-le-4eme-etat.html Des chercheurs du Laboratoire national de physique (NPL) ont utilisé un modèle quantique basé sur une particule chargée fictive, nommée oscillateur de Drude. Dans le cas d’une molécule d’eau, cette particule est attachée à l’atome d’oxygène par le biais d’un ressort harmonique, mimant la façon dont les électrons d’une véritable molécule d’eau oscillent et réagissent à leur environnement. Des informations auxquelles les modèles classiques ne donnent généralement pas accès et qui, surtout, donnent une idée précise des propriétés moléculaires de l’eau liquide. (bleu-gris = densité électronique des hydrogènes, en rose = oxygène) Source : http://www.futura-sciences.com/magazines/matiere/infos/actu/d/physique-physiquequantique-leve-un-peu-mysteres-surface-eau-57972/#xtor=EPR-17-[HEBDO]20150427-[ACTU-La-physique-quantique-leve--un-peu--les-mysteres-de-la-surfacede-l--eau] C’est la première fois que le modèle de l’oscillateur de Drude est appliqué à une interface liquide-vapeur. Les résultats des chercheurs britanniques montrent que l’asymétrie intrinsèque des liaisons hydrogène est responsable de l’orientation des molécules de surface. Et le modèle permet également de prédire la dépendance à la température de la tension superficielle de l’eau avec une précision de 1 %. Concernant le Modèle de Drude : sur : http://www.garmanage.com/atelier/index.cgi?path=public&B&Teaching&B&EPFL&B &2_Conduction&B&1_Drude&&id=psyitefg 2.2 MODELE BOULES DE BILLARD 2.2.1 Introduction C'est le modèle le plus ancien et le plus élémentaire. Les bases en furent jetées par Drude en 1902, peu après la découverte de l'électron par Thomson (1897). Insuffisant pour concevoir et a fortiori développer les composants "état solide" qui forment aujourd'hui l'essentiel des éléments actifs utilisés en électronique, le modèle Boules de billard présente néanmoins un intérêt considérable : • • • • c'est un auxiliaire utile pour donner à notre esprit une image de phénomènes dont nous n'avons en fait aucune perception directe, puisqu'ils se déroulent dans l'infiniment petit. • les résultats, pour l'ingénieur, de théories plus exactes, comme la théorie des bandes d'énergie en particulier, se laissent formuler au moyen des mêmes concepts que ceux apparaissant dans le modèle Boules de billard. Citons parmi ceux-ci le nombre volumique et la mobilité des électrons; • tout primitif qu'il soit, ce modèle conduit à une interprétation phénoménologique intéressante des lois fondamentales telles que la loi d'Ohm ou la loi de Joule. Il lie les phénomènes microscopiques à certaines grandeurs observables. Son nom l'indique, ce modèle assimile les électrons à de minuscules boules de billard. Ces particules sont donc des objets classiques, simplement régis par la loi de Newton et les lois de Maxwell. Cette conception corpusculaire de l'électron n'est d'ailleurs pas totalement opposée aux résultats de la mécanique quantique, dans la quelle un paquet d'ondes, zone étroite où la fonction 2 dW présente un maximum accusé, peut toujours être interprété comme une particule, avec sa masse et sa vitesse. Dans un millimètre cube de cuivre, il y a environ 1020 électrons, il n'est donc pas question de les traiter individuellement, ce serait d'ailleurs sans intérêt. C'est le comportement moyen des électrons qu'il convient d'étudier. Deux types d'interactions conditionnent ce comportement : • • • l'interaction des électrons avec la matière dans laquelle ils évoluent, et dont ils font parties; • l'interaction des électrons avec les champs électromagnétiques appliqués de l'extérieur. 2.2.2 Interactions électron-matière A quelques exceptions près, toutes les matières conductrices ont une structure cristalline. Admettons qu'en moyenne chaque atome libère un électron de conduction. Ces électrons se trouvent plongés dans le potentiel créé par les cations formant le réseau. Si le cristal ne présentait aucun défaut, et si les cations étaient totalement immobiles, les électrons, supposés ne pas interagir entre eux, se déplaceraient dans un potentiel parfaitement périodique, et conserveraient chacun une énergie rigoureusement constante. Leur comportement serait comparable à celui de billes pesantes, se déplaçant sans frottements sur une surface, en moyenne horizontale, mais présentant un réseau de sommets. En réalité, un réseau cristallin n'est jamais parfait; les principaux types de défauts pouvant se présenter ont été décrits à la section 1.5. Les électrons de conduction interagissent avec ces défauts. Il en résulte que le mouvement de ces électrons est sans cesse perturbé par des processus aléatoires de natures diverses désignés, dans le modèle Boules de billard, par le terme générique de choc. A température ambiante, et dans la plupart des métaux, la résistance électrique dépend principalement de l'interaction des électrons de conduction avec les phonons. A basse température, quelques degrés Kelvin, l'interaction avec les autres types de défauts cristallins devient prépondérante. Les échanges d'énergie se produisant au cours des chocs aboutissent à la mise en équilibre thermodynamique des électrons de conduction avec le réseau. Par exemple, l'augmentation d'énergie cinétique des électrons de conduction, due à un champ électrique appliqué, provoque une augmentation de l'énergie du réseau correspondant à une élévation de température. La résistance électrique provient de perturbations dans le mouvement des électrons, provoquées par la présence de défauts cristallins. L'étude de la variation de la conductivité en fonction de la température nécessite la séparation des effets de chaque type de défaut. Dans ce but, les défauts considérés à la section 1.5 sont regroupés dans les trois catégories suivantes: • • • phonons, impuretés chimiques (atomes étrangers interstitiels ou en position de substitution), défauts provenant de déformations mécaniques (dislocations principalement). Il convient donc de dissocier aussi le choc électronique moyen considéré jusqu'ici en trois types de chocs correspondant chacun à l'une des catégories de défauts énumérés ci-dessus. Donc sur le site de Futura-Sciences : http://www.futurasciences.com/magazines/matiere/infos/actu/d/physique-physique-quantique-leve-unpeu-mysteres-surface-eau-57972/#xtor=EPR-17-[HEBDO]-20150427-[ACTU-Laphysique-quantique-leve--un-peu--les-mysteres-de-la-surface-de-l--eau] La physique quantique lève (un peu) les mystères de la surface de l’eau L’eau est un corps aussi banal pour le commun des mortels qu’étrange pour les physiciens. Une équipe de chercheurs s’est appuyée sur un modèle quantique pour révéler la structure moléculaire de la surface de l'eau à l’état liquide. Le 22/04/2015 à 13:24 - Nathalie Mayer, Futura-Sciences Même si cela ne nous saute pas aux yeux, certaines propriétés de l’eau sont étonnantes. Au contraire de tous les autres corps, elle ne se contracte pas en refroidissant, ce qui ferait couler les glaçons au fond des verres. Autre exemple : plus elle est froide, mieux elle dissout les gaz, une caractéristique qui permet aux poissons de respirer. Certaines de ces bizarreries ont été expliquées, par la taille et la topologie des molécules d’eau entre autres. Mais beaucoup de mystères restent à élucider. En incluant des phénomènes quantiques à leurs modèles, des chercheurs britanniques du Laboratoire national de physique (NPL) ont voulu rendre la simulation du comportement des matériaux en général, et de l’eau en particulier, plus intuitive et plus proche de la réalité. C’est ainsi qu’avec la collaboration de l’Institut national de mesure, d’IBM et de l’université d’Édimbourg, ils ont pu déterminer la structure moléculaire de la surface de l’eau à l’état liquide. L’interface liquide-vapeur à la surface de l’eau est l’un des environnements hétérogènes à la fois le plus commun et le plus mystérieux. Les mesures expérimentales de sa structure moléculaire sont délicates à réaliser et les modèles actuels ne s’entendent pas sur les résultats. Pourtant, comprendre la structure moléculaire de la surface de l’eau pourrait permettre de mieux comprendre les interactions qui sous-tendent de nombreux processus biologiques. Le comportement des électrons est l'une des clés Le modèle quantique utilisé par les chercheurs du NPL est basé sur une particule chargée fictive, nommée oscillateur de Drude. Dans le cas d’une molécule d’eau, cette particule est attachée à l’atome d’oxygène par le biais d’un ressort harmonique, mimant la façon dont les électrons d’une véritable molécule d’eau oscillent et réagissent à leur environnement. Des informations auxquelles les modèles classiques ne donnent généralement pas accès et qui, surtout, donnent une idée précise des propriétés moléculaires de l’eau liquide. C’est la première fois que le modèle de l’oscillateur de Drude est appliqué à une interface liquide-vapeur. Les résultats des chercheurs britanniques montrent que l’asymétrie intrinsèque des liaisons hydrogène est responsable de l’orientation des molécules de surface. Et le modèle permet également de prédire la dépendance à la température de la tension superficielle de l’eau avec une précision de 1 %. Cette étude démontre qu’il est possible d’appliquer le modèle de l’oscillateur de Drude à des domaines encore inexplorés. Elle offre ainsi, par exemple, des perspectives prometteuses pour l’exploration de la matière condensée. Sur : http://www.isias.lautre.net/spip.php?article300 : ISIAS - Introduire les Sciences et les Intégrer dans des Alternatives Sociétales. Introduce Science and Integrate it into Alternative Societies par JACQUES HALLARD : Ingénieur CNAM, consultant indépendant, Jacques Hallard est né en 1938. "Qu’est-ce que l’eau liquide ? " par le Prof. Martin Chaplin Traduction et compléments de Jacques Hallard lundi 15 avril 2013 par Chaplin Martin : Emeritus Professor of Applied Science London South Bank University. ISIS Physique Chimie Biologie Qu’est-ce que l’eau liquide ? What is Liquid Water ? Les complexités tout à fait particulières de l’eau liquide en font, d’une façon très inattendue, un constituant parfaitement adapté pour le vivant. Prof. Martin Chaplin. Singulièrement, l’eau s’ionise et permet l’échange facile des protons entre les molécules, ce qui contribue à la richesse des interactions ioniques [Voir liaison chimique sur Wikipedia : On appelle liaison chimique toute interaction attractive qui maintient des atomes à courte distance. Cette interaction peut être directionnelle comme la liaison entre deux atomes au sein d'une molécule, ou non-directionnelle comme l'interaction électrostatique qui maintient les ions d'un cristal ionique au contact. Elle peut être forte comme les deux précédents exemples, ou faible comme les interactions de van der Waals qui sont de nature dipolaire. De nombreux modèles existent pour décrire ces interactions. Par exemple la liaison chimique entre deux atomes au sein d'une molécule peut être décrite avec le modèle de Lewis ou avec un modèle quantique, comme la théorie des orbitales moléculaires. Dans les deux cas, l'origine de l'interaction est un partage d'électrons entre les deux atomes partenaires de la liaison chimique. Les liaisons plus faibles sont expliquées, en général, par des polarités entre des molécules. C'est le cas des interactions très faibles comme les forces de London qui font partie des forces de van der Waals. De telles forces interprètent le maintien dans un état condensé solide ou liquide de composés moléculaires comme le diiode ou les hydrocarbures] dans le monde de la biologie. L’eau liquide est un excellent solvant du fait de sa nature polaire, de sa petite taille, ainsi que par sa ‘constante diélectrique’ ou permittivité relative élevée, en particulier pour les composés et les sels polaires et ioniques. L’eau dissout même dans le verre et dans les plastifiants : il est donc très difficile d’obtenir de l’eau vraiment pure, contenant moins de 5 ng g-1 de soluté. L’unique hydratation de l’eau des macromolécules biologiques importantes – notamment des protéines et des acides nucléiques - détermine la constitution des structures tridimensionnelles, et donc la nature de leurs fonctions. "La vie est basée sur l’eau et l’électricité" (partie 1) par le Pr Mae-Wan Ho Traduction et compléments de Jacques Hallard samedi 16 février 2013 par Ho Dr Mae-Wan : directrice et co-fondatrice de l’Institut de la Science dans la société (ISIS), [basé à Londres], bien connue pour ses efforts pour présenter la science dans le sens du bien public et pour promouvoir la responsabilité sociale ou sociétale et la durabilité écologique dans les domaines scientifiques, a reçu la prestigieuse ‘Médaille Prigogine 2014’, en reconnaissance de son travail scientifique en physique des organismes vivants et des systèmes durables, un secteur scientifique qu’elle a innové il y a plus de 20 ans. ISIS Biologie Physique La vie est basée sur l’eau et l’électricité (partie 1) Life is Water Electric (part 1) Partie 1 - Le champ vital électrodynamique et l’électricité du corps vivant Partie 2 – L’eau sous forme de cristaux liquides et en cohérence quantique est le champ vital et l’électricité du corps vivant Mae-Wan Ho Conférencière invitée d’honneur à la rencontre ‘Electric Universe 2013 : The Tipping Point 2013’, à Albuquerque, dans le Nouveau-Mexique aux Etats-Unis. du 3 au 6 janvier 2013. Résumé Toutes les plantes et tous les animaux, qu’ils soient unicellulaires ou pluricellulaires, depuis l’œuf ou les graines pleinement développées, jusqu’à l’organisme vivant adulte, possèdent un "champ vital" électrodynamique appelé "champ L" qui peut être enregistré à la surface ou près de celle-ci, à l’aide d’électrodes et de voltmètres appropriés. Ce "champ L" se modifie pendant la croissance et le développement, en corrélation avec le plan et l’organisation du corps, ainsi qu’en fonction des états mentaux ou physiologiques. Cependant, la source du "champ L" est encore inconnue. De nouvelles preuves suggèrent que le "champ L" est généré par l’eau et qu’il y est inclus sous forme de cristaux liquides en cohérence quantique ; cette eau constitue 70-90% des cellules et des organismes vivants et elle est en outre essentielle à la vie. L’eau forme des domaines en cohérence quantique à des températures et à des pressions ordinaires. Dans les organismes, les domaines cohérents sont stabilisés dans l’eau sous forme de cristaux liquides sur les énormes surfaces macromoléculaires et membranaires, effectivement s’alignés électriquement sur l’ensemble du corps pour former un simple cristal uniaxe. La Terre dispose également d’un spectre électromagnétique ou résonances de Schumann, ainsi dénommées d’après Otto Schumann Winifred (1888-1974) qui les avait prédites en 1952. Les résonances de Schumann sont des ondes stationnaires ; créées dans l’espace situé entre la surface de la terre et l’ionosphère conductrice, elles sont naturellement excitées par la foudre. Les résonances de Schumann se situent entre 3 et 60 Hz, apparaissant comme des pics distincts à 7,83, 14,3, 27,3 et 33,8 Hz. Ces mêmes fréquences sont prédominantes dans les ondes cérébrales des êtres humains et elles sont fortement corrélées avec les différents états mentaux. Les évidences suggèrent que les humains et d’autres organismes vivants synchronisent réellement leurs rythmes biologiques avec les fréquences de Schumann. J’ai été invitée à revoir ces vieux résultats oubliés à travers un document rédigé par Alexis Pietak de Kingston, travaillant dans l’état d’Ontario, au Canada qui propose un nouveau mécanisme pour la morphogenèse : la formation de modes de résonance électromagnétique dans un résonateur diélectrique à micro-ondes. Les modes résonnants sont des motifs d’ondes formés lorsqu’une onde est confinée à l’intérieur d’un résonateur et soumis à la réflection des frontières internes où les ondes incidentes et réfléchies se combinent. C’est quelque chose comme les résonances de Schumann générées dans l’espace entre la surface de la Terre et l’ionosphère (voir ci-dessus), mais sur une échelle beaucoup plus réduite, de l’ordre de 0,1 à 1 mm, qui sont les dimensions des œufs et des primordias. En conséquence, la fréquence des ondes électromagnétiques en cause est beaucoup plus élevée, allant des micro-ondes à une gamme inférieure au millimètre ou GHz (109 cycles par seconde). En utilisant la technique mathématique de l’analyse par éléments finis, Pietak produit des modes résonnants (en ellipses et en une sphère) (figure 4) dont les motifs ressemblent à différents types de feuilles. Comme Alexis Pietak l’a noté, ce type de mécanisme n’est pas limité pour générer des motifs en forme de feuilles. L’œuf de Drosophila est une longue ellipse et les modes de résonance horizontaux successifs ne sont pas sans rappeler les étapes dans le processus de détermination du segment tel que révélé par les célèbres motifs de transcription des gènes, qui sont les plus susceptibles d’être impliqués dans les processus en aval de la formation de motif. Alexis Pietak a souligné que « le modèle repose sur la validité des théories de cohérence biologique telle que celle décrite par Fröhlich ... et / ou les théories des champs quantiques ». Herbert Fröhlich (1905-1991) avait émis l’hypothèse que les organismes sont des systèmes de matière condensée, et qu’ils peuvent peut être ‘pompés par l’énergie métabolique dans des états d'excitations cohérentes (des modes de résonance) en analogie avec le laser à semi-conducteurs. Les théoriciens des champs quantiques, Emilio Del Giudice et ses collègues, ont proposé que l'interaction entre les champs électromagnétiques ambiants et la matière condensée molle, tels que l'eau liquide, crée des domaines cohérents, oscillants en phase avec le champ électromagnétique [21]. J'ai décrit le travail de Fröhlich dans The Rainbow and the Worm, The Physics of Organisms et l'électrodynamique des champs quantiques est traitée en détail dans mon nouveau livre Living Rainbow H2O * qui fournissent là des preuves de la cohérence quantique des organismes vivants. La preuve alléchante d’un champ électrodynamique cohérent impliqué dans la formation des configurations à partir de nos expériences [1] (Electrodynamic Activities and Their Role in Organisation of Body Pattern, ISIS publication scientifique) a suggéré que nous devrions être en mesure de voir un signe de la cohérence, en particulier une biréfringence indicative de l’alignement ordonné des molécules cristallines liquides dans un embryon précoce. La biréfringence est une propriété optique d'un cristal ou de cristaux liquides avec des atomes ou des molécules alignés par polarité électrique, de sorte que la lumière blanche polarisée dans un plan (constitué de plusieurs longueurs d'ondes vibrant dans une seule direction) est divisé en deux rayons orientés perpendiculairement, l’un se déplaçant plus lentement que l'autre. Lorsque les deux rayons sont recombinés avec un second polariseur (l'analyseur), les longueurs d'onde composantes de la lumière interfèrent de manière constructive ou destructive, et c'est ainsi que les couleurs de l'arc-en-ciel sont générées. Afin d'amplifier la biréfringence, il est habituel d'ajouter une plaque pleine d’onde - la longueur d'onde de la lumière verte - au système, ce qui donne l'arrière-plan de couleur rose caractéristique. J'avais déjà travaillé avec la drosophile depuis plus de 15 ans, et je n’étais pourtant absolument pas préparée à ce à quoi je me suis trouvé confrontée alors que je faisais une observation au microscope polarisant. Une petite larve sortait en se traînant de son œuf, et elle présentait un arc-en-ciel à l'intérieur. Même une larve complètement développée est cohérente et en cohérence, bien au-delà de nos rêves les plus fous. C'est ce que l'arc- en-ciel dansant à l'intérieur de son corps, nous disait ; mais il a fallu un certain temps pour comprendre tout cela. Cette vision sublime a été une inspiration immédiate pour l'écriture du livre The Rainbow and the Worm, The Physics of Organisms (ISIS publication). Sur : http://www.spirit-science.fr/doc_humain/ADN6photons.html#mozTocId940951, à propos de Herbert FROHLICH : Par Alain BOUDET : Dr en Sciences Physiques, Thérapeute psycho-corporel, Enseignant. L'existence de champs de rayonnements englobant et imprégnant les organismes biologiques a été proposée par de nombreux biologistes et physiciens. L'idée de coordination cellulaire par un champ a été étudiée par Herbert Fröhlich à Liverpool (à partir de 1968) et Renato Nobili à Padoue (à partir de 1985). Northrup décrit un champ électrodynamique qui est déterminé par ses composants atomiques et réagit sur les propriétés de ces éléments. Le concept de champ morphogénétique (qui engendre les formes) a été développé d'abord par Gurwitsch en 1922 et Weiss en 1926, puis par Rupert Sheldrake dans les années 1980. En France, le mathématicien Emile Pinel (1906 - 1985) a prédit mathématiquement l'existence d'un champ global à 9 composantes qui régit la vie des cellules. D'autres ont montré la réalité physique du champ par les traces détectables qu'il manifeste lorsqu'il est sollicité (voir également en annexe: Le champ fantôme de l'ADN): Le champ "fantôme" de l'ADN Le Dr. Gariaev et son équipe ont d'abord mis en évidence le champ de l'ADN par un effet dit "fantôme". Ils ont mené une série d'expériences consistant à étudier le comportement d'une solution d'ADN dans de l'eau. La solution (3 mg d'ADN dans 3 ml d'eau) est mise dans un petit récipient en quartz et stabilisée au citrate de sodium (tampon SSC). Les molécules d'ADN y sont mobiles et agitées d'un mouvement erratique nommé mouvement brownien. Les spectrographies sont courantes dans les études scientifiques afin de mesurer toutes sortes de caractéristiques des substances. Dans le cas présent, la solution est introduite dans un appareil où elle est traversée par un rayon laser dont la diffusion est recueillie dans les différentes directions. L'analyse de ces photons diffusés permet d'en déduire des renseignements sur la taille et la vitesse de déplacement des particules en solution. Cette technique est appelée diffusion dynamique de la lumière (DLS) ou encore spectrographie par corrélation de photons (PCS) (avec un spectographe Malvern). Pour comprendre l'effet de l'ADN sur cette diffusion, il faut la comparer à ce qu'on obtient sans la solution. Lorsque le récipient est vide, les expérimentateurs ont constaté sans surprise que les photons diffusés sont distribués complètement au hasard (fig.a). a- Diffusion corrélée en l'absence de la solution d'ADN b- Diffusion corrélée en présence de la solution d'ADN c- Diffusion corrélée après avoir enlevé la solution d'ADN Expérience et figures réalisées par P. Gariaev et son équipe. Reproduites de L'onde ADN bio-numérique : 2001GariaevOndebionumerique.pdf : extraits : L'onde ADN bio-numérique Peter P. Gariaev*, Boris I. Birshtein*, Alexander M. Iarochenko*, Peter J. Marcer**, George G. Tertishny*, Katherine A. Leonova*, Uwe Kaempf ***. * Institute Control of Sciences Russian Academy of Sciences, Moscow, Russia [email protected], http://www.aha.ru/~gariaev, et Wave Genetics Inc. 87 Scollard Street, Toronto, Ontario, Canada, M5R 1G4, [email protected], ** 53 Old Vicarage Green, Keynsham, Bristol, BS31 2DH, [email protected], http://www.bcs.org.uk/cybergroup.htm. . UK, *** Institut f. Klinische, Diagnostische und Differentielle Psychologie- Am Falkenbrunnen - D- 01062 Dresden TU, Dresden, Germany, [email protected] Résumé : Cet article fait part d'un travail expérimental réalisé à Moscou à l'Institute of Control Sciences, Wave Genetics Inc. et de travaux théoriques provenant de plusieurs sources. Ce travail modifie la notion de code génétique de façon essentielle. Il affirme : 1) que l'évolution des bio-systèmes a créé des « textes » génétiques, semblables aux textes dépendants du contexte naturel dans les langages humains, modelant le texte de ces schémas analogues au langage, 2) que l'appareil chromosomique agit simultanément à la fois comme source et récepteur de ces textes génétiques, les décodant et les encodant respectivement, 3) et que le continuum chromosomique d'organismes multicellulaires est analogue à une grille holographique espace-temps multiplexe statico-dynamique, qui comprend l'espace-temps d'un organisme dans une forme vrillée. Autrement dit, l'action de l'ADN, comme la théorie le prédit et l'expérience le confirme, (i) est celle d'un « gène-signe » laser et de ses champs électro-acoustiques solitoniques, de telle manière que le gène bio-numérique « lit et comprend » ces messages de façon similaire à la pensée humaine, mais à son propre niveau génomique de raisonnement. Ce qui soutient que les textes humains naturels (quel que soit le langage utilisé) et les « textes » génétiques ont des caractéristiques mathématico-linguistiques et entropo-statistiques similaires, qui se rapportent à la fractalité de distribution de la densité de fréquence de la caractéristique dans les textes naturels et génétiques, et lorsqu'en cas de « textes » génétiques, les caractéristiques sont identifiées par les nucléotides, (ii) et que les molécules d'ADN, conçues comme un continuum de gène-signe de n'importe quel biosytème, sont capables de former des pré-images holographiques de biostructures et de l'organisme comme un tout et comme un registre de « copies d'ondes » ou de « matrices » dynamiques, se succédant les unes aux autres. Ce continuum représente le champ de mesure, de calibrage, pour construire son bio-système. Page 12/20 : Donc sujet à l'hypothèse que l'ADN est une certaine sorte de structure de cristal liquide avec des propriétés dynamiques, où les activités solitoniques interdépendantes sont liées ensemble, comme on peut le supposer, pour former une structure d'ondes extrêmement cohérentes, alors :- (i) les masses des nucléotides, et d'autres paramètres, montrent que ces activités oscillatoires devraient être situées quelque part ensemble dans le domaine d'onde « acoustique », (ii) et que, en tant que cristal liquide, l'ADN pourrait influencer la polarisation de la faible émission de lumière qui existe dans les cellules, appelés les « biophotons ». Ce type de lumière émise dans les cellules a d'abord été découvert par le chercheur russe Alexander Gurwitsch [1923], qui l'a appelé la « radiation mitogénique ». Aujourd’hui on sait, par les travaux de Fritz Albert Popp [Popp, 2000], qu'une telle lumière biophotonique ou mitogénique, même si ultra faible, est aussi extrêmement cohérente et a ainsi une qualité inhérente de lumière comme celle du laser. Le milieu expérimental et les simulations qui en découlent disent donc que :- (iii) le faisceau laser expérimental est simplement un substitut pour la lumière endogène intracellulaire cohérente émise par la molécule d'ADN elle-même, (iv) et que les ondes cohérentes super imposées de différents types dans les cellules interagissent pour former des modèles de diffraction, d'abord dans le domaine « acoustique », puis dans le domaine électromagnétique. De plus, de tels modèles de diffraction sont, par définition (et connus comme tel, par exemple, pour l'imagerie à résonance magnétique (IRM) [Binz, Schempp 2000a,b]) une sorte d'hologramme quantique. Donc, il semble que notre image originale est confirmée et que l'interaction étudiée entre les oscillations solitoniques dans la structure de cristal liquide de l'ADN, et le vecteur de polarisation de la lumière ultra faible et extrêmement cohérente biophotonique, pourrait alors être comprise, nous supposons, comme un mécanisme de traduction entre les hologrammes dans le domaine des fréquences « acoustiques », qui concernent des effets plutôt à courte portée, et les hologrammes du domaine électromagnétique et inversement. La base d'un tel mécanisme hypothétique comme procédé de traduction, entre les hologrammes acoustiques et optiques, peut facilement s'illustrer en laboratoire où, comme montré cidessous, un poisson dans l'eau est soumis à une radiation acoustique de telle façon qu'à la surface de l'eau un modèle d'interférence, ou un hologramme, se forme et, lorsqu'on illumine ce modèle d'interférence par le haut dans la bonne direction avec la lumière d'un laser de haute qualité, une image visuelle virtuelle du poisson apparaît au-dessus de l'eau. Ce qui montre que l'hologramme en question agit comme un transducteur entre les domaines acoustiques et électromagnétiques. Suite site d’Alain BOUDET sur l’ADN fantôme: Dans un deuxième temps, les expérimentateurs ont introduit la solution d'ADN. Ils ont obtenu des fluctuations périodiques bien précises, caractéristiques des molécules en solution (fig. b). Puis, ils ont vidé le récipient et ont recommencé. Contre toute attente, la courbe obtenue n'est plus celle du début, mais ressemble à celle obtenue en présence d'ADN (fig. c). Tout se passe comme si l'ADN est encore présent, comme s'il avait laissé son empreinte (les expérimentateurs l'appellent son fantôme). Cette empreinte peut persister pendant plus d'un mois, même si on tente de l'effacer en soufflant régulièrement de l'azote dans le récipient. Ce phénomène bouscule notre représentation d'un champ d'information. En effet, si en présence de l'ADN l'onde électromagnétique du laser est dispersée par le champ électromagnétique des atomes de l'ADN, par quoi est-elle modulée en l'absence d'ADN? Quelle est la nature de ce fantôme? On doit admettre qu'il existe un milieu subtil, une substance primordiale, dans laquelle le champ de l'ADN a laissé son empreinte. Cette substance a la capacité de conserver une mémoire, d'enregistrer des informations. L'existence de cette substance commence à être bien documentée par les avancées récentes de la physique quantique. C'est le champ du vide, appelé aussi champ de cohérence universel ou matrice universelle (voir article Éther et énergie du vide et suivants). Sur : http://www.spirit-science.fr/Matiere/Phys3-ether.html, (Alain BOUDET) à propos du vide : Si une particule apparait dans un intervalle de temps très bref bien défini, alors son énergie reste floue et peut prendre des valeurs dans un ample intervalle des plus basses aux plus hautes énergies. C'est justement le cas des photons virtuels du champ quantique, qui fourmillent de façon très brève. Ils ont donc une probabilité importante d'avoir une haute énergie. Dans ce cas, les photons peuvent donner naissance à des particules avec masse selon le principe de Relativité Restreinte qui stipule l'équivalence de l'énergie et de la masse selon la formule E = mc2. On passe de la non-matière à la matière. (Sur Wikipedia : un Phonon en optique est égal à un Photon : En physique de la matière condensée, un phonon (du grec ancien φωνή / phonê, la voix) désigne un quantum d'énergie de vibration dans un solide cristallin1 : lorsqu'un mode de vibration du cristal de fréquence définie ν cède ou gagne de l'énergie, il ne peut le faire que par paquets d'énergie hν, h étant la constante de Planck. Ce paquet est considéré comme une quasi-particule, à savoir une particule fictive appelée phonon. Le cristal est alors réputé échanger des phonons lorsqu'il perd ou gagne de l'énergie. Le concept permet une analogie avec la lumière qui possède des propriétés similaires : elle se manifeste tantôt comme une onde, tantôt comme un paquet d'énergie hν, qui correspond à une particule élémentaire appelée photon.). Suite Alain BOUDET sur le Vide : Si l'on se place dans le cas d'un champ électromagnétique pur, sans aucune charge électrique, créer une particule chargée négativement telle qu'un électron ne peut se faire que si une particule chargée de la même quantité positive est créée en même temps (un positron). C'est ce qu'on appelle une création de paires de particules, sous-entendu, de charges opposées. Le champ qui remplit l'Univers peut donner naissance à un nombre incalculable de paires de particules. Lorsque de telles particules se rencontrent à nouveau, elles s'annihilent et disparaissent en restituant leur énergie au fond énergétique du champ. C'est pourquoi leur existence est très brève. On est amené à considérer l'univers comme une vaste mer fourmillante de particules qui apparaissent et disparaissent. C'est ce qu'on nomme les fluctuations de l'énergie et du nombre de particules du vide. Cette vision proposée par la théorie quantique des champs a complètement modifiée l'image que l'on avait d'un univers vide. Le monde est décrit par des champs d'énergie. En chaque point de l'espace vide, tout est en perpétuelle création et dissolution. Il n'y a pas de mouvements d'objets, mais des mouvements perpétuels d'énergie dans une vaste matrice cosmique. Les objets ne sont que les émergences de paquets d'énergie. "Le vide fluctue d'une manière aléatoire entre l'être et le non-être." (Heinz Pagels, physicien, The cosmic code, Bantam Books, 1983). À partir de la théorie quantique des champs et de sa description d'un vide plein de photons virtuels, le physicien néerlandais Hendrick Casimir (1909 – 2000) a calculé en 1948 que si un tel gaz de photons existe, il devrait avoir des effets physiques mesurables dans certaines situations spéciales. Hendrick Merci à Wikipédia Casimir Schéma du principe d'attraction de deux plaques métalliques proches dans le vide quantique, selon Casimir. La taille des bulles représente la longueur d'onde des photons Merci à Wikipédia Casimir (rien à voir avec le sympathique dinosaure de l'émission télévisée de l'Ile aux Enfants) imagine en pensée un dispositif comprenant deux plaques métalliques placées parallèlement dans l'espace vide. Lorsqu'il y a une seule plaque, elle est bombardée en permanence par des photons qui exercent un impact sur elle. Comme les impacts sont reçus des deux côtés, la plaque reste en équilibre et rien ne se passe. Il en est de même pour deux plaques, sauf si on les rapproche très près l'une de l'autre. Dans ce cas, les faces qui se font face reçoivent moins de photons, à condition que leur distance n'excède pas quelques micromètres. Mathématiquement, on peut dire que si la distance entre les plaques est L, les photons de longueur d'onde supérieure à L sont exclus de l'espace intérieur (voir figure). Les impacts sur les faces externes sont plus grands que ceux sur les faces internes. Il doit en résulter une pression qui tend à rapprocher les plaques. Elle est d'autant plus grande que les plaques sont proches. (Ou je rajoute entre deux vitres d’un double vitrage disposé de chaque côté de murs porteurs d’électricité, Voir le Vide à température ambiante l’Ecole de Physique des Houches à Chamonix). Vérifications expérimentales Pour prouver la réalité de la force de Casimir, il fallait réaliser un dispositif expérimental suffisamment sensible pour la mesurer. Or la force en question est de l'ordre de 1 dix millionième de gramme. Cela a pu être mesuré seulement à partir de 1996, par Steven Lamoreaux (physicien étasunien) à l'université de Washington, avec des plaques distantes de quelques micromètres. Les résultats concordent avec la théorie à 5% près. Par la suite, quelques expériences effectuées avec un pendule de torsion ou avec un microscope à force atomique ont vérifié la grandeur de la force de Casimir avec encore plus de précision. La force de Casimir est-elle vraiment due à l'énergie du vide? On a donc une confirmation de l'existence et de la valeur de la force d'attraction de Casimir. Mais cela ne prouve pas qu'elle tire son existence de la mer de corpuscules du vide. Elle ne prouve pas la réalité de cette mer et de ses fluctuations. En effet, il est tout à fait possible de calculer cette force au moyen d'autres théories qui ne font pas appel au vide lui-même, mais aux caractéristiques matérielles des plaques. Et on arrive à des valeurs semblables. Ces théories alternatives tiennent compte des mouvements fluctuants des atomes des plaques qui s'influencent mutuellement d'une plaque à l'autre (forces de Van der Waals). Sur : http://www.spectro.jussieu.fr/Casimir-Physics-2014?lang=en via recherche sur Effet Casimir sur site Ecole de Physique des Houches à Chamonix lors du symposium : From March 30 through April 4, 2014 Ecole de Physique des Houches, France : document Pdf : David Dean (Laboratoire Ondes et Matières Aquitane, Univ. Bordeaux and CNRS, Talence, France) Many body effects for fluctuation induced interactions We discuss the formulation of many particle systems with fluctuation induced interactions. Examples include the effective interaction between inclusions in membranes, such as proteins, which modify the local bending rigidity and how membrane tension can alter the phase diagram of such systems. Jean-Baptiste Fournier (Laboratoire MSC. University Paris Diderot and CNRS, Paris, France) Dynamics of the interaction between inclusions in a model fluctuating elastic medium and in bio- membranes I investigate the dynamics of the interaction between two active inclusions hosted by a fluctuating 1d elastic medium with purely dissipative dynamics. The internal state of the inclusions, hence their coupling with the elastic field, is altered at some instant and the interaction is calculated versus time. Both linear and non-linear couplings are considered. A strong overshoot is observed for non-linear inclusions. The same problem is addressed in a more realistic situation with active membrane inclusions, using the complete viscous dynamics of the bilayer membrane. Finally, I shall briefly discuss the fluctuation of the equilibrium Casimir force between membrane inclusions, i.e., the variance of the fluctuation of the force the average of which is the Casimir force. This variance exhibits a nontrivial dependence on the separation between the inclusions. Sur : http://www.mdpi.com/1424-8247/8/4/675?trendmd-shared=0 © 1996-2016 MDPI AG (Basel, Switzerland) Pharmaceuticals 2015, 8(4), 675-695; doi:10.3390/ph8040675 Review Mitochondrial Dysfunction and Disturbed Coherence: Gate to Cancer Jiří Pokorný 1,* , Jan Pokorný 2 , Alberto Foletti 3,4 , Jitka Kobilková 5 , Jan Vrba 6 and Jan Vrba Jr. 7 1 Institute of Photonics and Electronics, Czech Academy of Sciences, Chaberská 57, 182 51 Prague 8, Czech Republic 2 Institute of Physics, Czech Academy of Sciences, Na Slovance 2, 182 21 Prague 8, Czech Republic 3 Institute of Translational Pharmacology, National Research Council—CNR, Via Fosso del Cavaliere 100, Rome 00133, Italy 4 Clinical Biophysics International Research Group, via Maggio 21, Lugano 6900, Switzerland 5 Department of Obstetrics and Gynaecology, 1st Faculty of Medicine, Charles University in Prague, Apolinářská 18, 128 00 Prague 2, Czech Republic 6 Faculty of Electrical Engineering, Czech Technical University in Prague, Technická 2, 166 27 Prague 6, Czech Republic 7 Faculty of Biomedical Engineering, Czech Technical University in Kladno, Sitná Square 3105, 272 01 Kladno, Czech Republic * Author to whom correspondence should be addressed. Received: 22 May 2015 / Revised: 6 September 2015 / Accepted: 11 September 2015 / Published: 30 September 2015. Abstract Continuous energy supply, a necessary condition for life, excites a state far from thermodynamic equilibrium, in particular coherent electric polar vibrations depending on water ordering in the cell. Disturbances in oxidative metabolism and coherence are a central issue in cancer development. Oxidative metabolism may be impaired by decreased pyruvate transfer to the mitochondrial matrix, either by parasitic consumption and/or mitochondrial dysfunction. This can in turn lead to disturbance in water molecules’ ordering, diminished power, and coherence of the electromagnetic field. In tumors with the Warburg (reverse Warburg) effect, mitochondrial dysfunction affects cancer cells (fibroblasts associated with cancer cells), and the electromagnetic field generated by microtubules in cancer cells has low power (high power due to transport of energy-rich metabolites from fibroblasts), disturbed coherence, and a shifted frequency spectrum according to changed power. Therapeutic strategies restoring mitochondrial function may trigger apoptosis in treated cells; yet, before this step is performed, induction (inhibition) of pyruvate dehydrogenase kinases (phosphatases) may restore the cancer state. In tumor tissues with the reverse Warburg effect, Caveolin-1 levels should be restored and the transport of energy-rich metabolites interrupted to cancer cells. In both cancer phenotypes, achieving permanently reversed mitochondrial dysfunction with metabolic-modulating drugs may be an effective, specific anti-cancer strategy. Sur Futura-Sciences à propos des Microtubules : http://www.futurasciences.com/magazines/matiere/infos/actu/d/physique-calculateursquantiques-cerveau-51709/ Des calculateurs quantiques dans le cerveau ? Le mathématicien Roger Penrose et l'anesthésiologiste Stuart Hameroff ont proposé il y a une vingtaine d'années un début d'explication sur le fonctionnement du cerveau humain doué d'expérience consciente. L'un des éléments de leur théorie impliquait l'existence d'états quantiques résistants à la décohérence dans des structures à l'intérieur des neurones. Dans un article récent faisant le point sur l'état de leur théorie, les deux chercheurs affirment qu'il y aurait maintenant des indications fortes en faveur de cette hypothèse. Bien que les deux hommes soient respectés, la communauté scientifique reste sceptique. Le 21/01/2014 à 15:30 - Laurent Sacco, Futura-Sciences Voilà presque 20 ans, le grand mathématicien et physicien Roger Penrose publiait un livre issu de ses réflexions sur la nature de l’esprit et de la conscience. L’ouvrage, intitulé Les ombres de l'esprit, reprenait par ailleurs certaines des idées avancées dans les années 1980 par l’anesthésiologiste Stuart Hameroff. Plusieurs thèses étaient défendues. La première était que le théorème d’incomplétude de Gödel n’était pas compatible avec la thèse issue des travaux d’Alan Turing concernant l’intelligence artificielle, à savoir qu’un calcul sur une machine suffisamment complexe pouvait engendrer une intelligence humaine consciente. Pour Penrose, le résultat de Gödel impliquait que l’esprit et la conscience humains étaient irréductibles à des calculs. Il rejoignait donc le camp de ceux qui pensent que le « difficile problème de la conscience » (hard problem of consciousness en anglais), selon le terme inventé par le philosophe australien David Chalmers, n’est pas solutionnable dans le cadre d’une réduction de la conscience à l'exécution d'algorithmes. Dit autrement, quand bien même on peut associer une structure mathématique à l’expérience vécue d’un son ou d’une couleur, elle ne peut se réduire à cette structure et à un calcul, pas plus que simuler une étoile, un cyclone ou une onde électromagnétique sur un ordinateur ne génère réellement ces objets. Penrose exprimait aussi, comme d’autres avant lui (tel Einstein, Schrödinger ou encore John Bell), son insatisfaction sur l’état actuel de la physique quantique. Une nouvelle physique quantique On sait qu’en mécanique quantique, l’amplitude de probabilité d’un système physique, aussi appelée vecteur d’état ou fonction d’onde, évolue de façon complètement déterministe en étant gouvernée par une seule loi : l’équation de Schrödinger. Mais lorsqu’on cherche à mesurer une grandeur physique associée à un système, par exemple la position d’un électron ou son spin, il existe une deuxième loi indiquant que lors de cette mesure, la fonction d’onde change brutalement et de façon aléatoire. C’est un peu comme si l’acte consistant à mesurer la présence d’une note dans un morceau de musique émis sous forme d’ondes acoustiques sphériques autour d’un piano faisait brutalement disparaître dans tout l’espace les autres notes et n’en laissant plus qu’une, tirée au sort selon une loi de probabilité donnée par la forme de l’onde acoustique initiale. Il faudrait plusieurs livres rien que pour rendre compte des problèmes soulevés par cette « réduction du paquet d’ondes », comme disent les physiciens, étroitement liée à l’introduction d’amplitudes de probabilité et simplement de lois de probabilité en physique quantique. Elle a notamment conduit au paradoxe EPR, et surtout à celui du chat de Schrödinger. Pour différentes raisons qu’explique en détail Penrose dans son livre, même s’il reconnaît la pertinence de la théorie de la décohérence au sujet du paradoxe du chat de Schrödinger, il pense (et il n’est pas le seul) que le problème n’est pas complètement résolu pour autant. Selon lui, une physique encore inconnue, mais qui doit découler d’une théorie quantique de la gravitation dans laquelle la mécanique quantique standard doit ellemême être une simple approximation, est une nécessité si l’on veut vraiment résoudre toutes les énigmes et les difficultés que posent certains aspects de la théorie quantique. Surtout, cette nouvelle physique doit contenir des éléments mathématiques qui ne sont pas réductibles à des algorithmes, en accord avec l’interprétation que fait Penrose du théorème d’incomplétude de Gödel. Elle serait aussi susceptible d’éclairer d’un jour nouveau le problème difficile de la conscience. Des automates cellulaires quantiques dans les neurones C’est à la suite de réflexions similaires, dont il avait donné une version moins détaillée dans un précédent livre publié en français sous le titre L’esprit, l’ordinateur et les lois de la physique, que Penrose a été contacté par Stuart Hameroff. Celui-ci lui a parlé de ses tentatives en tant que biologiste réfléchissant sur l’origine des effets de l’anesthésie, pour comprendre le fonctionnement du cerveau et les bases physiques de la conscience. En joignant leurs travaux, les deux hommes ont donc proposé la théorie suivante. Ils prennent pour acquis qu’une bonne partie du fonctionnement du cerveau s’explique très bien avec les lois de la physique classique, en particulier au niveau du connectome, c'est-à-dire du câblage des neurones. Mais au niveau des liaisons synaptiques, quelque chose de nouveau émergerait. Ces liaisons seraient fortement influencées par des structures que l’on trouve dans le cytosquelette des neurones : les microtubules. Ce sont des sortes de fibres constituées d’éléments appelés des dimères de tubuline, des protéines possédant un moment dipolaire. Selon Penrose et Hameroff, ces protéines que l’on peut polariser dans deux états feraient des microtubules des sortes d’automates cellulaires capables de stocker des qubits et d’effectuer des calculs en plus de ceux que l’on attribue au réseau de neurones. Si tel est le cas, la capacité de traitement de l’information du cerveau humain serait bien supérieure à celle qu’on lui attribue aujourd’hui. Ce qui repousserait la date à laquelle un ordinateur serait suffisamment puissant pour simuler correctement son fonctionnement. La région centrale d'un neurone avec son noyau (nucleus) et d'où partent l'axone et des dendrites. On voit le réseau de microtubules parallèles connectés par des protéines. © Stuart Hameroff Les microtubules, des calculateurs quantiques ? Mais surtout, et c’est le point le plus critiqué par la communauté scientifique, Penrose et Hameroff ont prédit que les microtubules seraient des calculateurs quantiques efficaces, alors que la théorie de la décohérence semble impliquer que ce n’est pas possible. Les cellules du cerveau et les microtubules seraient trop chauds et trop perturbés par le bruit de fond ambiant pour que des calculs quantiques longs aient le temps d’être effectués. En plus court, même en descendant à l’échelle des tubulines, on est toujours confronté à des objets trop gros et trop chauds pour manifester des effets quantiques. Toutefois, Penrose et Hameroff ont répliqué que l’on ne pouvait être certain de rien sur ce point. On sait bien que des comportements quantiques macroscopiques d’objets existent bien, comme la supraconductivité et la superfluidité (à basse température il est vrai, mais on envisage pourtant de créer des supraconducteurs à température ambiante). On sait aussi que l’effet EPR fonctionne, malgré des séparations de plusieurs mètres entre des systèmes quantiques. Surtout, des signes de manifestation de cohérence quantique dans des systèmes biologiques à température ambiante sont observés depuis quelques années, particulièrement avec la photosynthèse. Il se pourrait que l’évolution ait découvert le moyen de contourner l’obstacle de la décohérence quantique. Les ombres de la physique de l'esprit Il existe dans la théorie de Penrose et Hameroff une seconde hypothèse encore plus spéculative. Si des calculs quantiques sont bien effectués par les microtubules, ils seraient sous la domination des effets de gravitation quantique faisant intervenir des processus échappant au calcul que postule Penrose au-delà de la mécanique quantique orthodoxe. C'est notamment au niveau de la réduction du paquet d'ondes lors d'une mesure que ces effets interviendraient, avec ce qu'il appelle la réduction objective orchestrée, ou orchestrated objective reduction (Orch-OR) en anglais. La théorie quantique dont nous disposons actuellement ne serait, pour Penrose comme pour Einstein et même des physiciens comme John Bell et le prix Nobel Gerard 't Hooft, qu’une solution partielle bien que très efficace en pratique aux problèmes de la quantification de l’énergie et de la dualité onde-corpuscule. À un niveau plus profond de la réalité existerait donc une physique de la conscience encore inconnue, englobant la théorie quantique orthodoxe, et dont nous ne pouvons pour le moment voir que l’ombre dans le connectome et les microtubules. Ainsi que l’existence de l’espace-temps ne devient palpable que lorsqu’on est confronté à des vitesses proches de celle de la lumière et à des champs de gravitation intenses, la physique de l’esprit ne deviendrait visible que face à des objets très complexes. Entre spéculation scientifique et pseudoscience Inutile de dire qu’on atteint là le sommet de la spéculation scientifique, où le risque de se perdre dans des considérations métaphysiques non scientifiques est élevé. On sait d’ailleurs que plusieurs scientifiques de haut niveau, tels que John Hagelin et le prix Nobel Brian Josephson, ne professent plus que de la pseudoscience en tentant d’aborder le problème des bases physiques de la conscience. Bien que très critique vis-à-vis des hypothèses de Hameroff et Penrose, la communauté scientifique ne considère pas pour le moment que ces deux chercheurs ont franchi la ligne rouge. On a plutôt l’impression que ce qu’ils proposent est du même niveau que les réflexions de Schrödinger dans son célèbre ouvrage Qu'est-ce que la Vie ? publié en 1944, des réflexions qui ont orienté les pionniers de la biologie moléculaire vers la découverte de l’ADN, mais l’ont aussi anticipée. Indications de cohérence quantique dans les microtubules Penrose et Hameroff viennent de publier l’année dernière un article dans Physics of Life Reviews faisant le point sur leur théorie de l’origine de la conscience. La revue contient plusieurs articles commentant et critiquant leur théorie ainsi que leurs réponses. On est quand même assez déçu de voir que parmi ces articles, il s’en trouve un de Deepak Chopra, un célèbre médecin états-unien d’origine indienne dont les théories sont plus que fumeuses. Mais ce qui frappe le plus, c’est que Penrose et Hameroff affirment maintenant qu’il y a des signes de l’existence d’un état de cohérence quantique dans les microtubules. Ils se basent pour cela sur les travaux d’un chercheur indien, Anirban Bandyopadhyay, du National Institute for Materials Science à Tsukuba, au Japon, qui étudie les microtubules avec ses collègues depuis quelques années. Sur Futura-Sciences à propos des travaux de Penrose et Hameroff remis en question : http://www.futurasciences.com/magazines/matiere/infos/actu/d/physique-consciencemecanique-quantique-revers-theorie-penrose-18575/ Conscience et mécanique quantique : un revers pour la théorie de Penrose La mécanique quantique est à la racine des phénomènes de l’Univers. Depuis des décennies, plusieurs grands physiciens et neurobiologistes soupçonnent qu’elle puisse être la clé du fonctionnement du cerveau humain. L’une de ces théories, celle de Penrose-Hamerhoff, vient de recevoir, si ce n’est une réfutation, du moins un sérieux revers. Le 16/03/2009 à 11:35 - Laurent Sacco, Futura-Sciences Niels Bohr, l’un des pères de la mécanique quantique, avait été l’un des premiers à proposer que le caractère probabiliste et non mécanique au sens classique de la théorie quantique pouvait être à la source des phénomènes biologiques et en particulier de la conscience humaine, avec son apparent libre arbitre. Le neurobiologiste et prix Nobel John Eccles a lui aussi spéculé sur le rôle de la mécanique quantique dans le fonctionnement du cerveau. De nos jours, les scientifiques les plus sérieux et les plus célèbres soutenant une théorie quantique de la conscience sont le grand mathématicien et physicien Roger Penrose et l’anesthésiologiste Stuart Hameroff. Sir Roger est connu du grand public pour ses travaux sur les trous noirs, l’origine de l’Univers et sa mythique singularité primordiale dans le cadre de la relativité générale. Certainement aussi talentueux et génial que Stephen Hawking sur ces sujets, il est aussi l’auteur de deux livres L'esprit, l'ordinateur et les lois de la physique et Les ombres de l'esprit dans lesquels il soutient que, quels que soient les progrès technologiques, aucun ordinateur fonctionnant selon des principes algorithmique ne pourra jamais conduire à de la conscience artificielle. Celle-ci fonctionnerait selon des principes autres, intervenant dans une théorie quantique de la gravitation, et qui nous sont toujours inconnus. Cependant, avec Hamerhoff, il a proposé une ébauche de théorie quantique de la conscience faisant intervenir, dans des structures au cœur des neurones, un phénomène rappelant celui de la condensation de Bose-Einstein de l’hélium superfluide et des atomes ultra-froids de béryllium. On sait que dans les réseaux cristallins, l’application des règles de la mécanique quantique aux ondes sonores pouvant s’y propager conduit à l’existence de quanta semblables à ceux des ondes électromagnétiques, les phonons. En 1968, le physicien Herbert Fröhlich avait théorisé que tout comme les phonons étaient liés à des oscillations des atomes dans un réseau autour de leur position d’équilibre, les molécules des membranes biologiques, possédant ce qu’on appelle un moment dipolaire, se comportaient elles aussi comme des oscillateurs avec des quanta d’excitations. Or, tout comme pour les phonons, ces quanta sont des bosons. Selon les calculs de Herbert Fröhlich, le phénomène de condensation de Bose-Einstein pouvait aussi s’y produire. Penrose et Hamerhoff ont alors émis l’hypothèse que, dans les neurones, à l’intérieur des structures appelées microtubules, des condensats de Fröhlich pouvaient se former. La magie quantique, et plus précisément le phénomène d’intrication et les processus de traitement de l’information que l’on attribue à des ordinateurs quantiques, pourraient donc intervenir de cette manière dans le fonctionnement du cerveau jusqu'à faire émerger la conscience d’un « je » doué d’un libre arbitre. Il existe plusieurs types de condensation de Fröhlich et celui invoqué par Penrose et Hamerhoff, jamais encore observé expérimentalement, est celui dit de condensat cohérent. Toute la question était de savoir si, déjà théoriquement, de tels condensats pouvaient se produire dans les microtubulles. Un groupe de chercheurs australiens travaillant dans les universités de Sydney et du Queensland vient de publier un article sur ce problème. Ils sont parvenus à déterminer la température de formation d’un condensat cohérent de Fröhlich : au moins 100 millions de kelvins ! Une telle température qui ne régne même pas au cœur du Soleil ne peut en aucun cas exister dans le cerveau. Si la thèse de Penrose-Hamerhoff sur une origine quantique de la conscience, faisant même intervenir la gravitation quantique n’est pas réfutée, il semble clair, sous réserve que les calculs des chercheurs australiens soient exacts, que le modèle précis qu’ils ont proposé est désormais insoutenable... Sur Wikipedia à Esprit Quantique, on trouve des sérieux concurrents à Roger Penrose et Stuart Hameroff que l’on explique tout de même, en les personnes de David Bohm (Effet Aharonov-Bohm le Donut recouvert de miroirs du film SOURCE CODE) et Gustav Bernroider : https://fr.wikipedia.org/wiki/Esprit_quantique Dernière modification de cette page le 12 janvier 2016, à 14:00. Les théories de Roger Penrose et Stuart Hameroff et de Gustav Bernroider s'appuient sur la neurophysiologie, plus particulièrement sur de possibles effets de cohérence quantique dans le système nerveux, qui en assureraient la cohérence à grande échelle et formeraient les bases matérielles (mais de nature quantique, nonlocale) de la conscience (voir 40 Hz, fréquence de la conscience?). Penrose et Hameroff s’intéressent à la délocalisation des électrons dans les poches hydrophobes des microtubules, qui forment l'ossature de la cellule, tandis que Gustav Bernroider et coll. étudient des poches semblables, mais au centre de canaux ioniques, qui sont localisés sur la surface de la cellule. La théorie de Bohm s'inscrit davantage dans la lignée philosophique de Bohr (sans exclure d'éventuels corrélats neurochimiques de la conscience), mais rejette le postulat qu'il est impossible (en vertu du principe de complémentarité) de décrire le monde quantique. Pour Bohm, Hiley, Peat, Pylkkänen et coll., c'est la distinction entre matière et esprit qui doit avant tout être repensée. David Bohm Premiers constats (1951) Dans son ouvrage de référence Quantum Theory, Bohm observe, dans la lignée de Bohr et de son principe de complémentarité, que l'impossibilité de mesurer à la fois la position et la vitesse (momemtum) d'une particule (le principe d'indétermination d’Heisenberg) est analogue à l'impossibilité de connaître la teneur d'une pensée en même temps que ce vers quoi elle tend (voir intentionnalité). Paavo Pylkkänen l'illustre par l'exemple d'une personne à qui on demanderait de décrire ce à quoi elle pense alors qu'elle est dans un train de penser : ce mouvement s'interrompt au moment de la prise de conscience de ce à quoi elle pense. Bohm a cherché à savoir s'il existait, derrière la réalité quantique et les réalités de l'esprit une explication commune à ces paradoxes. L'ordre implicite David Bohm affirme que la mécanique quantique et la théorie de la relativité sont contradictoires et que cette contradiction implique qu'il existe un niveau encore plus fondamental dans l'univers physique, qui serait une unité indivisible, un ordre implicite à partir desquels apparaît l'ordre explicite de l'univers tel que nous le connaissons. L'ordre implicite de Bohm s'applique à la fois à la matière et la conscience, et il propose que cet ordre implicite pourrait expliquer la relation entre matière et conscience. L'esprit et la matière sont vues comme des projections dans notre ordre explicite à partir de la réalité sous-jacente de l'ordre implicite. Dans le formalisme de Bohm, il y a un niveau fondamental où la conscience n'est pas distincte de la matière. La position de Bohm sur la conscience est liée à la théorie holographique du cerveau de Karl Pribam. Celui-ci considère que la vue et les autres sens sont des lentilles sans que les autres sens apparaissent comme des hologrammes. Pribam affirme que l'information est enregistrée dans tout le cerveau et qu'elle est enveloppée dans un tout de manière similaire à un hologramme. Il est suggéré que les souvenirs sont connectés par association et qu'ils sont manipulés par la pensée logique. Si le cerveau reçoit aussi des informations à travers nos sens, alors les souvenirs, les associations, la pensée logique et la perception sensorielle sont censés être unifiés dans l'expérience globale de la conscience. En essayant de décrire la nature de la conscience, Bohm évoque l'expérience d'écouter de la musique. Il pense que la sensation de mouvement et de changement qui constitue l'expérience de la musique provient à la fois du passé immédiat et du présent conservés ensemble dans le cerveau, que les notes du passé sont vues comme des transformations plutôt que des souvenirs. Les notes qui étaient implicites dans le passé immédiat sont perçues comme explicites dans le présent. Bohm compare ce phénomène à la conscience qui se dégage de l'ordre implicite. Bohm considère que le mouvement, les changements et aussi la cohérence d'expériences comme écouter de la musique comme la manifestation d'un ordre implicite. Il affirme détenir la preuve de ce qu'il affirme à partir des travaux de Piaget sur les nouveau-nés. Il affirme que ces travaux démontrent que les bébés doivent faire l'apprentissage du temps et de l'espace qui font partie de l'ordre explicite, mais par contre ils ont une perception du mouvement qui est codée en dur car faisant partie de l'ordre implicite. Bohm compare ce codage en dur et la théorie de Chomsky qui affirme que la grammaire est codée en dur dans les cerveaux des enfants. Dans ses publications, Bohm n'a pas proposé de mécanisme spécifique du cerveau par lequel l'ordre implicite pourrait émerger en rapport avec la conscience. Les implications de la théorie de Bohm dans le domaine du problème corps-esprit sont actuellement étudiées par Paavo Pylkkänen. Gustav Bernroider Des papiers récents du physicien Gustav Bernroider, ont laissé à penser que ce dernier fait l'hypothèse que la structure implicite/explicite de Bohm peut être prise en compte pour la relation entre les processus neuronaux et la conscience. Dans un papier publié en 2005, Bernroider a précisé sa thèse en ce qui concerne les bases physiques de ce processus. L'idée principale développée dans son papier est que la cohérence quantique peut être entretenue dans les canaux ioniques des neurones suffisamment longtemps pour pouvoir être utilisée par les processus neuronaux. De plus, ces canaux peuvent se superposer aux lipides environnants, des protéines et d'autres canaux de la même membrane. Les canaux ioniques régulent le potentiel électrique à travers la membrane de l'axone, et par conséquent jouent un rôle central dans le traitement de l'information par le cerveau. Bernroider base ses travaux sur des études récentes du canal ionique potassium (K+) dans son état fondamental. Il s'inspire particulièrement des recherches sur la spectroscopie au niveau atomique de l'équipe de MacKinnon. Les canaux ioniques ont une région qui sert de filtre qui accepte les ions K+, mais qui ne laisse pas passer les autres ions. Ces travaux montrent que la région filtre a une structure de 5 ensembles de 4 atomes d'oxygène. Cette structure fait partie du groupe carboxyle des molécules acido-aminées dans la protéine environnante. Ces dernières sont appelées poches de liaison. Deux ions K+ sont piégés dans le filtre de sélection du canal ionique fermé. Chacun de ces ions est lié électrostatiquement à 2 ensembles d'atomes d'oxygène ou poches de liaison, ce qui implique 8 atomes d'oxygène au total. Chacun de ces ions dans le canal oscille entre deux configurations. Bernroider utilise cette structure qui a été récemment découverte pour spéculer sur la possibilité d'une cohérence quantique des canaux ioniques. Les calculs de Bernroider et de son coauteur Sisir Roy les amènent à penser que le comportement des ions dans le canal K ne peut être compris qu'au niveau quantique. Ceci est leur hypothèse de départ. Ensuite, ils se demandent si la structure du canal ionique peut être liée à des états logiques. Des calculs supplémentaires les amènent à penser que les ions K+ et les atomes d'oxygène des poches de liaison sont deux systèmes quantiques superposés, qu'ils peuvent alors considérer comme un ordinateur quantique effectuant le calcul d'une correspondance. Les ions qui sont destinés à être expulsés du canal sont supposés encoder l'information concernant l'état des atomes d'oxygène. Il est aussi proposé que les canaux ioniques séparés pourraient être liés au niveau quantique. L'exposition aux champs électromagnétiques agit via l'activation des canaux calciques voltage-dépendants de type L. Comment cela conduit à l'hypersensibilité électromagnétique (EHS) et à d'autres effets sur la santé : http://cdel.us6.listmanage.com/track/click?u=6997dbbac2f5a852fc3f7aea4&id=1ba8c6813d&e=12 1d2b09ec Par : Martin L. Pall : Professeur émérite de biochimie et de sciences médicales fondamentales Washington State University thetenthparadigm.org [email protected] On sait depuis plus de 30 ans que les champs électromagnétiques pulsés sont souvent beaucoup plus actifs biologiquement que les champs non-pulsés. Comme je le disais, c'est incompatible avec le paradigme thermie/chaleur puisque les champs pulsés produisent soit moins de chaleur, soit la même quantité de chaleur selon la façon dont l'expérience est menée. Nous sommes donc confrontés à une énigme importante concernant la façon dont ces champs électromagnétiques basse fréquence peuvent influencer notre biologie, pour le meilleur ou pour le pire. Ces champs électromagnétiques sont constitués de photons de basse énergie, avec une énergie par photon trop faible pour influencer la chimie du corps ! Comment peuvent-ils influencer notre biologie par des effets non thermiques ? Et pourtant, les études sont nombreuses à montrer qu'ils le font. J'ai récemment résolu cette importante énigme. Les champs électromagnétiques : CEM activent les canaux calciques voltage-dépendants. Et ce sont les effets en aval de l'augmentation du Ca2+ intracellulaire qui conduisent aux effets biologiques de l’exposition aux CEM. La preuve principale est que toute une série d'études montrent que dans les études sur l’exposition à divers champs électromagnétiques de basse fréquence, tous les effets produits peuvent être bloqués par des inhibiteurs des canaux calciques, c’est-à-dire des médicaments qui inhibent les canaux calciques voltage-dépendants. La conclusion est que ces champs électromagnétiques agissent sur le plan biologique en activant les canaux calciques voltage-dépendants (CCVD) est en outre soutenue par des centaines d'études qui montrent que l'exposition aux champs électromagnétiques microondes est suivie par de grandes augmentations du calcium intracellulaire et/ou par des modifications de la signalisation calcique. En outre, cette conclusion est également étayée par les études de modélisation biophysiques de Panagopoulos et al, qui montrent que les CEM peuvent agir par le biais de leurs interactions avec les résidus d'acides aminés chargés qui régulent l’ouverture et la fermeture du canal, pour ouvrir les canaux ioniques voltage-dépendants. Ainsi l’activation des CCVD par les CEM est biophysiquement plausible et a été prédite à partir de la modélisation biophysique ! (…) Les résultats montrant que l'exposition aux CEM agit via l'activation des CCVD fournissent, pour la première fois, une réponse à l'énigme relative à la manière dont l'exposition aux CEM composés de photons de basse énergie peut affecter notre biologie et la médecine. Parce que l'augmentation du Ca2+ intracellulaire produite par activation des CCVD peut agir, à son tour, pour stimuler la synthèse de l’oxyde nitrique (NO), de telles augmentations peuvent également avoir un rôle important. Pilla a récemment montré que ces expositions aux hyperfréquences pulsées des CEM produisent des augmentations quasi instantanées du Ca2+ intracellulaire mais aussi de la synthèse de l’oxyde nitrique (NO) (le tout survenant en moins de 5 secondes) : Pilla AA. Electromagnetic fields instantaneously modulate nitric oxide signaling in challenged biological systems. Biochem Biophys Res Commun. 2012;426:330-3. La plupart des réponses physiologiques au Ca2+ et à l’oxyde nitrique, agissent comme suit : L’ON augmente Ie taux de GMP cyclique (GMPc), ce qui conduit à la stimulation de la protéine kinase GMPc-dépendante (protéine kinase G). En revanche, la plupart des effets physiopathologiques de NO sont médiés par son rôle de précurseur du péroxynitrite (ONOO-), induisant la production de radicaux libres et de stress oxydatif. Il existe toute une série de similitudes entre les récepteurs NMDA (Sur Wikipedia : Les récepteurs NMDA sont des récepteurs ionotropes activés dans des conditions physiologiques par le glutamate et la glycine1 qui sont essentiels à la mémoire et à la plasticité synaptique. Ce sont les seuls récepteurs au glutamate à être spécifiquement activés par l'agoniste pharmacologique N-méthyl-D-aspartate (NMDA). Ils sont perméables aux cations monovalents (sodium, potassium) et au calcium. En raison de la perméabilité au sodium et au potassium, le potentiel de réversion des NMDAR est autour de 0 mV. L'entrée de calcium dans le neurone via les récepteurs de NMDA serait un mécanisme d'induction de la plasticité synaptique. Les récepteurs NMDA sont bloqués par l'ion magnésium qui occupe l'entrée du pore, et qui peut être libéré en cas d'inversion de potentiel électrochimique. La glycine et le glutamate sont nécessaires à l'activation des récepteurs NMDA) et les CCVD de type L : 1. Les deux ouvrent un canal ionique lorsqu'ils sont activés. 2. Les deux canaux restent ouverts pour une période de temps relativement longue par rapport aux autres canaux. 3. Les deux permettent à des quantités importantes de calcium de circuler dans la cellule. 4. On pense que les effets des deux sont médiés par un excès de calcium intracellulaire [Ca2+]i. 5. Les deux produisent de grandes quantités d’oxyde nitrique (NO), en raison de l'action de deux oxyde nitrique synthases calcium-dépendantes, avec le NO qui induit souvent dans les deux cas la production de péroxynitrite. 6. Tous deux se sont révélés être en mesure de stimuler la potentialisation à long terme, un processus dans le système nerveux central impliqué dans l'apprentissage et la mémoire en produisant une sensibilisation neurale. 1. Ce que l'on appelle le cycle NO/ONOO-, c’est-à-dire un cercle vicieux biochimique, essentiellement local, qui est initié par divers déclencheurs, y compris ceux qui agissent via l’augmentation de l'activité NMDA, et qui se propage lui-même au fil du temps. 2. Et un autre mécanisme connexe suggéré par le Dr Iris Bell et d'autres chercheurs pour son implication dans la MCS, à savoir la sensibilisation neurale causée par ce qui est connu sous le nom de potentialisation à long terme. Cela peut également impliquer l'activité du récepteur NMDA et d'autres mécanismes qui font partie du cycle NO/ONOO-. Le 1 et le 2 sont examinés en détail dans ma revue de toxicologie sur la MCS. L’exposition aux CEM, en activant les CCVD de type L devraient également être en mesure d’induire les deux mécanismes. Nous l'avons déjà dit, il existe des données sur le fait que les CCVD de type L peuvent initier la potentialisation à long terme, tout comme les récepteurs NMDA. De même, ils produisent de fortes augmentations des taux de calcium intracellulaire qui peuvent, avec leurs effets en aval, agir pour initier le cycle NO/ONOO-. En conséquence, dans le cerveau, l’EHS agit comme suit : Les CEM micro-ondes sont plus actifs en activant les CCVD dans certaines régions du cerveau que dans d'autres. Dans ces régions ou ils sont les plus actifs ils élèveront les taux de [Ca2+]i, d’oxyde nitrique et de péroxynitrite, démarrant le cycle NO/ONOO(-). Cela rendra cette zone plus sensible à une exposition supplémentaire car le cycle a déjà commencé, provoquant une plus grande sensibilité qu’auparavant. Cela stimulera également une potentialisation à long terme, faisant que les synapses deviennent hypersensibles. Vous avez donc encore une sensibilité supplémentaire. La protéine kinase C’est également stimulée par une exposition préalable et par le cycle NO/ONOO(-), ce qui fait que les CCVD sont encore plus sensibles à la stimulation. Sur : http://asthme-reality.com/manipulations/pages/brevetsons.htm (dont les scientifiques cités ont été vérifiés via le site : http://www.constitution.org/abus/mkt/uncom.htm#LIDAM : le site de CONSTITUTION.ORG qui nous accueille ainsi à sa HOME PAGE : Welcome to the CONSTITUTION SOCIETY : The Constitution Society is a private non-profit organization founded in 1994 and dedicated to research and public education on the principles of constitutional republican government. It publishes documentation, engages in litigation, and organizes local citizens groups to work for reform. La seule ressource scientifique comportant les recherches de Madame Eleanor WHITE disponible car le site RAVEN 1 a été supprimé ! Le sous-titre est : The State of Unclassified and Commercial Technology Capable of Some Electronic Mind Control Effects Eleanor White, P.Eng). Moyens technologiques de manipulation des masses Sons subliminaux : brevets Recherches et brevets sur les possibilités de faire entendre des sons autrement que par l'utilisation d'ondes sonores mécaniques et en faisant emprunter au son une autre voie que le système auditif. Comme par exemple les recherches de Allan Frey en 1962 et de Joseph Sharp en 1974 sur la transmission de sons qui semblent naître à l'intérieur du crâne en utilisant des micro-ondes ou des ultrasons. Plusieurs brevets décrivent ces possibilités. UN DES BREVETS existants, accordé à Wayne Brunkan le 31 octobre 1989 United States Patent 4,877,027 Brunkan Oct. 31, 1989 Système auditif, résumé : : Il est possible de transmettre du son dans la tête d’une personne en irradiant sa tête avec des micro-ondes à des niveaux de fréquences de 100 MHz à 10 000 MHz qui sont modulées pour former un type d’onde bien particulier. Cette onde prend la forme d’impulsions périodiques récurrentes de très courte durée modulées en fréquence. Chaque impulsion est faite de 10 à 20 pulsations également espacées et très rapprochées les unes des autres. La largeur de chaque impulsion se situe entre 500 nanosecondes et 100 microsecondes. La largeur de la pulsation se situe entre 10 nanosecondes et 1 microseconde. Les impulsions sont modulées en fréquence par l’information audible afin de créer l’impression d’entendre chez la personne dont la tête est irradiée. Inventeurs : Brunkan; Wayne B. (P.O. Box 2411, Goleta, CA 93118). N° de dossier : 202,679 Déposé : 6 juin, 1988 Classification internationale : A61N 5/00 Classification américaine actuelle : 607/56 Domaine de recherche : 128/420.5, 804, 419 R, 421, 422, 746; 381/68 Les recherches d'Allan H. Frey Réponse du système auditif humain à de l'énergie électromagnétique modulée par ALLAN H. FREY General Cornell Journal de Electric University, physiologie Advanced Ithaca, appliquée Electronics New 17(4): 689-692. Center York 1962. Ce document est destiné à attirer l’attention des physiologistes sur un nouveau phénomène. En utilisant des densités de puissance d’énergie électromagnétique extrêmement basse en moyenne, il a été possible d’induire la perception de sons chez des personnes normales ou sourdes. Cet effet était induit à plusieurs kilomètres de l’antenne dès l’instant où l’émetteur était allumé et est fonction de la fréquence de la porteuse et de la modulation. Il y a eu des tentatives de faire correspondre les sons induits par l’énergie électromagnétique avec ceux produits par l’énergie acoustique. Le meilleur résultat était obtenu quand l’amplificateur acoustique était commandé par le modulateur de l’émetteur de radiofréquences. La densité de puissance maximum est un facteur critique et si le bruit acoustique est d’à peu près 80 db, une densité de puissance maximum d’environ 275 mw / rf est nécessaire pour induire la perception à des fréquences porteuses de 125 mc et 1,310 mc (mégacycles). La densité de puissance moyenne peut se situer à un niveau de radiofréquences de l’ordre de 400 µ_w/cm2. Les différents endroits qui ont été prouvés positifs pour capter l’énergie électromagnétique sont analysés tandis que la périphérie de la cochlée est exclue. Reçu pour être publié le 29 septembre 1961 Des recherches approfondies ont été menées concernant les effets des radiofréquences (RF) sur les organismes (énergie électromagnétique entre 1 kc et ** Gc). En règle général, ces travaux concernaient l’évaluation des dommages découlant de l’augmentation de la température du corps. Les densités de puissance moyennes utilisées étaient de l’ordre de 0,1-t w/cm² pendant une période allant de plusieurs minutes jusqu’à plusieurs heures. En comparaison, en utilisant des densités de puissance moyenne mesurées en microwatts par cm², nous avons découvert que des effets ****r qui sont transients (ou transitoires), peuvent être induits avec des radiofréquences. De plus ces effets se produisent dès que l’émetteur est allumé. Avec la modulation appropriée, il est possible d’induire des sons chez les personnes sourdes comme chez les personnes normales, qu’elles se trouvent à quelques centimètres ou à plusieurs milliers de kilomètres de l’émetteur. Avec des paramètres de transmission quelques peu différents, vous pouvez induire la perception de coups brutaux à la tête, sans aucun autre symptôme vestibulaire manifeste tels que les étourdissements ou la nausée. En changeant et en diminuant encore les paramètres de l’émetteur, il est possible d’induire la sensation de fourmillements. Des recherches expérimentales avec ces phénomènes pourraient donner des informations sur le fonctionnement du système auditif et de façon plus générale sur les fonctions du système nerveux. Cette énergie pourrait être utilisée pour explorer les codes du système nerveux par exemple, en utilisant si possible les procédures Neider et Neff et pour stimuler le système nerveux sans occasionner les blessures dues aux électrodes. * = illisible sur l’original Transmettre Micro-ondes Laboratoires Veterans publié Journal Volume du et son : Dr. Joseph Sharp (traduction de l'article) comportement par le Dr. Don R. Justesen de neuropsychologie expérimentale Administration Hospital, Kansas City, Missouri dans of the 30, "The American March American Psychologist" Psychological Association 1975, Number 3 [Note d’Eleanor White, ingérnieur et consultante technique de l’association CAHRA : Cet article décrit en termes précis comment Dr. Joseph C. Sharp et son équipe ont transmis les mots correspondant aux nombres 1 à 10 en utilisant une version modulée de l’émetteur à micro-ondes pulsés d’Allan Frey, (description détaillée en anglais du dispositif de Frey] Page : 396 : La démonstration de la transformation en sons de l’énergie micro-ondes par des matériaux manquant d’eau diminue la probabilité qu’un principe thermohydraulique est à l’oeuvre dans la perception humaine de cette énergie. Cependant, une certaine forme de thermoacoustique accompagne probablement la perception. Si c’est le cas, il est clair que simplement chauffer n’est pas suffisant pour obtenir l’effet Frey, la nécessité d’avoir des radiations qui sont pulsées semble impliquer un principe thermodynamique. Frey et Messenger (1973) et Guy, Chou, Lin, et Christensen (1975) confirment qu’une impulsion micro-onde avec un temps de montée lent ne produit pas de réponse auditive; seulement si le temps de montée est court, avec pour résultat une onde de forme carré quant-au contour de l’enveloppe d’énergie de type radiofréquence émise, on obtiendra une réponse auditive. [Commentaire d’Eleanor White : voilà pourquoi nous „n’entendons pas“ les signaux des ondes radio ou télévisuelles ordinaires] Donc la fréquence de changement (la première dérivée) de la forme d’onde que prend l’impulsion est un facteur important de la perception. En se basant sur une interprétation thermodynamique, on pourrait déduire qu’une information peut être encodée dans cette énergie et "communiquée" à l’"auditeur." Ce type de communication a en fait été démontré. A. Guy, un télégraphiste doué, a mis au point pour son père, un télégraphiste de compagnie ferroviaire à la retraite, un système fonctionnant avec un interrupteur, dont l’ouverture ou la fermeture provoquait l’émission d’énergie micro-onde pulsée. En dirigeant les radiations vers sa propre tête, des messages complexes en morse ont été facilement reçus par Guy. Sharp et Grove ont découvert que moduler de l’énergie micro-onde de façon appropriée peut permettre de communiquer de la parole sans utiliser de "câble" ou de "récepteur." Ils enregistrèrent oralement sur une cassette chacune des syllabes anglaises correspondant aux chiffres entre un et 10. Les analogues électriques sous forme d’ondse sinusoïdales de chacun des mots ont ensuite été traités afin que chaque fois qu’une onde sinusoïdale traversait la référence zéro vers le moins, cela déclenchait l’émission d’une brève impulsion d’énergie micro-onde. [Commentaire d’Eleanor White : Ceci est en fait une forme de ce que l’on appelle la modulation de l’impulsion en vitesse]. En s’irradiant eux-mêmes avec ces micro-ondes "modulées en voix," Sharp et Grove ont facilement été capables d’entendre, d’identifier et de distinguer les 9 mots. Les sons entendus étaient relativement similaires à ceux émis par une personne avec un larynx artificiel. La communication de mots plus complexes et de phrases n’a pas été tentée car la densité moyenne d’énergie nécessaire pour transmettre des messages plus longs aurait approchait les 10 milliwatt par cm² considérés actuellement comme la limite d’exposition à ne pas dépasser. La capacité de communiquer directement avec un être humain par "radio sans récepteur" offre des perspectives prometteuses à la fois au sein de la clinique et à l’extérieur. Mais la question controversée et pas encore résolue de la quantité de radiations micro-ondes à laquelle un être humain peut être exposé sans craindre pour sa santé va probablement devancer les applications de ce type de communication dans un proche avenir. Résumé des premières découvertes en sciences civiles et citations diverses sur le sujet : En 1973 Dr Gerald Oster a découvert un phénomène particulier à l'école de Médecine du Mont Sinai à New York. Dr Oster avait étudié les effets des ondes sonores sur le cerveau. Il a découvert que faire entendre grâce à des écouteurs, deux tonalités différentes séparément à chaque oreille, faisait émettre le cerveau à une fréquence obtenue en faisant la différence entre les deux tonalités, par exemple si l'oreille gauche reçoit une fréquence de 400Hz et l'oreille droite une fréquence de 406Hz on trouvera une activité dominante de 6Hz sur l’EEG (electroencéphalogramme). Il a appelé ce phénomène : battements binauraux. Robert Monroe, fondateur de l'Institut Monroe des sciences appliquées en Virginie, a mené d’autres études sur ces phénomènes et a découvert des combinaisons particulières de tonalités et fréquences qui produisent des effets spécifiques chez l'homme. Sur les milliers de combinaisons de fréquences possibles qui pourraient être reproduites, Monroe et son équipe en ont sélectionné cinquante trois qui avaient des effets très positifs sur le cerveau. Monroe a fait breveter ce procédé en 1975, en l’appelant RAF Réponse d’Adoption de Fréquence ou FFR (Frequency Following Response). Monroe a également développé une série de cassettes, utilisant les combinaisons de fréquences que lui et son équipe ont découvertes. Il a appelé la série HemiSync, pour Synchronisation des Hémisphères. Brevet US 5,159,703 : Procédé pour effectuer des présentations subliminales silencieuses: ”Silent subliminal presentation system”, brevet accordé par l’Office des brevets américains United States Patent n° 5,159,703 Lowery 27 octobre 1992 Résumé : Système de communication silencieux, où l’onde porteuse non audible, utilisant une gamme de fréquences très élevées ou très basses ou bien le spectre adjacent des ultrasons, voit son amplitude ou fréquence modulée en fonction de l’information à transmettre et propagée par voie acoustique ou vibratoire pour transmission dans le cerveau généralement par l’intermédiaire de haut-parleurs, écouteurs ou transducteurs piézoélectriques. Les ondes porteuses modulées peuvent être transmises directement en temps réel ou bien peuvent être enregistrées et conservées très facilement sur des supports mécaniques, magnétiques ou optiques pour une transmission tardive ou répétée à l’auditeur. Inventeurs : Lowery; Oliver M. (5188 Falconwood Ct., Norcross, GA 30071) No du dossier : 458339 Déposé : 28 décembre 1989 Brevet US 5,213,562 : Méthode pour induire des états de conscience mentaux, émotionnels et physiques, ainsi qu’une activité mentale spécifique chez les êtres humains . United States Patent n° 5,213,562 Monroe 25 mai 1993 Résumé : Une méthode dont les types d’applications concerne la reproduction d’états de conscience souhaités; la formation d’un individu à reproduire un tel état de conscience sans autre stimulation sonore; et le transfert de tels états d'un être humain vers un autre en imposant à un individu l’EEG d’une autre personne superposé aux signaux stéréo désirés, qui déclencheront le phénomène du battement binaural. Inventeurs: Monroe; Robert A. (Nelson County, VA) cédé à : Interstate Industries Inc. (Faber, VA) No. de dossier: 514460 déposé le : 25 avril 1990 Méthode et dispositif pour induire les états de conscience souhaités, brevet accordé par l’Office des brevets américains United States Patent n° 5,356,368 Monroe 18 octobre 1994 Résumé : Méthodes améliorées et dispositif destinés à entraîner le cerveau à adpoter un modèle d’activité cérébrale. Utilise la Réponse d’Adoption de Fréquence (RAF ou FFR Frequency Following Response) et facilite l’obtention de l’état de conscience souhaité. Dans l’un des cas, une grande variété de formes d’ondes d’un électroencéphalogramme (EEG), spécifiques à un état de conscience donné, sont combinées pour produire une forme d’onde d’EEG à laquelle les sujets seront peutêtre plus facilement susceptibles. Dans un autre cas, des modèles d’activités correspondant au sommeil sont reproduits en copiant des périodes d'activités cérébrales types, observées au cours de portions d’un même cycle de sommeil; les principes de la synchronisation du cerveau sont appliqués pour induire le sommeil. Dans un cas supplémentaire, les principes de la synchronisation du cerveau sont appliqués au milieu du travail afin d’induire et de maintenir le niveau souhaité de conscience. Un dispositif portatif est également décrit. Inventeurs: Monroe; Robert A. (Nelson County, VA) cédé à : Interstate Industries Inc. (Faber, VA) No. de dossier: 664176 Déposé : 1er mars 1991 Sur : http://asthme-reality.com/manipulations/pages/ultrasons.htm Moyens technologiques de manipulation des masses Ultra-sons subliminaux : les applications commercialisées "L'air qui engendre un son parfait" dans l'hebdomadaire scientifique "New Scientist" du 7 septembre 1996 par Gary Eastwood : Un dispositif musical qui semble faire surgir le son de nul part pourrait remplacer les technologies de sonorisation conventionnelles, disent ses réalisateurs. Le dispositif prototype n'a pas de haut-parleurs conventionnels. Au lieu de cela il se base sur les ondes des ultrasons pour créer un hologramme sonore ou des schémas d'interférences en plein air. Cette technologie pourra servir aussi bien comme système de sonorisation amélioré que, une fois adapté, pour des applications dans le domaine du contrôle des foules. Le système pourrait cibler des individus désignés avec de puissantes ondes sonores à basses fréquences qui sont temporairement incapacitantes pour les êtres humains. "American Technology Corporation" (ATC) à Poway, en Californie, a développé ce prototype, c’est le responsable en chef du Département Technologie de la compagnie, Elwood Norris qui est à l’origine de l’idée. La Société dévoilera le prototype aux USA ce mois-ci (septembre 1997) et espère commercialiser les premières versions d’ici un an. Le système émet deux ultrasons de fréquences différentes. Chaque ensemble d’ondes est à une fréquence trop élevée pour être entendu, mais à l’endroit où ces ondes se croisent ou interfèrent, elles produisent du son audible. L'effet équivaut à „générer des oscillations électriques de type hétérodyne pour entraîner un changement de fréquence des ondes acoustiques“ (ou "acoustique hétérodyne") et se base sur le phénomène dit de Tartini, ou différence de tonalité. Au 18ème siècle, le compositeur italien Guiseppe Tartini a remarqué que deux ondes sonores de fréquences différentes qui se croisent produiront un troisième son, dont la fréquence est la différence entre les deux. Ce phénomène "d’acoustique hétérodyne“ se produit aussi avec les ultrasons. Deux ultrasons aux fréquences trop élevées pour être audibles, telles que 200 kilohertz et 201 kilohertz, produiront un son audible de 1 kilohertz. Les ultrasons du prototype sont produits par des cristaux piézoélectriques, ou des transducteurs. Une tension oscillante transmise aux cristaux les fait vibrer de façon similaire à celle d’un haut-parleur. Un cristal émet un signal fixe de 100-kilohertz, alors que le signal de l’autre cristal varie entre 100 kilohertz et 120 kilohertz. Ceci produit des différences de tonalités entre 0 hertz et 20 kilohertz, ce qui couvre toute la gamme de l'audition humaine." "La sensation est vraiment stupéfiante," dit Norris. "Si vous dirigez le son en direction d’un mur, toutes les personnes dune salle comble indiqueront le même endroit comme point de départ de ce son. Vous pouvez alors déplacer le son vers le centre de la salle et le projeter au-dessus des têtes de l’assistance." Le système produit du son indirectement, ce qui devrait éliminer la distorsion normale provoquée par les haut-parleurs, dit Norris. Il pense que cela pourrait améliorer les téléphones et les appareils auditifs, et permettre des effets sonores supplémentaires dans les salles de cinéma. La source sonore mobile pourrait être employée pour représenter, par exemple, le passage d’un avion à réaction au-dessus des têtes des spectateurs. Il n'y a pas de raison pour que cela ne fonctionne pas," dit Peter Fryer, responsable de la recherche de B&W Loudspeakers à Steyning, dans le Sussex. "Mais les hautes fréquences peuvent être si élevées que les ondes risquent de ne pas se propager très loin, l’air les absorbant. Seuls les essais permettront de prouver l’efficacité du système." Le système pourrait également avoir des applications dans le contrôle des foules. Des sons puissants et de basses fréquences peuvent provoquer désorientation et nausées. Dans les années 60, les USA ont essayé sans succès d'utiliser les infrasons à partir d’hélicoptères pour mettre les soldats ennemis hors de combat dans la jungle vietnamienne. Mais les sources sonores nécessaires étaient si puissantes que les secousses ont presque démonté l'avion, et la majeure partie du son a été absorbée par ceux qui étaient proches des haut-parleurs. Selon Norris, l’acoustique hétérodyne permet de viser très exactement un individu jusqu'à une distance de 200 ou 300 mètres en plaçant la zone d'interférence correctement. L'Audio-projecteur : Le son projeté comme la lumière : Tout comme un rayon de lumière ou un laser peut éclairer un point précis, ”l’audioprojecteur” peut ‘’sonoriser’’ avec un faisceau de son projeté dans l’air. C’est un jeune chercheur américain du MediaLab qui a inventé cet appareil capable de défier les lois de l’acoustique. Joseph Pompéii est un surdoué qui a été embauché comme acousticien à 16 ans par la société Bose. Mais personne ne croyait à son idée de projection du son, jusqu’à ce qu’il aille frapper à la porte du fameux laboratoire du Massachusset Institute of Technology, le MediaLab. Spécialisé dans l’innovation, ce laboratoire a donné à Joseph Pompéii les moyens de mener ses recherches. Et le résultat est là : un boîtier relié à une sorte de galette de matériau composite noir permet de braquer le son comme un laser. L’audioprojecteur convertit un rayon d’ultrasons en un faisceau étroit de son en utilisant les capacités de résonance de l’air. Comme l’explique l’inventeur, ce faisceau est au haut-parleur ce que le laser est à l’ampoule. On entend le son lorsqu’on traverse le faisceau, le reste de la pièce est silencieux. L’appareil peut projeter un son de 80 à 90 décibels jusqu’à 200 mètres. Il ne s’agit pas de remplacer les enceintes pour l’usage quotidien mais on imagine déjà de multiples applications pour des spectacles, des expositions ou des grandes surfaces. L’armée américaine s’y intéresse aussi. Maintenant il est possible d'avoir du son pour un usage personnel sans qu'aucun équipement ne protège nos oreilles. M. Pompeii reçoit des lettres et des emails en provenance du monde entier de la part de gens convaincus que son audioprojecteur est utilisé dans leur cas comme dispositif de contrôle des esprits ("mind control"). Absolument pas, dit-il en riant. Mais M. Pompeii aime trop s'amuser pour ne pas faire quelques traits d'esprit de son invention. Se tenir sur le balcon de son bureau du 4ième étage et émettre le son de verres qui se brisent en direction des traiteurs en bas est l'un de ses favoris. Les traiteurs décontenancés s'arrêtent presque toujours pour regarder au sol. Finalement ils lèvent les yeux ou ils nous entendent rire dit-il. Maintenant les traiteurs ont l'habitude. Les gens ont écrit à M. Pompeii en demandant des dispositifs pour les protéger des utilisations insidieuses de l'audio-projecteur à des fins de contrôle des esprits. Il a joué avec l'idée de vendre des bouchons d'oreilles "audio-projecteur" sur son site Internet pour satisfaire la demande. Bien sûr, comme les sons audibles produits par son dispositif sont des ondes sonores normales, le produit serait tout simplement des bouchons ordinaires ornés de son logo. Mais si cela peut tranquilliser les gens, cela en vaut peut être la peine. Et comme bien expliqué reality.com/manipulations/index.htm sur le site : http://asthme- On appelle "techniques de manipulation des masses", l'ensemble des moyens d'influence permettant la manipulation de l'opinion publique à des fins politiques, économiques ou stratégiques. Selon Gurdieff, l'homme ordinaire est constamment dans un état d'inconscience analogue au sommeil, il n'est qu'une machine qui ne contrôle ni ses actes ni ses pensées. Pour s'éveiller, il faut comprendre que l'on ne sait rien de soi-même et que le rappel de soi est la première étape vers le véritable éveil. Gurdieff classe les hommes en quatre groupes : -le cercle intérieur qui réunit les humains éveillés -le cercle mésotérique qui regroupe les humains "théoriquement" éveillés -le cercle exotérique qui regroupe les humains qui se réveillent -le cercle extérieur qui regroupe les humains endormis Contre-mesures Les règles d'Alynski : En 1970, Saul Alynski, provocateur hippy, publiait un manuel énonçant des règles tactiques pour survivre en société ou pour la combattre : - le pouvoir n'est pas ce que l'on a mais ce que les autres croient que l'on a - il faut sortir du champ d'expérience de son adversaire, il faut inventer de nouveaux terrains de lutte - il faut combattre son ennemi avec ses propres armes. Utiliser les éléments de son propre livre de référence pour l'attaquer - l'humour est l'arme la plus efficace, si on ridiculise ou si on pousse son adversaire à se ridiculiser, il lui est plus difficile de se battre une tactique ne doit jamais devenir une routine il faut maintenir l'adversaire en état de défense - ne jamais bluffer si on n'est pas capable de passer aux actes les handicaps apparents peuvent devenir des atouts - si l'on obtient la victoire, il faut être capable de l'assurer et d'occuper le terrain durablement. Sinon, il vaut mieux abandonner - il faut focaliser sa cible et ne plus en changer durant la bataille. Ne jamais courir deux lièvres à la fois. ALORS MOI JE DIS LA LUTTE OK DONC FAITES DE LA MUSIQUE POUR LUTTER CONTRE LEUR MUSIQUE PROGRAMMANT VOTRE MORT ET MEFIEZVOUS DES PROGRAMMATIONS HERTZIENNES FACON : PORN-STARS OU AUTRES VASTES PRODUCTIONS TELEVISUELLES DONC AUDIOVISUELLES : PRODUITES PAR DES OPERATEURS MOBILES TOUS PATRONS DE TV, RADIOS, MAGAZINES ( !!!) COTES AU CAC 40 ET AUX AMIS DE PETITE TAILLE MAIS AU HAUT POUVOIR POLITIQUE BLING-BLING ET AVEC LE CONCOURS DE STARS TRES VISUELLES OU FABRIQUEES PAR LA TELE QUI ARBORENT SOUVENT UN LOOK DE TOUTE BEAUTE TELLES DES MANNEQUINS ….ARTICULES ET EN KITS CAR REFAITS DE LA TETE AUX PIEDS ! A BONS ENTENDEURS SALE-UT !!!