PETIT MANUEL EXPLICATIF DE LA ... TERRORISME SMALL EXPLANATORY MANUAL ON THE SILENT TERRORISM « FABRIC »

publicité
PETIT MANUEL EXPLICATIF DE LA FABRIQUE SILENCIEUSE DU
TERRORISME
SMALL EXPLANATORY MANUAL ON THE SILENT TERRORISM « FABRIC »
Selon le Dictionnaire de musique de Jean-Jacques ROUSSEAU, M. DCC. LXVIII. à
la page 477, l’expérience qui suit sert de principe à toute Harmonie Artificielle et est
tirée du Système de Giuseppe TARTINI 1692-1770 :
« Toutes les fois que deux sons forts, justes et soutenus, se font entendre au même
instant, il résulte de leur choc un troisième son plus ou moins sensible, à proportion
de la simplicité du rapport des deux premiers et de la finesse d’oreille des
écoutants. »
Sur le site de : www.universalis.fr/encyclopedie, on retrouve une explication de ce
phénomène dit de Giuseppe TARTINI, au registre des OTO-EMISSIONS
ACOUSTIQUES :
« Dès 1714, Giuseppe Tartini découvrait, par une méthode psycho-acoustique, que
lorsqu'il écoutait deux sons purs, de fréquences proches, émis simultanément, il
entendait un troisième son. »
Sur le site de Wikipedia.fr au registre de L’OTO-EMISSION ACOUSTIQUE, il est dit :
« Les oto-émissions acoustiques sont des vibrations de nature sonore générées
par les mouvements des cellules ciliées externes, situées le long de la membrane
basilaire cochléaire. Phénomène prédit en 1948 par Thomas Gold, sa démonstration
expérimentale a été réalisée par le physicien David Kemp en 1978 grâce au
perfectionnement micros ultrasensibles. »
Avec pour mécanisme :
« Quand un son atteint l’oreille, il passe par le pavillon et finit dans la cochlée qui
joue le rôle d'amplificateur : les cellules ciliées stimulées par l’onde acoustique
génèrent à leur tour un son très faible qui sort de l’oreille. »
Sur le site de www.coclhea.eu, au registre des OTO-EMISSIONS ACOUSTIQUES, il
est dit :
« Découvertes "prématurément" en 1978 (Kemp), les oto-émissions acoustiques
(OEAs) ont été mieux interprétées quelques années plus tard, à la lumière des
avancées sur les mécanismes actifs et les propriétés électromotiles des céllules
cliliées externes (CCEs) dont elles sont en fait le reflet. En plaçant une sonde dans
le conduit auditif externe, on peut enregistrer une réponse acoustique après une
stimulation (oto-émissions provoquées), ou même, dans certains cas, une émission
spontanée. »
Sur le site de www.universalis.fr/encyclopedie, il est précisé que :
« Les oto-émissions provoquées, contrairement aux oto-émissions spontanées,
n'apparaissent que lorsque l'oreille est stimulée par ce qu'on appelle communément
un clic, un son bref et de large spectre. »
Sur : http://www.cochlea.eu/son/psychoacoustique
« Si on fait entendre sur une même oreille un son complexe composé de deux sons
purs de fréquences différentes mais proches, la sonie reste la même tant que l’écart
entre ces deux fréquences est inférieur à la largeur de la bande critique ; dès que cet
écart dépasse la largeur de la bande critique, la sonie augmente. »
Sur : http://www.minidisc.org/French_tech/section1.html
La sensibilité de notre organe auditif n'est pas linéaire, elle varie en fonction de la
fréquence (20-20 000 Hz) et du niveau sonore. L'oreille possède un maximum de
sensibilité pour des fréquences comprises entre 2 et 5 kHz (pointe à 4 kHz). De ce
fait, deux sons de fréquence différentes et de même intensité peuvent provoquer
une sensation de force sonore différente (ou une sonie différente). L'expression de
la sonie se définit en sones, où un sone représente une sensation de force sonore
équivalente de 40 dB à 1 kHz. En fonction de la sonie et de la fréquence, le
comportement de notre oreille varie et des phénomènes de masquage
apparaissent.
On parle de masquage quand un son est rendu inaudible par un autre. Il existe
plusieurs sortes d'effets de masque. Tout d'abord le plus connu, celui que l'on peut
expérimenter tous les jours en discutant avec une personne pendant qu'un train
passe à proximité, c'est-à-dire le masquage simultané ou fréquentiel. Il intervient
lorsque le cerveau doit analyser deux modulations dont la fréquence et l'amplitude
sont proches.
Il existe également un masquage appelé "effet de précédence" (ou effet de Haas)
qui apparaît lorsque le signal masqué est émis après le signal masquant. Enfin, un
son masqué émis avant le signal masquant est un masquage de postériorité.
Le masquage de postériorité et l'effet de précédence sont des masquages
temporels. On peut constater que l'effet de Haas est beaucoup plus "tolérant" que
le masquage de postériorité. Un son théoriquement masqué étant émis plus de 2 ou
3 ms avant le son soit disant masquant, devient un pré-écho audible et gênant
tandis que dans le cas du masquage par précédence, une fois le son masquant
émis, le son masqué le reste tant qu'il survient dans les 20 ms (environ) qui suivent
l'émission du son masquant. Ces valeurs ne sont cependant valables que pour des
impulsions très brèves, du type transitoires. Pour des durées supérieures, le
phénomène n'est plus le même.
Un sujet est soumis à un son pur (dans ce cas 1 kHz à 60 dB) et doit se manifester
lorsqu'il perçoit un autre son pur‚ de fréquence différente ou voisine. On constate
que le seuil d'audition absolu est alors "relevé". En effet, au voisinage de 1 kHz, il
faut augmenter de façon considérable le niveau de… ‚ pour que le sujet l'entende. Il
est important de noter que le phénomène est d'autant plus perceptible lorsqu'on
dépasse la fréquence du son masquant, à savoir 1 kHz. Ceci souligne en fait le
comportement de notre oreille interne, notamment la membrane basilaire, à
l'intérieur de laquelle les sons graves ont tendance à masquer les sons aigus, ce qui
explique la dissymétrie du parcours de… ‚ autour de…. Grâce à ce test, nous
avons pu constater qu'il y a une grande partie du spectre qui n'est pas perçue
par l'oreille.
Sur : http://www.sebsite.org/article.php3?id_article=22 relatif à la compression
ATRAC (Adaptive Transform Acoustic Coding) pour MiniDisc :
En effet, l'oreille analyse le spectre audio en le découpant en bandes dites
critiques. Dans chacune de ces bandes (dont la largeur varie en fonction de la
précision de l'oreille à ces fréquences et non de la largeur de la courbe de masking),
l'oreille assimile les fréquences et ne les différencie plus. Ces bandes correspondent
d'ailleurs à la répartition des cellules ciliées dans l'oreille interne.
Suite : http://www.minidisc.org/French_tech/section1.html
La théorie des bandes critiques est née de la découverte du phénomène décrit cidessus. Elle vient de l'idée que notre oreille intègre les sons par tranches de
fréquences appelées sous-bandes. Nous avons en effet pu constater que pour
entendre le son ‚ au voisinage de..., il fallait fournir beaucoup plus de niveau chez… ‚
par rapport au seuil d'audition. Le phénomène observé n'est pas linéaire: selon la
fréquence mise en cause, la largeur de ces bandes critiques varie.
Bande
Fréquence (Hz)
Bande
Fréquence (Hz)
Critique
Basse
Haute
Largeur
Critique
Basse
Haute
Largeur
0
0
100
100
13
2000
2320
320
1
100
200
100
14
2320
2700
380
2
200
300
100
15
2700
3150
450
3
300
400
100
16
3150
3700
550
4
400
510
110
17
3700
4400
700
5
510
630
120
18
4400
5300
900
6
630
770
140
19
5300
6400
1100
7
770
920
150
20
6400
7700
1300
8
920
1080
160
21
7700
9500
1800
9
1080
1270
190
22
9500
12000
2500
10
1270
1480
210
23
12000
15500
3500
11
1480
1720
240
24
15500
22050
6550
12
1720
2000
280
Sur : http://www.audiosonica.com/fr/cours/post/23/Perception_du_son_Effet_Haas
On appelle effet Haas un certain phénomène physique qui concerne la perception du
son par le cerveau. Prenons en considération le cas d'un son produit par une source
sonore, et imaginons que nous nous trouvons dans une pièce et que nous sommes
placés à une certaine distance de la source même. En raison des réflexions du son
sur les parois, c'est avant tout le signal provenant directement de la source qui nous
parviendra et, dans un deuxième temps, celui produit par les réflexions du signal
même, sur les parois de la pièce. Ce retard est dû au fait que le son reflété traverse
un parcours plus long que le signal direct. Si les deux signaux parviennent avec un
léger retard l'un par rapport à l'autre, le cerveau perçoit un son unique provenant
d'une seule direction.
La direction perçue par le cerveau comme la direction de provenance du son est
celle de l'onde qui arrive la première (ceci est valable même si l'intensité de la
seconde onde est supérieure à la première). C'est pour cette raison que cet effet
prend le nom d'effet de précédence. Cet effet se produit quand le retard entre les
deux signaux est suffisamment court, plus précisément il ne doit pas dépasser les
30-35 ms. Cet intervalle temporel est ainsi défini zone de Haas:
Équation 2.2. zone de Haas
[0 - 35ms]
Quand le retard entre les signaux sort de la zone de Haas, on avertit deux signaux
distincts et nous entrons dans le cas de l'effet écho, où l'auditeur perçoit les deux
sons comme s'ils étaient distincts.
D’après un document PDF intitulé La Psychoacoustique.pdf du :
http://cnr.annecy.regie.free.fr/cours/La%20Psychoacoustique.pdf
L'oreille interne
L'oreille interne ou labyrinthe, séparée de l'oreille moyenne par la fenêtre ovale, est
un ensemble complexe de cavités osseuses, creusées dans l'os mastoïde et
remplies de divers liquides. Elle est le siège de l'organe transducteur de l'audition.
Son mécanisme est si complexe qu’on n’en connaît pas le fonctionnement exact et il
est toujours un sujet d'études.
La cochlée ou limaçon est une cavité spiralée contenant des liquides qui vont
transmettre les vibrations provenant du tympan. Elle contient l'organe transducteur
mécanique-neuronal : l'organe de Corti, fixé sur la membrane basilaire, est constitué
d'environ 16 000 cellules, appelées cellules ciliées ; ces capteurs essentiels ont la
propriété d’être sensibles aux micromouvements mécaniques de la membrane
tectoriale par le moyen d’un cil (d’où leur nom) et transmettent ainsi l’information
sonore sous forme d’impulsions électriques au nerf auditif. Elles sont disposées sur
quatre rangées le long de toute la membrane basilaire.
Les cellules internes transmettent une information électrochimique aux fibres
nerveuses du nerf auditif rejoignant le cerveau. Elles sont dites afférentes par
rapport au cerveau : privées de ces cellules, tout en conservant les externes, par
exemple lors des traumatismes sonores qui détruisent les cils de ces cellules, nous
devenons sourds. Celles-ci ont donc une valeur essentiellement sensorielle.
Les cellules externes sont liées à des fibres descendantes venant du cerveau.
Contractiles et adaptatrices, elles font partie du système efférent du cerveau.
Leur altération par l’âge compromet l’intelligibilité du langage. Situées en plusieurs
rangées, leur rôle est de se contracter en fonction d’une fréquence reçue, c’est à
dire que pour telle zone de la membrane basilaire, tel ensemble de fibres est activé.
Celles-ci, représentant 5% de fibres non myélinisées, sont donc en nombre infime
mais elles ont un rôle considérable, c’est à dire un rôle adaptateur, à la
manière d'un pré-ampli vis-à-vis du son plus ou moins organisé, qui a subi un
premier acheminement via le cerveau. Elles peuvent aussi affaiblir un son,
l’amortir, si celui- ci est d’une intensité trop forte ou s’il se situe dans des
fréquences trop graves. Cette mobilisation répond à une fréquence particulière
selon le lieu de la membrane basilaire envisagé (tonotopie). Les fréquences aigues
feraient plutôt réagir les cellules ciliées placées à la base de la membrane basilaire,
c’est-à-dire près de la fenêtre ovale, tandis que les fréquences aigues exciteraient
plutôt les cellules placées au bout.
1. Les cellules ciliées internes 2. Les trois rangées de cellules ciliées externes 3.
Fibres nerveuses
Schéma de la cochlée montrant, sur la partie gauche les cellules ciliées internes (1)
sur une seule rangée et sur la partie droite, les cellules ciliées externes (2) sur trois
rangées. Les autres cellules sont des cellules de soutien
Ce qui circule sur les fibres du nerf optique ne ressemble pas du tout aux
vibrations.... Sans en dire plus, les axones auditifs rejoignent les premières aires
auditives du cerveau dans lesquels il y a concurrence avec des axones venant de
nombreuses autres régions...
La localisation latérale est un des principaux critères entrant en considération dans
la perception de l’espace sonore. Nous emploierons ici le terme localisation pour
désigner la faculté d’évaluer la position d’une source sonore dans l’espace d’un point
de vue angulaire, sans prendre en compte l’impression de distance. La précision de
la localisation sonore est remarquable : dans le plan frontal, l’angle minimum audible
est de 2° (Mills 1958), et ce, particulièrement pour des sons brefs ou présents dans
un environnement bruyant ou très réverbérant.
Les paramètres les plus significatifs pour la localisation de sons dans le plan
horizontal dépendent de la comparaison des signaux arrivant aux deux oreilles. On
parle alors de localisation binaurale. Considérons une source sonore placée d’un
côté de la tête. Le son parvenant à l’oreille la plus éloignée arrivera plus tard et avec
une intensité moindre que celui arrivant à l’oreille la plus proche. Cette constatation
simple permet d’ores et déjà de distinguer les deux principales façons que nous
avons de localiser une source sonore :
-la différence interaurale de temps (ITD)
-la différence interaurale d’intensité (ILD)
Cependant du fait de la nature ondulatoire des sons, ces deux moyens ne sont pas
d’une égale efficacité pour toutes les fréquences. En effet, les sons basses
fréquences ont une longueur d’onde grande par rapport à la taille de la tête qui ne
représente donc pas un obstacle à la progression du son. Au contraire, dans les
hautes fréquences, là où la longueur d’onde est très petite, la tête constituera un
écran.
En 1907, John Strutt, plus connu sous le nom de Lord Rayleigh, développe sur
ces bases sa « duplex théorie », confirmée et affinée par la suite par Mills et
Woodworth. Cette théorie met en évidence l’importance des disparités binaurales en
précisant le rôle des différences de temps (ITD) et d’intensité (ILD) en fonction d’une
échelle fréquentielle. L’idée de cette théorie est que ILD et ITD sont
complémentaires ; les différences de temps ne procurent des résultats utilisables
que pour des fréquences inférieures à 1500 Hz (ce qui correspond à une longueur
d’onde d’environ 23 cm, proche de la distance interaurale), alors que les différences
d’intensité sont les plus importantes dans les hautes fréquences, au-dessus de 1500
Hz et peuvent atteindre jusqu’à 20 dB.
Alors que les principaux indices de la localisation dans le plan horizontal sont
binauraux, ceux concernant la sensation d’élévation sont souvent dits monauraux.
En effet, dans le plan médian, les différences interaurales sont inexistantes et le
repérage spatial s’en voit considérablement affecté ; l’incertitude de localisation peut
aller jusqu’à 20° (Damaske 1969) dans le cas d’une source sonore placée juste audessus de la tête. De plus la direction perçue ne correspond pas forcément avec
l’incidence réelle de la source.
En réalité Blauert en 1970 et Château en 1995 ont remarqué que le système auditif
semblait localiser la source émise dans une direction imposée par le spectre de son
signal. Ainsi « la sensation de direction dans le plan vertical est déterminée par les
zones spectrales ou le signal possède le maximum de son énergie ; s’il se trouve
que le signal est un son pur, ou à spectre étroit, il peut être localisé dans une
direction tout autre que sa direction réelle » (Canévet).
La localisation hors du plan horizontal est en fait basé en grande partie sur le
codage induit par la géométrie de l’oreille externe, la tête et le torse qui provoquent
un filtrage lié à des phénomènes de diffraction et d’interférences permettant au
cerveau de localiser le son en soustrayant la fonction de transfert de la dégradation
au message sonore. Cela suppose évidemment que le son est déjà connu et
mémorisé par le cerveau. Ce filtrage qui dépend à la fois de la direction et de la
distance de la source est appelé HRTF pour Head Related Transfert Fonction et
son équivalent dans l’échelle temporelle est nommé HRIR pour Head Related
Impulse Response.
L’effet acoustique du pavillon est basé sur des phénomènes variés tels que
réflexions, masquage, dispersion, diffraction, interférences et résonances. En fait, il
fonctionne exactement comme un filtre car il est constitué comme un système de
réflecteurs multiples. La combinaison résultante des ondes directes et réfléchies va
dépendre des différentes valeurs de retard induit par le pavillon, et donc, de
l’incidence primaire de l’onde sonore. Pour des retards faibles, le signal retardé
introduit une atténuation des hautes fréquences, tandis que pour les retards
plus grands on observe un filtrage en peigne. Ces déformations spectrales ne
sont pas perçues par le système auditif comme des modifications de timbre, mais
bien comme des changements de direction d’un même signal.
Aux basses fréquences les signaux arrivent en phase alors qu’aux hautes
fréquences le signal retardé par la réflexion est déphasé par rapport au signal
direct, ce qui engendre des interférences destructives. Lorsque la différence de
marche est égale à la moitié de la longueur d’onde, l’interférence est maximale et
provoque un «décrochage» fréquentiel (trou visible vers 10 kHz sur la fig. 6) compris
généralement entre 6 et 16 kHz.
D’autre part, le pavillon est un meilleur réflecteur pour les sons venant de devant que
pour ceux venant de l’arrière, du fait même de leur forme et de leur position tournée
vers l’avant. C’est pourquoi le « trou » est plus prononcé pour des sons venant de
l’avant.
De plus, la différence de marche change avec l’élévation donc la taille et la
fréquence centrale du « trou » changent selon le placement de la source. À tout cela
s’ajoutent encore les diffractions sur le torse et la tête.
Ainsi les indices de localisation permettant de percevoir l’azimut et l’élévation d’une
source sonore sont contenus dans une paire de HRTFs correspondante. À chaque
HRTF correspond une incidence que l’auditeur a acquise au cours de ses
expériences. Par conséquent chaque individu possède une carte unique et
personnelle de toutes les fonctions de transfert. Les nombreuses mesures
effectuées jusqu’à aujourd’hui montrent que les différences entre individus
sont plus prononcées pour les autre que pour les différences interaurales de
temps : en effet les morphologies de l’oreille notamment peuvent être très
différentes alors que la distance interaurale reste presque constante. Il est
amusant de noter que, suite à des expériences, on a pu constater que chez les
sujets possédants des grandes oreilles, les variations du « décrochage » se situaient
plus bas fréquentiellement que chez les autres sujets.
La performance dans la précision directionnelle de notre système auditif dépend
généralement de la largeur de la bande spectrale de la source sonore. Plus cette
bande sera étendue, plus la direction de l'évènement auditif, c'est-à-dire notre
interprétation perceptuelle de la source sonore, correspondra à la direction réelle de
la source sonore. Ainsi, les sons complexes couvrant plusieurs octaves, et
ayant des enveloppes aux attaques rapides, seront toujours aisément
localisables. Par leurs caractéristiques, ces sons font appel à la différence
interaurale de temps, la différence interaurale d'intensité et aux modifications du
pavillon de l'oreille pour permettre la localisation. Cette conjugaison des
mécanismes apporte une redondance des indices de localisation et crée un
évènement auditif dont la correspondance spatiale avec la source sonore originale
est très élevée. Par contre, pour les sons simples comme une onde sinusoïdale
sans attaque précise, un seul mécanisme de localisation sera sollicité.
L'absence de redondance dans les indices de localisation contribuera à
augmenter l'impression résiduelle de localisation, le flou de localisation, de
l'évènement auditif par rapport à la source originale.
Le flou de localisation n'est pas uniforme sur toute la sphère de perception et varie
en fonction des mécanismes de localisation qui sont sollicités. La localisation dans le
plan horizontal fait appel à la différence interaurale de temps et à la différence
interaurale d'intensité. Mesuré avec des impulsions de bruit blanc de durée 100 ms,
le flou de localisation dans le plan horizontal est de 8° pour une source placée
devant l'auditeur, de 20° pour une source face aux oreilles et de 11° pour une source
placée derrière l'auditeur. Le flou de localisation variera de façon graduelle et
continue entre ces azimuts.
On peut s'attendre à ce que le flou de localisation dans le plan médian, où seules les
modifications apportées par les fonctions de transfert donnent l'information
nécessaire, soit plus grand que dans le plan horizontal. Comme le mentionne
Blauert, l'expérience auditive préalable des sujets devrait alors jouer un rôle
important dans la diminution du flou de localisation dans le plan médian. Cela a
effectivement été vérifié. Mesuré avec la voix d'une personne connue comme source
sonore, le flou de localisation dans le plan médian est, pour la partie se situant
devant la tête, de 18° pour une source à 0° d'élévation, de 20° pour une source à
30° d'élévation et de 26° pour une source à 75° d'élévation. Pour la partie du plan
médian se situant derrière la tête, le flou de localisation est de 30° pour une source à
27° d'élévation et de 44° pour une source à 68° d'élévation. Toutefois, même la
connaissance de la source sonore ne peut contrer les situations où cette source
présente une largeur de bande spectrale trop étroite : à moins de 2/3 d'octave,
l'évaluation de la direction dans le plan médian devient impossible.
Quoi qu’il en soit, la zone critique de fréquences où le flou de localisation est
le plus grand, et ce, peu importe l'azimut ou l'élévation de la source, est aux
alentours de 2000 Hz. Puisque la différence interaurale de phase diminue
graduellement d'efficacité à partir de 800 Hz et que la différence interaurale
d'intensité n'est pas vraiment fonctionnelle avant 2000 Hz, il y a un manque de
chevauchement des zones couvertes efficacement par ces mécanismes de
localisation. Notre manque de discrimination directionnelle autour de 2000 Hz
explique aussi, en partie, que notre plus grande sensibilité à l'amplitude acoustique
se situe dans ce secteur de fréquences, tel que confirmé par les courbes d'isosonie.
Les mouvements de la tête, conscients ou inconscients, apportent des informations
complémentaires sur la localisation des sources. Ils sont même indispensables pour
lever les incertitudes ou les ambiguïtés entre les différents secteurs avant-arrière,
dessus-dessous.
Si on considère le cas simple d’une source sonore définie par une différence
interaurale de temps ∆t et d’intensité ∆i, on se rend compte que cette source peut
être située sur n’importe quel point d’un cône appelé cône de confusion (Von
Hornbostel et Wertheimer 1920). Si l’auditeur ne possède pas d’autres
informations, il n’aura jamais la possibilité de lever ces ambiguïtés. Si
l’auditeur peut tourner la tête, il aura alors à sa disposition une seconde série
de coordonnées ∆t’ et ∆i’. L’association de ces deux couples de coordonnées
permet au cerveau, en les associant à la même source, de lever toutes les
ambiguïtés possibles (Van Soest 1929).
Selon le modèle de von Hornbostel et Wertheimer l’ensemble des points se trouvant
à égale distance des oreilles gauche et droite est une hyperbole dans le plan
horizontal (a) et la surface d’un cône pour les plus grandes distances dans l’espace
tridimensionnel (b)
La capacité à percevoir la distance et la profondeur d’une image sonore détermine
de façon cruciale notre appréciation subjective de la qualité sonore. Il existe
différents indices interdépendants responsables de la sensation de distance.
Les HRTFs
Theile insiste sur le fait que les HRTFs sont indispensables pour externaliser les
sons. De fait les variations de transfert interaurale et plus particulièrement les
différences interaurales d’intensité peuvent être importantes lorsque la distance têtesource varie : plus la source est proche plus la différence interaurale d’intensité sera
importante. Cela est très significatif pour des distances inférieures à un mètre.
L’intensité
L’énergie varie avec l’inverse du carré de la distance. La variation d’intensité perçue
pour une source émettant à un niveau constant donne donc un indice sur
l’éloignement ou le rapprochement de cette source. Mais le niveau du son direct
dépend bien évidemment de la puissance de la source et peut être partiellement
modifié dans une salle par l’apport des réflexions précoces provenant d’un horizon
spatio-temporel proche (direction voisine et retard inférieur à quelques dizaines de
millisecondes). Il ne peut donc pas constituer un indice fiable. De plus, l’utilisation du
niveau comme indice repose le plus souvent sur la connaissance que l’auditeur
possède a priori du message : l’estimation de la distance sera alors plus précise
pour les signaux connus, comme la voix humaine pour laquelle chacun de nous, par
sa propre expérience, connaît les différentes caractéristiques (murmures, cris) ou
des instruments de musique, que pour les sons inouïs.
Les mouvements parallaxes
Lorsque l’auditeur bouge sa tête de façon perpendiculaire à l’incidence de la source,
un changement de perspective s’opère. Pour des sources très proches un petit
déplacement occure un changement radical de l’azimut alors que pour une source
lointaine l’azimut ne subira pratiquement aucun changement.
La différence de timbre
La densité spectrale d’un signal acoustique varie spectralement au cours de sa
propagation, et ce, de façon totalement inhomogène. Cela est dû à l’absorption de
l’air dans les hautes fréquences.
Le rapport champ direct-champ réverbéré
Le rapport champ direct-champ réverbéré varie avec l’éloignement de la source : il
dépend de la géométrie et de l’absorption de la salle, de la directivité de la source et
de sa position dans la salle. Ce principe, employé très efficacement en
postproduction pour créer des plans sonores, est cependant discutable car il peut
s’accompagner d’effets secondaires comme la perte de définition et de précision
dans la localisation azimutale.
Dans un environnement d’écoute normal le son produit par une source arrive à nos
oreilles via un grand nombre de trajets différents. Une partie du son arrive par un
chemin direct, mais une grande partie nous arrive après avoir subit une ou plusieurs
réflexions sur des murs par exemple. Cela devrait perturber notre sens de
localisation. Pourtant il n'en est rien, nous ne sommes pas conscients de ces
réflexions ou échos très précoces, mais il semble qu’ils aient une réelle influence sur
notre perception de la localisation.
Lorsque deux sons brefs sont émis dans un intervalle très court, ils sont perçus
comme un seul son : c’est l’effet de fusion (Wallach 1949). L’intervalle maximum
pour que cet effet fonctionne et appelé temps de fusion, il est de l’ordre de 5 ms pour
des transitoires (clic) et de 40 ms pour les sons plus complexes. Lorsqu’il y a fusion,
nous interprétons ce mélange comme le timbre apparent, c'est pour cela que la
nature des premières réflexions (dues à l'acoustique de la pièce) change en grande
partie le timbre. De plus, la localisation du son résultant est déterminée par
l’incidence du premier : c’est l’effet de précédence, appelé également loi du premier
front d’onde par Blauert (1983) ou « effet Haas » d’après Haas (1951). Le
scientifique allemand, lors d’expérience sur les échos montra que pour que le son
délayé soit perçu au même niveau que le premier émis, il faut qu’il soit jusqu’à une
dizaine de dB plus fort.
S’il y a une trop importante décorrélation entre les deux signaux l’effet de
précédence ne pourra bien sûr fonctionner. À l’opposé si l’intervalle d’arrivée des
signaux est inférieur à 1 ms alors l’effet de précédence ne fonctionne plus (Blauert
1974).
Il est clair que l’effet de précédence joue un rôle très important dans notre
perception quotidienne du son. Il nous permet de localiser, d’interpréter et
d’identifier les sons malgré les transformations qu’ils peuvent subir dans les
conditions acoustiques très différentes que nous rencontrons. Mais parfois
cet effet peut devenir un inconvénient ; il suffit de constater le décalage de
l’image stéréo lorsque l’on ne se situe pas au milieu des deux enceintes.
Cependant on notera que les aveugles développent une écoute fine distinguant plus
précisément les premiers échos (dus aux obstacles) des sons directs. En frappant le
sol avec leur canne ils peuvent appréhender un obstacle avec l'Echos qu'il
provoque.
On a tous fait l'expérience d'élever le ton de notre voix, de la rendre plus aigue, afin
de poursuivre une conversation lorsque l'on passe près d'un chantier ou lorsque le
gérant du café décide de pousser violemment le son de la musique. Notre voix est
masquée par un son ou bruit plus fort (le son masquant) : nous venons de subir
l'effet de masque.
Les scientifiques Wegel et Lane élaborèrent (en 1924 au laboratoire BELL) un
protocole expérimental permettant d'établir des courbes de relation entre les
fréquences des sons masquant, leurs niveaux et les seuils d'audibilités résultants.
Un son masquant de hauteur donné augmente l'intensité que doit avoir un son pour
être perçu. Son effet sera maximum pour des sons de hauteur proche ou plus aigus.
On conçoit qu'un bruit ayant une large répartition de fréquence masquera presque
tous les sons. Réfléchissez à l'utilisation du "chut!" pour masquer une conversation.
Remarquons que dans l'harmonie et l'orchestration ces notions sont connues depuis
longtemps.
Bien que nos facultés binaurales soient déterminantes pour la localisation précise
des sons, ce n’est pas là leur unique fonction. Le fait d’utiliser deux oreilles nous
permet une attention sélective vers des sons provenant d’une direction particulière
en excluant le reste de l’environnement sonore. Cette faculté est souvent connue
sous le nom d’ « effet cocktail-party ».
Le système auditif est capable de percevoir et de distinguer des sons dans un
environnement masquant, que cet environnement soit constitué d’autres sources
sonores ou de bruits. C’est le principe du masquage binaural : il nous est plus facile
de détecter et d’identifier une source sonore particulière dans un environnement
bruyant si la relation de phase entre les deux oreilles concernant ce signal est
différente de la relation de phase concernant le bruit masquant. L’expérimentation a
prouvé que cette faculté de détection est bien moins grande dans le cas où les
relations de phase concernant le bruit et le signal masqué sont les mêmes. Cette
meilleure capacité de détection s’exprime en termes de MLD (Masking Level
Difference), ce qui peut se traduire par « différence de seuil de masquage »
(Moore). Cette différence dans le cas d’un son pur masqué par un bruit peut
atteindre 15 dB pour un son basse fréquence dont la relation de phase est l’inverse
de celle du bruit. Il est intéressant de noter que cette MLD ne variera pas si le bruit
masquant couvre un spectre plus large. En effet il semble que les résultats restent
ceux que l’on peut obtenir avec un bruit limité à la bande critique centrée autour du
signal masqué.
Les stimuli qui provoquent une réaction de l’attention auditive sont de trois sortes : stimulus présentant une saillance physique (dynamique ou fréquentielle), -stimulus à
caractère nouveau : nouveauté spectrale, temporelle ou cognitive. -stimulus
présentant une saillance cognitive mettant en jeu les automatismes et réflexes
attentionnels.
La saillance physique
Le premier paramètre stimulant à considérer est de façon évidente la dynamique du
son et sa forme d’onde. Ainsi les sons ayant une forme d’onde abrupte ou des
transitoires marqués sont susceptibles de provoquer une réaction de l’orientation de
l’attention.
Celle-ci peut être également forcée par les caractéristiques fréquentielles du son
alertant. En effet, dans la zone sensible de l’oreille (bande de fréquences
s’étendant entre 1500 Hz et 3500 Hz), les sons ayant des fréquences élevées
s’avèrent plus alertant que ceux restant dans les basses fréquences (à mettre en
rapport avec les courbes isosoniques de Fletcher). De plus la présence de
fréquences aiguës est souvent synonyme de proximité car chacun sait que
l’éloignement s’accompagne d’une perte d’aigus. Un son comportant des fréquences
élevées sera donc analysé comme étant proche. Or dans les réflexes d’animaux
dont l’homme n’est pas dépourvu, une telle proximité peut être synonyme de danger
et donc attire de manière quasi systématique l’attention.
Stimulus à caractère nouveau
On appelle stimulus à caractère nouveau tout simplement un stimulus sonore
apparaissant pour la première fois. La nouveauté peut être dynamique, fréquentielle,
spatiale, cognitive ou même sémantique. La compréhension du fonctionnement de
ce stimulus fait appel à la notion de mémoire sensorielle. D’un point de vue cognitif,
lorsqu’un son est entendu, il est identifié et traité par un module de traitement qui lui
est propre. Si l’on provoque à nouveau ce module par un son identique ou très
proche au sens cognitif, le module sera directement accessible puisque fraîchement
appelé en mémoire, sans provoquer l’attention de l’auditeur. En effet, la nouveauté
cognitive d’un son provoque une réaction de l’attention car elle nécessite
l’élaboration d’un processus de traitement ou le rappel d’un module lointain. Et ces
constructions sont très coûteuses en traitements attentionnels car ce sont des
tâches qui touchent très profondément l’architecture mentale. Ainsi un son de même
localisation que le précédent éveillera moins l’attention. Il en va de même pour les
timbres, les fréquences...
Selon la durée qui sépare les apparitions d’un même son ou le nombre de ses
répétitions, le cerveau peut ou non effacer de sa mémoire un son déjà entendu
ou n’en conserver que son caractère alertant pour une prochaine stimulation.
De plus lorsqu’un stimulus sonore est répété plusieurs fois, le système
s’adapte, et les symptômes de la réaction d’orientation de l’attention
s’affaiblissent jusqu’à disparaître. Au fur et à mesure des répétitions, le
traitement cognitif consomme de moins en moins de ressources, les sons
soumis à l’habituation étant traités de façon parallèle, ce qui permet une
remise à disposition des ressources et donc une réorientation de l’attention
auditive.
La saillance cognitive
Parmi le flux de représentations qui occupent continuellement notre vie
mentale, certaines sont susceptibles d’être activées sans que leur évocation
ait fait l’objet d’une intention préalable ou d’une attention particulière. Les
stimuli concernés par ces automatismes ou réflexes n’empruntent pas le
chemin habituel de l’attention.
Un traitement automatique ne consomme pas, par définition, de ressources. C’est
pourquoi il est considéré comme un traitement parallèle, il n’interfère pas avec les
autres traitements et ne perturbe pas leur déroulement. Ces traitements ne peuvent
donc pas faire l’objet de masquages attentionnels, ils ne sont pas commandés par le
réservoir unique de ressources. Ils sont d’autant plus dangereux pour la réaction
d’orientation qu‘ils échappent aux filtrages attentionnels. L’absence de contrôle
intentionnel est caractérisée par le fait que ces traitements se déclenchent sans
intention de l’auditeur. L’arrêt de leur déroulement est uniquement conditionné par
l’intervention de l’attention, et pour provoquer cet arrêt devra dépenser beaucoup de
ressources au détriment des autres traitements en cours. Si un automatisme
cognitif est déclenché par certains sons, soit il sera totalement effectué, soit
l’auditeur l’interrompra en mobilisant bon nombre de ressources, ce qui nuira
aux traitements d’autres stimuli auditifs.
Donc quand on croise deux ondes audibles de fréquences légèrement
différentes : il en est générée une troisième (effet TARTINI) inaudible par
l’oreille humaine car ultrasonore : la porteuse (Wikipedia : la porteuse : Dans le
domaine des télécommunications une onde porteuse, ou, plus simplement,
porteuse, est une forme d'onde, généralement sinusoïdale qui est modulée par un
signal d'entrée dans le but de transporter des informations. La porteuse a
généralement une fréquence beaucoup plus élevée que le signal d'entrée. L'intérêt
de la porteuse est le plus souvent soit de transmettre une information à travers
l'espace sous forme d'onde électromagnétique : comme pour la radio, soit de
permettre à plusieurs porteuses de fréquences différentes de partager un même
support physique par multiplexage fréquentiel : comme dans le cas de la télévision
par câble), mais à laquelle le cerveau est obligé d’obéir, à la lumière de ce qui a
été dit plus haut en psychoacoustique : saillance cognitive, disponible sur le
site du conservatoire national de région d’Annecy.
Ainsi, en acoustique et signal radio, on parle d’ HETERODYNE ACOUSTIQUE :
hétérodyne qui est composé du grec hétéro « différent » et dyne « puissance ».
Comme il est très dur de trouver des informations en français simples sur ce
phénomène, employé pourtant dans les télévisions, radios et comme on l’a vu en
sonorisation ou sur simples supports musicaux sonores tels que les minidiscs ou
CD, voilà ce qu’en dit Wikipedia en anglais :
Heterodyning is a radio signal processing technique invented in 1901 by Canadian
inventor-engineer Reginald Fessenden, in which new frequencies are created by
combining or mixing two frequencies. Heterodyning is used to shift one frequency
range into another, new one, and is also involved in the processes of modulation and
demodulation.
Sur wikipedia en français à Reginald Fessenden, on trouve :
L'invention majeure de Fessenden est la radiophonie.
Le 23 décembre 1900, il transmet la voix humaine de Cobb Island près de
Washington, D.C., pour la première fois de l'histoire. C'est en faisant un essai de
modulation d'une onde à haute fréquence avec un micro qu'il envoie un message à
son collaborateur.
En 1902, il décide de former sa propre entreprise. Il établit le principe de
l'hétérodyne, technique toujours employée dans les récepteurs radios AM et FM. Il
établit également un moyen de communiquer des messages vocaux à des navires
en mer, alors qu'il réussit la liaison avec des vaisseaux de la United Fruit alors qu'il
est à l'emploi de la société National Electric Signaling.
Reginald Fessenden invente le terme d'« hétérodyne » voulant dire ici : généré par
une différence de fréquences. Avec l'apparition des triodes (La lampe triode est le
premier dispositif amplificateur d'un signal électronique) on peut obtenir le même
résultat par l'adjonction d'un oscillateur local dans le récepteur, appelé aussi BFO
(Beat Frequency Oscillator). Si on fait varier la fréquence du BFO, la note de
l'hétérodynage varie aussi. Si les fréquences sont trop éloignées l'une de l'autre,
le battement devient ultrasonique, et donc inaudible.
Aujourd’hui, quoi de mieux que nos téléphones sans fil dits fixes, ou les portables
(donc les deux utilisant le spectre des ondes électromagnétiques) pour transmettre
du son et des communications ?
Et là si on cherche on trouve en anglais toutes les études de Allan H FREY :
Frey, Allan H., Human Auditory system response to
electromagnetic energy. J. Appl. Physiol. 17(4): p 689-692. 1962.
modulated
Sur :
http://www.futurquantique.org/2010/07/29/avertissement-votre-telephoneportable-et-le-wi-fi-sont-dangereux-pour-votre-sante/, on trouve
En 1960, Frey, alors âgé de 25 ans, travaillait au Centre d’Électronique Avancée de
General Electric à l’université Cornell quand il fut contacté par un technicien dont le
travail était de mesurer les signaux émis par les stations radars. À l’époque, Frey
s’était intéressé à la nature électrique du corps humain, spécifiquement la manière
dont les champs électriques affectent le fonctionnement neural. Le technicien
prétendait quelque chose d’incroyable : il disait qu’il pouvait « entendre » le radar sur
l’un des sites où il travaillait.
Fred alla sur cette installation et se mit dans le champ du radar. « Et comme prévu,
je pouvais l’entendre aussi, » dit-il, décrivant le bourdonnement à bas niveau
persistant. Frey continua pour établir que l’effet était réel – la radiation
électromagnétique (EM) du radar pouvait en quelque sorte être entendue par les
êtres humains. « L’écoute », cependant, ne se produisait pas via des ondes sonores
perçues par l’oreille. Elle se produisait quelque part dans le cerveau, puisque les
ondes EM interagissent avec les cellules du cerveau lui-même, ce qui crée de
minuscules champs électriques. Cette idée vint à être connue comme l’effet Frey, et
elle provoqua des remous dans la communauté scientifique.
Les ondes dont se souciait Frey étaient celles émises par la partie non ionisée du
spectre EM – la partie dont les scientifiques ont toujours supposé qu’elle ne pouvait
faire de dommages biologiques directs. Lorsque Frey commença sa recherche, on
supposait que la seule manière que les micro-ondes pouvaient avoir un effet
biologique dommageable était d’augmenter la puissance de leurs signaux et les
concentrer comme des pointes d’épée – au point où elles pouvaient cuire la viande.
En 1967, cela eut pour résultat le premier four à micro-ondes populaire, qui utilisait
les fréquences micro-ondes à très haute puissance, concentrées et contenues dans
une boîte métallique. À part cet effet thermique fabriqué, les signaux étaient censés
être sécuritaires.
À l’avant-garde d’un nouveau domaine d’étude qui vint à être connu comme le bioélectromagnétisme, il trouva ce qui semblait être des effets non thermiques des
fréquences micro-ondes – la partie du spectre qui appartient non seulement aux
signaux radar et aux fours à micro-ondes mais aussi, au cours des quinze dernières
années, aux téléphones portables.
Donc si on résume : en croisant deux ondes audibles de fréquences
différentes il en est générée une troisième inaudible par l’oreille humaine car
ultrasonore mais à laquelle le cerveau obéit car ne peut pas l’effacer (Voir la
psychoacoustique plus haut).
Et l’oreille joue le rôle de transducteur comme dans nos haut-parleurs : (Sur
Wikipedia : Haut-parleur : Un haut-parleur ou hautparleur est un transducteur
électroacoustique destiné à produire des sons à partir d'un signal électrique. Il
est en cela l'inverse du microphone. Par extension, on emploie parfois ce
terme pour désigner un appareil complet destiné à la reproduction sonore
(voir Enceinte).
Trois types de haut-parleurs, électrodynamique, électrostatique et
piézoélectrique, représentent les technologies actuelles les plus courantes).
Sur Wikipedia à Transducteur :
Un transducteur est un dispositif convertissant un signal physique en un
autre ; par exemple un signal lumineux en signal nerveux…
Types de transducteurs
•
•
•
•
•
•
•
•
•
Transducteur électroacoustique :
o Hydrophone (transforme, dans les liquides, des oscillations
acoustiques en oscillations électriques) ;
o Haut-parleur, écouteur, bipeur, ronfleur (transforme un signal électrique
en ondes acoustiques) ;
o Microphone (transforme des ondes acoustiques en un signal
électrique) ;
o Cristal piézoélectrique ;
o Transducteur microusiné ;
o Phonocapteur (transforme des oscillations mécaniques en un signal
électrique).
Transducteur électromécanique :
o Sonde à effet Hall ;
o Capteur inductif.
Transducteur magnétoélectrique.
Transducteur magnétooptique :
o Capteur à effet Faraday.
Transducteur optoélectronique.
Transducteur thermoélectrique :
o Thermocouple ;
o Thermorésistance ;
o Module à effet Peltier ;
o Tube cathodique.
Transducteur magnétostrictif.
Transducteur pour ultrasons (convertit une énergie électrique en énergie
acoustique dans la gamme des ultrasons, de quelques mW à quelques kW).
Transducteur mécanoacoustique :
o Phonographe ;
o Gramophone.
Ou,
sur :
http://www.audiosonica.com/fr/cours/post/18/Perception_du_sonL_oreille_de_l_homme
L'oreille recouvre le rôle de transducteur dans la transformation de l'énergie
acoustique, d'abord en énergie mécanique, puis en énergie électrique. Une
fois l'énergie convertie par l'oreille depuis sa forme mécanique à celle
électrique, les impulsions électriques arrivent au cerveau à travers les
terminaisons nerveuses. C'est là qu'elles sont élaborées, permettant ainsi la
perception du son et donc l'écoute de la musique.
Maintenant rapporté aux téléphones portables, vous vous souvenez cette
publicité : « Allo, défibrillateurs mobiles, j’écoute ! »
Pour comprendre, regardez ci-dessous :
Sur : http://jacrieth.free.fr/Causeries/Oscillat.html
Les oscillateurs sont partout : ils sont présents dans tous les systèmes de
télécommunication, dans les téléviseurs, les ordinateurs, dans nos horloges,
pendules et montres, dans les fours à micro-ondes, les clignotants de nos
voitures, etc… il y en a même un, à l’intérieur de nous-mêmes, qui revêt une
certaine importance : notre cœur !
Sur Wikipedia à oscillateur : Un oscillateur est un objet qui fait des mouvement de
vas et vient de manière plus ou moins longue et plus ou moins stable. On peut
distinguer :
•
L'oscillateur mécanique est souvent a base d'un ressort
Sur : http://jacrieth.free.fr/Causeries/Oscillat.html, on parle même de :
Oscillateur hydraulique : la fontaine intermittente.
Soit un récipient dont le fond est traversé par un siphon recourbé, le récipient étant
plus haut que le coude supérieur du siphon. Un filet d’eau alimente le récipient.
Lorsque le niveau de l’eau atteint l’orifice de la petite branche du siphon (niveau
" a "), l’eau monte à la fois dans le récipient et dans le siphon. Lorsque le niveau
atteint le coude du siphon (niveau " b "), le siphon s’amorce et évacue de l’eau vers
l’extérieur ; si son débit est supérieur à celui de l’alimentation, le niveau baisse et
lorsqu’il atteint " a ", l’air entre dans le siphon qui se désamorce et le cycle
recommence.
Sur Wikipedia à Klepsydre :
La clepsydre est une horloge à eau, fonctionnant sur le principe d'un écoulement
régulier au fil du temps.
Maintenant vous vous souvenez ce slogan avec dessins techniques de la
tuyauterie devant derrière sur les maillots du PSG : « Fly Emirates » en
Français : Voler en E.A.U !
Sinon : lisez la suite de Wikipedia sur l’étymologie de la Klepsydre :
Le mot clepsydre provient du grec κλεψύδρα (klepsydra), repris par le latin
clepsydra. Ce nom est formé des éléments grecs κλέπτειν kleptein, "voler", et
ὕδωρ hudor, "eau". La clepsydre fonctionne sur le même principe que le sablier.
C'est l'écoulement d'une quantité d'eau qui fixe la durée écoulée.
Sur Wikipedia à horloge à quartz :
Une horloge à quartz utilise un oscillateur à quartz pour définir le temps. Le quartz
a la propriété d'osciller à une fréquence précise lorsqu'il est stimulé électriquement.
L’eau qui nous constitue à 99% peut elle être considérée comme un quartz : un
cristal (Cristalline c’est mon eau à moi !), un piézoélectrique à maille
cubique ???
Sur Wikipedia à piézoélectrique : La piézoélectricité (du grec πιέζειν, piézein
presser, appuyer) est la propriété que possèdent certains corps de se polariser
électriquement sous l’action d’une contrainte mécanique et réciproquement de se
déformer lorsqu’on leur applique un champ électrique.
Sur : http://www.champs-electro-magnetiques.com/ondes/les-courants-induits-dansle-corps-56.html
Les courants induits dans le corps humain
D'après les lois fondamentales de l'électromagnétisme, lorsqu'un matériau
conducteur (ex: fil de cuivre) est amené à proximité d'une source de champ
magnétique, il y a apparition d'un courant électrique à l'intérieur de ce
matériau
conducteur.
De même, lorsqu'un courant électrique est appliqué dans un matériau
conducteur, il y a apparition d'un champ magnétique autour de celui-ci.
Les
différents
systèmes
conducteurs
du
corps
humain
Le corps humain est constitué de cellules, qui regroupées ensembles forment
des organes, le système sanguin et lymphatique, le système musculaire, le
système nerveux, le système glandulaire et le système osseux.
Ces différents systèmes utilisent ou produisent de l'énergie électrique (ex. les
nerfs et le cerveau, les muscles et le coeur, le sang, la peau).
Les nerfs peuvent être assimilés à des fils conducteurs, de même que le sang
qui contient des sels dissous.Les sels dissous dans un liquide le rendent
conducteur (ex. l'électrolyse). Il en va de même pour le sang, qui peut être
assimilé
à
un
conducteur
électrique.
Les os eux-mêmes produisent, et donc sont sensibles, à l'électricité (ex. effet
piézo-électrique).
Nous pouvons donc considérer les systèmes biologiques (humains, animaux
et végétaux) comme des producteurs, et des consommateurs d'électricité.
Par conséquences, les cellules ont la capacité d'être influencées (et donc
d'interpréter) les signaux issus des rayonnements électromagnétiques.
Sachant qu'un conducteur placé dans un environnement électromagnétiques
va voir apparaître à l'intérieur de lui-même un courant électrique. On est en
droit de penser qu'il va en être de même pour un système biologique.
Partant de ce postulat, on peut tirer les deux conclusions suivantes :
- Tout corps biologique vivant situé dans un environnement électromagnétiques va
voir apparaître à l'intérieur de lui-même des courants induits correspondants aux
fréquences
de
cet
environnement.
- De même, tout corps biologique se déplaçant dans cet environnement selon une
vitesse variable, va voir ces courants induits varier en intensité en fonction de sa
vitesse de déplacement.
D’après l’éminent Professeur Marc HENRY de l’Université de Strasbourg :
L’eau au niveau quantique (niveau nanométrique) serait « interfaciale » : voir :
http://lanaturedeleau.blogspot.fr/2013/03/leau-interfaciale-le-4eme-etat.html
À une échelle macroscopique l’eau se trouve sur notre planète sous trois états
physique
différents:
glace,
liquide
et
vapeur.
Ces notions si familières des états de l'eau ne s’appliquent plus lorsque l’eau se
trouve confinée à une échelle nanométrique, où l’eau existe sous un seul état
appelé: “eau interfaciale”. Dans cet état où la loi des grands nombres ne s’applique
plus, l’eau présente de nouvelles propriétés comme la capacité à rejeter des
espèces polaires ou ioniques qu’elle aurait acceptées à une plus grande échelle. Ce
mécanisme de discrimination ionique est le tout premier pas pour que les
phénomènes vitaux puissent se manifester et donne donc un sens précis à
l’expression “L’eau c’est la vie”.
Sur la page relative à la structuration de l’eau en domaines de Cohérence, du même
site
du
Professeur
Marc
HENRY,
on
trouve
ceci :
(http://lanaturedeleau.blogspot.fr/2013/09/eau-et-information-2.html)
Après l’eau les deux espèces intracellulaires les plus abondantes sont les protéines
(75 millions) et les ions potassium (67 millions). Viennent ensuite les ions
magnésium (6 millions), les ions sodium et chlorure (5 millions), les ions bicarbonate
(4 millions) puis l’ATP avec environ un million de molécules. Enfin il y entre 48 et 48
000 ions calcium et seulement une cinquantaine de protons...
Si l’on fait le rapport entre le nombre de molécules d’eau et le nombre total de
molécules et d’ions, on trouve que % H2O (nombre) = 1900000/19163 = 99%. Sur
un plan topologique et non métrique, un être vivant est donc fait à 99% d’eau qui
existe sous un état, appelé «eau interfaciale», ayant ses caractéristiques
thermodynamiques propres. Or dans toute forme d’eau vapeur, liquide,
interfaciale ou solide il existe des espaces vides qui entourent en permanence
les molécules d’eau reliées par des ponts hydrogène. Selon la théorie
quantique des champs, cet espace exempt de matière est capable de capturer
des photons générés par les fluctuations du vide quantique pour donner
naissance à des domaines de cohérence au niveau des phases quantiques.
On aura compris que dans une cellule, les molécules comme l’ADN ou l’ARN
jouent le rôle de support incohérent à l’information nécessaire pour que la vie
s’exprime, tandis que l’eau avec son réseau de liaisons hydrogène fluctuant
sur une échelle de temps de l’ordre de la picoseconde permet de donner de la
cohérence et donc de «lire» et «comprendre» ce qui est écrit sur le support
incohérent. La stabilisation de la phase quantique n’étant assurée que via une
interaction à trois partenaires: vide, molécules d’eau et lumière, impliquant un
réseau fluctuant de liaisons hydrogène, un moyen évident d’action sur ces
domaines de cohérence est d’utiliser des ondes de nature électromagnétique
comme la lumière.
Incidemment, le rayonnement infrarouge terrestre dans lequel baignent tous les
êtres vivants présente un maximum dans la gamme 9-11 µm. De plus, sachant que
les ondes de cohérence se propagent sous forme de soliton à une vitesse de l’ordre
de 1 m.s-1, une autre gamme d’action au niveau de la cohérence entre les domaines
et non plus à l’intérieur d’un domaine est envisageable en utilisant des ondes de
fréquence νsoliton = c/νcohérent dans la gamme 3 kHz à 1 MHz, domaine des
ondes radio de type VLF, LF et MF.
Les photons étant les vecteurs de l’interaction électromagnétique, ces
domaines de cohérence expliqueraient la sensibilité de l’eau aux ondes
infrarouge et aux champs électromagnétiques radiofréquence ainsi que le
stockage de certaines fréquences moléculaires de tout soluté présents dans
l’eau.
Pour commencer, il faut envisager que les molécules d'eau ne soient pas
reliées par des interactions purement statiques (Liaisons Hydrogène,
interactions électrique dipôle-dipôle). L’aspect fondamentalement novateur de
la théorie est que les interactions entre les systèmes microscopiques (atomes
et molécules) ne sont pas limitées aux «plus proches voisins» mais
s'étendent sur des domaines typiques ayant la taille de la longueur d'onde du
champ électromagnétique qui vibrent à la fréquence commune des systèmes
de matière. De tels domaines de cohérence «DC» représentent les éléments
fondamentaux de la matière condensée, à l'intérieur desquels la matière
(atomes, molécules, électrons et noyaux) oscillent en accord (techniquement:
en phase) avec un champ électromagnétique macroscopique (classique), de la
même manière qu’un laser mais avec la différence fondamentale que le
rayonnement électromagnétique cohérent est maintenant emprisonné en
permanence dans les DC, sa fonction étant de maintenir le système stable en
regard des fluctuations thermiques.
Sur
sa
page
concernant
« l’eau
interfaciale » :
http://lanaturedeleau.blogspot.fr/2013/03/leau-interfaciale-le-4eme-etat.html
Des chercheurs du Laboratoire national de physique (NPL) ont utilisé un modèle
quantique basé sur une particule chargée fictive, nommée oscillateur de Drude.
Dans le cas d’une molécule d’eau, cette particule est attachée à l’atome d’oxygène
par le biais d’un ressort harmonique, mimant la façon dont les électrons d’une
véritable molécule d’eau oscillent et réagissent à leur environnement. Des
informations auxquelles les modèles classiques ne donnent généralement pas accès
et qui, surtout, donnent une idée précise des propriétés moléculaires de l’eau liquide.
(bleu-gris
=
densité
électronique
des
hydrogènes,
en
rose
=
oxygène)
Source :
http://www.futura-sciences.com/magazines/matiere/infos/actu/d/physique-physiquequantique-leve-un-peu-mysteres-surface-eau-57972/#xtor=EPR-17-[HEBDO]20150427-[ACTU-La-physique-quantique-leve--un-peu--les-mysteres-de-la-surfacede-l--eau]
C’est la première fois que le modèle de l’oscillateur de Drude est appliqué à une
interface liquide-vapeur. Les résultats des chercheurs britanniques montrent que
l’asymétrie intrinsèque des liaisons hydrogène est responsable de l’orientation des
molécules de surface. Et le modèle permet également de prédire la dépendance à la
température de la tension superficielle de l’eau avec une précision de 1 %.
Concernant
le
Modèle
de
Drude :
sur :
http://www.garmanage.com/atelier/index.cgi?path=public&B&Teaching&B&EPFL&B
&2_Conduction&B&1_Drude&&id=psyitefg
2.2 MODELE BOULES DE BILLARD
2.2.1 Introduction
C'est le modèle le plus ancien et le plus élémentaire. Les bases en furent jetées par
Drude en 1902, peu après la découverte de l'électron par Thomson (1897).
Insuffisant pour concevoir et a fortiori développer les composants "état solide" qui
forment aujourd'hui l'essentiel des éléments actifs utilisés en électronique, le
modèle Boules de billard présente néanmoins un intérêt considérable :
•
•
•
• c'est un auxiliaire utile pour donner à notre esprit une image de phénomènes
dont nous n'avons en fait aucune perception directe, puisqu'ils se déroulent
dans l'infiniment petit.
• les résultats, pour l'ingénieur, de théories plus exactes, comme la théorie
des bandes d'énergie en particulier, se laissent formuler au moyen des
mêmes concepts que ceux apparaissant dans le modèle Boules de billard.
Citons parmi ceux-ci le nombre volumique et la mobilité des électrons;
• tout primitif qu'il soit, ce modèle conduit à une interprétation
phénoménologique intéressante des lois fondamentales telles que la loi
d'Ohm ou la loi de Joule. Il lie les phénomènes microscopiques à certaines
grandeurs observables.
Son nom l'indique, ce modèle assimile les électrons à de minuscules boules
de billard. Ces particules sont donc des objets classiques, simplement régis par la
loi de Newton et les lois de Maxwell. Cette conception corpusculaire de l'électron
n'est d'ailleurs pas totalement opposée aux résultats de la mécanique quantique,
dans la quelle un paquet d'ondes, zone étroite où la fonction 2 dW présente un
maximum accusé, peut toujours être interprété comme une particule, avec sa masse
et sa vitesse.
Dans un millimètre cube de cuivre, il y a environ 1020 électrons, il n'est donc pas
question de les traiter individuellement, ce serait d'ailleurs sans intérêt. C'est le
comportement moyen des électrons qu'il convient d'étudier. Deux types
d'interactions conditionnent ce comportement :
•
•
• l'interaction des électrons avec la matière dans laquelle ils évoluent, et dont
ils font parties;
• l'interaction des électrons avec les champs électromagnétiques appliqués de
l'extérieur.
2.2.2 Interactions électron-matière
A quelques exceptions près, toutes les matières conductrices ont une structure
cristalline. Admettons qu'en moyenne chaque atome libère un électron de
conduction. Ces électrons se trouvent plongés dans le potentiel créé par les cations
formant le réseau.
Si le cristal ne présentait aucun défaut, et si les cations étaient totalement
immobiles, les électrons, supposés ne pas interagir entre eux, se déplaceraient dans
un potentiel parfaitement périodique, et conserveraient chacun une énergie
rigoureusement constante. Leur comportement serait comparable à celui de billes
pesantes, se déplaçant sans frottements sur une surface, en moyenne horizontale,
mais présentant un réseau de sommets.
En réalité, un réseau cristallin n'est jamais parfait; les principaux types de défauts
pouvant se présenter ont été décrits à la section 1.5. Les électrons de conduction
interagissent avec ces défauts. Il en résulte que le mouvement de ces électrons
est sans cesse perturbé par des processus aléatoires de natures diverses
désignés, dans le modèle Boules de billard, par le terme générique de choc.
A température ambiante, et dans la plupart des métaux, la résistance électrique
dépend principalement de l'interaction des électrons de conduction avec les
phonons. A basse température, quelques degrés Kelvin, l'interaction avec les
autres types de défauts cristallins devient prépondérante.
Les échanges d'énergie se produisant au cours des chocs aboutissent à la mise en
équilibre thermodynamique des électrons de conduction avec le réseau. Par
exemple, l'augmentation d'énergie cinétique des électrons de conduction, due à un
champ électrique appliqué, provoque une augmentation de l'énergie du réseau
correspondant à une élévation de température.
La résistance électrique provient de perturbations dans le mouvement des
électrons, provoquées par la présence de défauts cristallins. L'étude de la variation
de la conductivité en fonction de la température nécessite la séparation des effets
de chaque type de défaut. Dans ce but, les défauts considérés à la section 1.5 sont
regroupés dans les trois catégories suivantes:
•
•
•
phonons,
impuretés chimiques (atomes étrangers interstitiels ou en position de
substitution),
défauts
provenant
de
déformations
mécaniques
(dislocations
principalement).
Il convient donc de dissocier aussi le choc électronique moyen considéré
jusqu'ici en trois types de chocs correspondant chacun à l'une des catégories
de défauts énumérés ci-dessus.
Donc
sur
le
site
de
Futura-Sciences :
http://www.futurasciences.com/magazines/matiere/infos/actu/d/physique-physique-quantique-leve-unpeu-mysteres-surface-eau-57972/#xtor=EPR-17-[HEBDO]-20150427-[ACTU-Laphysique-quantique-leve--un-peu--les-mysteres-de-la-surface-de-l--eau]
La physique quantique lève (un peu) les mystères de la surface de l’eau
L’eau est un corps aussi banal pour le commun des mortels qu’étrange pour
les physiciens. Une équipe de chercheurs s’est appuyée sur un modèle
quantique pour révéler la structure moléculaire de la surface de l'eau à l’état
liquide.
Le 22/04/2015 à 13:24 - Nathalie Mayer, Futura-Sciences
Même si cela ne nous saute pas aux yeux, certaines propriétés de l’eau sont
étonnantes. Au contraire de tous les autres corps, elle ne se contracte pas en
refroidissant, ce qui ferait couler les glaçons au fond des verres. Autre exemple :
plus elle est froide, mieux elle dissout les gaz, une caractéristique qui permet aux
poissons de respirer. Certaines de ces bizarreries ont été expliquées, par la taille et
la topologie des molécules d’eau entre autres. Mais beaucoup de mystères restent à
élucider.
En incluant des phénomènes quantiques à leurs modèles, des chercheurs
britanniques du Laboratoire national de physique (NPL) ont voulu rendre la
simulation du comportement des matériaux en général, et de l’eau en particulier,
plus intuitive et plus proche de la réalité. C’est ainsi qu’avec la collaboration de
l’Institut national de mesure, d’IBM et de l’université d’Édimbourg, ils ont pu
déterminer la structure moléculaire de la surface de l’eau à l’état liquide.
L’interface liquide-vapeur à la surface de l’eau est l’un des environnements
hétérogènes à la fois le plus commun et le plus mystérieux. Les mesures
expérimentales de sa structure moléculaire sont délicates à réaliser et les modèles
actuels ne s’entendent pas sur les résultats. Pourtant, comprendre la structure
moléculaire de la surface de l’eau pourrait permettre de mieux comprendre les
interactions qui sous-tendent de nombreux processus biologiques.
Le comportement des électrons est l'une des clés
Le modèle quantique utilisé par les chercheurs du NPL est basé sur une
particule chargée fictive, nommée oscillateur de Drude. Dans le cas d’une
molécule d’eau, cette particule est attachée à l’atome d’oxygène par le biais
d’un ressort harmonique, mimant la façon dont les électrons d’une véritable
molécule d’eau oscillent et réagissent à leur environnement. Des informations
auxquelles les modèles classiques ne donnent généralement pas accès et qui,
surtout, donnent une idée précise des propriétés moléculaires de l’eau liquide.
C’est la première fois que le modèle de l’oscillateur de Drude est appliqué à
une interface liquide-vapeur. Les résultats des chercheurs britanniques
montrent que l’asymétrie intrinsèque des liaisons hydrogène est responsable
de l’orientation des molécules de surface. Et le modèle permet également de
prédire la dépendance à la température de la tension superficielle de l’eau
avec une précision de 1 %.
Cette étude démontre qu’il est possible d’appliquer le modèle de l’oscillateur de
Drude à des domaines encore inexplorés. Elle offre ainsi, par exemple, des
perspectives prometteuses pour l’exploration de la matière condensée.
Sur : http://www.isias.lautre.net/spip.php?article300 : ISIAS - Introduire les Sciences et les Intégrer dans des Alternatives Sociétales.
Introduce Science and Integrate it into Alternative Societies par JACQUES
HALLARD : Ingénieur CNAM, consultant indépendant, Jacques Hallard est né
en 1938.
"Qu’est-ce que l’eau liquide ? " par le Prof. Martin Chaplin
Traduction et compléments de Jacques Hallard
lundi 15 avril 2013 par Chaplin Martin : Emeritus Professor of Applied Science
London South Bank University.
ISIS
Physique
Chimie
Biologie
Qu’est-ce
que
l’eau
liquide ?
What
is
Liquid
Water ?
Les complexités tout à fait particulières de l’eau liquide en font, d’une façon très
inattendue, un constituant parfaitement adapté pour le vivant. Prof. Martin Chaplin.
Singulièrement, l’eau s’ionise et permet l’échange facile des protons entre les
molécules, ce qui contribue à la richesse des interactions ioniques [Voir liaison
chimique sur Wikipedia : On appelle liaison chimique toute interaction attractive qui
maintient des atomes à courte distance. Cette interaction peut être directionnelle
comme la liaison entre deux atomes au sein d'une molécule, ou non-directionnelle
comme l'interaction électrostatique qui maintient les ions d'un cristal ionique au
contact. Elle peut être forte comme les deux précédents exemples, ou faible comme
les interactions de van der Waals qui sont de nature dipolaire.
De nombreux modèles existent pour décrire ces interactions. Par exemple la liaison
chimique entre deux atomes au sein d'une molécule peut être décrite avec le modèle
de Lewis ou avec un modèle quantique, comme la théorie des orbitales
moléculaires. Dans les deux cas, l'origine de l'interaction est un partage d'électrons
entre les deux atomes partenaires de la liaison chimique.
Les liaisons plus faibles sont expliquées, en général, par des polarités entre des
molécules. C'est le cas des interactions très faibles comme les forces de London qui
font partie des forces de van der Waals. De telles forces interprètent le maintien
dans un état condensé solide ou liquide de composés moléculaires comme le diiode
ou les hydrocarbures] dans le monde de la biologie. L’eau liquide est un excellent
solvant du fait de sa nature polaire, de sa petite taille, ainsi que par sa ‘constante
diélectrique’ ou permittivité relative élevée, en particulier pour les composés et les
sels polaires et ioniques. L’eau dissout même dans le verre et dans les plastifiants :
il est donc très difficile d’obtenir de l’eau vraiment pure, contenant moins de 5 ng g-1
de soluté. L’unique hydratation de l’eau des macromolécules biologiques
importantes – notamment des protéines et des acides nucléiques - détermine la
constitution des structures tridimensionnelles, et donc la nature de leurs fonctions.
"La vie est basée sur l’eau et l’électricité" (partie 1) par le Pr Mae-Wan Ho
Traduction et compléments de Jacques Hallard
samedi 16 février 2013 par Ho Dr Mae-Wan : directrice et co-fondatrice de l’Institut
de la Science dans la société (ISIS), [basé à Londres], bien connue pour ses efforts
pour présenter la science dans le sens du bien public et pour promouvoir la
responsabilité sociale ou sociétale et la durabilité écologique dans les domaines
scientifiques, a reçu la prestigieuse ‘Médaille Prigogine 2014’, en reconnaissance de
son travail scientifique en physique des organismes vivants et des systèmes
durables, un secteur scientifique qu’elle a innové il y a plus de 20 ans.
ISIS
Biologie
Physique
La vie est basée sur l’eau et l’électricité (partie 1) Life is Water Electric (part 1)
Partie 1 - Le champ vital électrodynamique et l’électricité du corps vivant
Partie 2 – L’eau sous forme de cristaux liquides et en cohérence quantique est le
champ
vital
et
l’électricité
du
corps
vivant
Mae-Wan Ho Conférencière invitée d’honneur à la rencontre ‘Electric Universe
2013 : The Tipping Point 2013’, à Albuquerque, dans le Nouveau-Mexique aux
Etats-Unis. du 3 au 6 janvier 2013.
Résumé
Toutes les plantes et tous les animaux, qu’ils soient unicellulaires ou pluricellulaires,
depuis l’œuf ou les graines pleinement développées, jusqu’à l’organisme vivant
adulte, possèdent un "champ vital" électrodynamique appelé "champ L" qui peut être
enregistré à la surface ou près de celle-ci, à l’aide d’électrodes et de voltmètres
appropriés. Ce "champ L" se modifie pendant la croissance et le développement, en
corrélation avec le plan et l’organisation du corps, ainsi qu’en fonction des états
mentaux ou physiologiques. Cependant, la source du "champ L" est encore
inconnue.
De nouvelles preuves suggèrent que le "champ L" est généré par l’eau et qu’il
y est inclus sous forme de cristaux liquides en cohérence quantique ; cette
eau constitue 70-90% des cellules et des organismes vivants et elle est en
outre
essentielle
à
la
vie.
L’eau forme des domaines en cohérence quantique à des températures et à
des pressions ordinaires. Dans les organismes, les domaines cohérents sont
stabilisés dans l’eau sous forme de cristaux liquides sur les énormes surfaces
macromoléculaires et membranaires, effectivement s’alignés électriquement
sur l’ensemble du corps pour former un simple cristal uniaxe.
La Terre dispose également d’un spectre électromagnétique ou résonances de
Schumann, ainsi dénommées d’après Otto Schumann Winifred (1888-1974) qui
les avait prédites en 1952. Les résonances de Schumann sont des ondes
stationnaires ; créées dans l’espace situé entre la surface de la terre et l’ionosphère
conductrice, elles sont naturellement excitées par la foudre. Les résonances de
Schumann se situent entre 3 et 60 Hz, apparaissant comme des pics distincts à
7,83, 14,3, 27,3 et 33,8 Hz. Ces mêmes fréquences sont prédominantes dans les
ondes cérébrales des êtres humains et elles sont fortement corrélées avec les
différents états mentaux. Les évidences suggèrent que les humains et d’autres
organismes vivants synchronisent réellement leurs rythmes biologiques avec les
fréquences de Schumann.
J’ai été invitée à revoir ces vieux résultats oubliés à travers un document rédigé par
Alexis Pietak de Kingston, travaillant dans l’état d’Ontario, au Canada qui
propose un nouveau mécanisme pour la morphogenèse : la formation de
modes de résonance électromagnétique dans un résonateur diélectrique à
micro-ondes.
Les modes résonnants sont des motifs d’ondes formés lorsqu’une onde est
confinée à l’intérieur d’un résonateur et soumis à la réflection des frontières
internes où les ondes incidentes et réfléchies se combinent. C’est quelque
chose comme les résonances de Schumann générées dans l’espace entre la
surface de la Terre et l’ionosphère (voir ci-dessus), mais sur une échelle
beaucoup plus réduite, de l’ordre de 0,1 à 1 mm, qui sont les dimensions des
œufs et des primordias. En conséquence, la fréquence des ondes
électromagnétiques en cause est beaucoup plus élevée, allant des micro-ondes à
une gamme inférieure au millimètre ou GHz (109 cycles par seconde). En utilisant la
technique mathématique de l’analyse par éléments finis, Pietak produit des modes
résonnants (en ellipses et en une sphère) (figure 4) dont les motifs ressemblent à
différents
types
de
feuilles.
Comme Alexis Pietak l’a noté, ce type de mécanisme n’est pas limité pour générer
des motifs en forme de feuilles. L’œuf de Drosophila est une longue ellipse et les
modes de résonance horizontaux successifs ne sont pas sans rappeler les étapes
dans le processus de détermination du segment tel que révélé par les célèbres
motifs de transcription des gènes, qui sont les plus susceptibles d’être impliqués
dans les processus en aval de la formation de motif.
Alexis Pietak a souligné que « le modèle repose sur la validité des théories de
cohérence biologique telle que celle décrite par Fröhlich ... et / ou les théories des
champs quantiques ». Herbert Fröhlich (1905-1991) avait émis l’hypothèse que les
organismes sont des systèmes de matière condensée, et qu’ils peuvent peut être
‘pompés par l’énergie métabolique dans des états d'excitations cohérentes (des
modes de résonance) en analogie avec le laser à semi-conducteurs.
Les théoriciens des champs quantiques, Emilio Del Giudice et ses collègues, ont
proposé que l'interaction entre les champs électromagnétiques ambiants et la
matière condensée molle, tels que l'eau liquide, crée des domaines cohérents,
oscillants en phase avec le champ électromagnétique [21]. J'ai décrit le travail de
Fröhlich dans The Rainbow and the Worm, The Physics of Organisms et
l'électrodynamique des champs quantiques est traitée en détail dans mon nouveau
livre Living Rainbow H2O * qui fournissent là des preuves de la cohérence quantique
des organismes vivants.
La preuve alléchante d’un champ électrodynamique cohérent impliqué dans la
formation des configurations à partir de nos expériences [1] (Electrodynamic
Activities and Their Role in Organisation of Body Pattern, ISIS publication
scientifique) a suggéré que nous devrions être en mesure de voir un signe de la
cohérence, en particulier une biréfringence indicative de l’alignement ordonné des
molécules cristallines liquides dans un embryon précoce.
La biréfringence est une propriété optique d'un cristal ou de cristaux liquides avec
des atomes ou des molécules alignés par polarité électrique, de sorte que la lumière
blanche polarisée dans un plan (constitué de plusieurs longueurs d'ondes vibrant
dans une seule direction) est divisé en deux rayons orientés perpendiculairement,
l’un se déplaçant plus lentement que l'autre. Lorsque les deux rayons sont
recombinés avec un second polariseur (l'analyseur), les longueurs d'onde
composantes de la lumière interfèrent de manière constructive ou destructive, et
c'est ainsi que les couleurs de l'arc-en-ciel sont générées. Afin d'amplifier la
biréfringence, il est habituel d'ajouter une plaque pleine d’onde - la longueur d'onde
de la lumière verte - au système, ce qui donne l'arrière-plan de couleur rose
caractéristique.
J'avais déjà travaillé avec la drosophile depuis plus de 15 ans, et je n’étais pourtant
absolument pas préparée à ce à quoi je me suis trouvé confrontée alors que je
faisais une observation au microscope polarisant. Une petite larve sortait en se
traînant de son œuf, et elle présentait un arc-en-ciel à l'intérieur. Même une larve
complètement développée est cohérente et en cohérence, bien au-delà de nos rêves
les plus fous. C'est ce que l'arc- en-ciel dansant à l'intérieur de son corps, nous
disait ; mais il a fallu un certain temps pour comprendre tout cela. Cette vision
sublime a été une inspiration immédiate pour l'écriture du livre The Rainbow and the
Worm, The Physics of Organisms (ISIS publication).
Sur : http://www.spirit-science.fr/doc_humain/ADN6photons.html#mozTocId940951,
à propos de Herbert FROHLICH :
Par Alain BOUDET : Dr en Sciences Physiques, Thérapeute psycho-corporel,
Enseignant.
L'existence de champs de rayonnements englobant et imprégnant les organismes
biologiques a été proposée par de nombreux biologistes et physiciens. L'idée de
coordination cellulaire par un champ a été étudiée par Herbert Fröhlich à Liverpool
(à partir de 1968) et Renato Nobili à Padoue (à partir de 1985). Northrup décrit un
champ électrodynamique qui est déterminé par ses composants atomiques et réagit
sur les propriétés de ces éléments. Le concept de champ morphogénétique (qui
engendre les formes) a été développé d'abord par Gurwitsch en 1922 et Weiss en
1926, puis par Rupert Sheldrake dans les années 1980. En France, le
mathématicien Emile Pinel (1906 - 1985) a prédit mathématiquement l'existence
d'un champ global à 9 composantes qui régit la vie des cellules.
D'autres ont montré la réalité physique du champ par les traces détectables qu'il
manifeste lorsqu'il est sollicité (voir également en annexe: Le champ fantôme de
l'ADN):
Le champ "fantôme" de l'ADN
Le Dr. Gariaev et son équipe ont d'abord mis en évidence le champ de l'ADN par un
effet dit "fantôme". Ils ont mené une série d'expériences consistant à étudier le
comportement d'une solution d'ADN dans de l'eau. La solution (3 mg d'ADN dans 3
ml d'eau) est mise dans un petit récipient en quartz et stabilisée au citrate de sodium
(tampon SSC). Les molécules d'ADN y sont mobiles et agitées d'un mouvement
erratique nommé mouvement brownien.
Les spectrographies sont courantes dans les études scientifiques afin de mesurer
toutes sortes de caractéristiques des substances. Dans le cas présent, la solution
est introduite dans un appareil où elle est traversée par un rayon laser dont la
diffusion est recueillie dans les différentes directions. L'analyse de ces photons
diffusés permet d'en déduire des renseignements sur la taille et la vitesse de
déplacement des particules en solution. Cette technique est appelée diffusion
dynamique de la lumière (DLS) ou encore spectrographie par corrélation de
photons (PCS) (avec un spectographe Malvern).
Pour comprendre l'effet de l'ADN sur cette diffusion, il faut la comparer à ce qu'on
obtient sans la solution. Lorsque le récipient est vide, les expérimentateurs ont
constaté sans surprise que les photons diffusés sont distribués complètement au
hasard (fig.a).
a- Diffusion corrélée en l'absence de la solution d'ADN
b- Diffusion corrélée en présence de la solution d'ADN
c- Diffusion corrélée après avoir enlevé la solution d'ADN
Expérience et figures réalisées par P. Gariaev et son équipe. Reproduites de L'onde
ADN bio-numérique :
2001GariaevOndebionumerique.pdf : extraits :
L'onde ADN bio-numérique
Peter P. Gariaev*, Boris I. Birshtein*, Alexander M. Iarochenko*, Peter J.
Marcer**, George G. Tertishny*, Katherine A. Leonova*, Uwe Kaempf ***.
* Institute Control of Sciences Russian Academy of Sciences, Moscow, Russia
[email protected], http://www.aha.ru/~gariaev, et Wave Genetics Inc. 87 Scollard
Street, Toronto, Ontario, Canada, M5R 1G4, [email protected],
** 53 Old Vicarage Green, Keynsham, Bristol, BS31 2DH,
[email protected], http://www.bcs.org.uk/cybergroup.htm. .
UK,
*** Institut f. Klinische, Diagnostische und Differentielle Psychologie- Am
Falkenbrunnen - D- 01062 Dresden TU, Dresden, Germany, [email protected]
Résumé : Cet article fait part d'un travail expérimental réalisé à Moscou à
l'Institute of Control Sciences, Wave Genetics Inc. et de travaux théoriques
provenant de plusieurs sources. Ce travail modifie la notion de code génétique
de façon essentielle. Il affirme : 1) que l'évolution des bio-systèmes a créé des
« textes » génétiques, semblables aux textes dépendants du contexte naturel
dans les langages humains, modelant le texte de ces schémas analogues au
langage, 2) que l'appareil chromosomique agit simultanément à la fois comme
source et récepteur de ces textes génétiques, les décodant et les encodant
respectivement, 3) et que le continuum chromosomique d'organismes
multicellulaires est analogue à une grille holographique espace-temps
multiplexe statico-dynamique, qui comprend l'espace-temps d'un organisme
dans une forme vrillée. Autrement dit, l'action de l'ADN, comme la théorie le
prédit et l'expérience le confirme, (i) est celle d'un « gène-signe » laser et de
ses champs électro-acoustiques solitoniques, de telle manière que le gène
bio-numérique « lit et comprend » ces messages de façon similaire à la pensée
humaine, mais à son propre niveau génomique de raisonnement. Ce qui
soutient que les textes humains naturels (quel que soit le langage utilisé) et
les « textes » génétiques ont des caractéristiques mathématico-linguistiques
et entropo-statistiques similaires, qui se rapportent à la fractalité de
distribution de la densité de fréquence de la caractéristique dans les textes
naturels et génétiques, et lorsqu'en cas de « textes » génétiques, les
caractéristiques sont identifiées par les nucléotides, (ii) et que les molécules
d'ADN, conçues comme un continuum de gène-signe de n'importe quel biosytème, sont capables de former des pré-images holographiques de biostructures et de l'organisme comme un tout et comme un registre de « copies
d'ondes » ou de « matrices » dynamiques, se succédant les unes aux autres.
Ce continuum représente le champ de mesure, de calibrage, pour construire
son bio-système.
Page 12/20 :
Donc sujet à l'hypothèse que l'ADN est une certaine sorte de structure de
cristal liquide avec des propriétés dynamiques, où les activités solitoniques
interdépendantes sont liées ensemble, comme on peut le supposer, pour
former une structure d'ondes extrêmement cohérentes, alors :- (i) les masses
des nucléotides, et d'autres paramètres, montrent que ces activités
oscillatoires devraient être situées quelque part ensemble dans le domaine
d'onde « acoustique », (ii) et que, en tant que cristal liquide, l'ADN pourrait
influencer la polarisation de la faible émission de lumière qui existe dans les
cellules, appelés les « biophotons ». Ce type de lumière émise dans les
cellules a d'abord été découvert par le chercheur russe Alexander Gurwitsch
[1923], qui l'a appelé la « radiation mitogénique ». Aujourd’hui on sait, par les
travaux de Fritz Albert Popp [Popp, 2000], qu'une telle lumière biophotonique
ou mitogénique, même si ultra faible, est aussi extrêmement cohérente et a
ainsi une qualité inhérente de lumière comme celle du laser.
Le milieu expérimental et les simulations qui en découlent disent donc que :- (iii) le
faisceau laser expérimental est simplement un substitut pour la lumière endogène
intracellulaire cohérente émise par la molécule d'ADN elle-même, (iv) et que les
ondes cohérentes super imposées de différents types dans les cellules interagissent
pour former des modèles de diffraction, d'abord dans le domaine « acoustique »,
puis dans le domaine électromagnétique. De plus, de tels modèles de diffraction
sont, par définition (et connus comme tel, par exemple, pour l'imagerie à résonance
magnétique (IRM) [Binz, Schempp 2000a,b]) une sorte d'hologramme quantique.
Donc, il semble que notre image originale est confirmée et que l'interaction étudiée
entre les oscillations solitoniques dans la structure de cristal liquide de l'ADN, et le
vecteur de polarisation de la lumière ultra faible et extrêmement cohérente
biophotonique, pourrait alors être comprise, nous supposons, comme un mécanisme
de traduction entre les hologrammes dans le domaine des fréquences « acoustiques
», qui concernent des effets plutôt à courte portée, et les hologrammes du domaine
électromagnétique et inversement. La base d'un tel mécanisme hypothétique
comme procédé de traduction, entre les hologrammes acoustiques et
optiques, peut facilement s'illustrer en laboratoire où, comme montré cidessous, un poisson dans l'eau est soumis à une radiation acoustique de telle
façon qu'à la surface de l'eau un modèle d'interférence, ou un hologramme, se
forme et, lorsqu'on illumine ce modèle d'interférence par le haut dans la bonne
direction avec la lumière d'un laser de haute qualité, une image visuelle
virtuelle du poisson apparaît au-dessus de l'eau. Ce qui montre que
l'hologramme en question agit comme un transducteur entre les domaines
acoustiques et électromagnétiques.
Suite site d’Alain BOUDET sur l’ADN fantôme:
Dans un deuxième temps, les expérimentateurs ont introduit la solution d'ADN. Ils
ont obtenu des fluctuations périodiques bien précises, caractéristiques des
molécules en solution (fig. b). Puis, ils ont vidé le récipient et ont recommencé.
Contre toute attente, la courbe obtenue n'est plus celle du début, mais ressemble à
celle obtenue en présence d'ADN (fig. c). Tout se passe comme si l'ADN est
encore présent, comme s'il avait laissé son empreinte (les expérimentateurs
l'appellent son fantôme).
Cette empreinte peut persister pendant plus d'un mois, même si on tente de
l'effacer en soufflant régulièrement de l'azote dans le récipient.
Ce phénomène bouscule notre représentation d'un champ d'information. En effet, si
en présence de l'ADN l'onde électromagnétique du laser est dispersée par le champ
électromagnétique des atomes de l'ADN, par quoi est-elle modulée en l'absence
d'ADN? Quelle est la nature de ce fantôme? On doit admettre qu'il existe un milieu
subtil, une substance primordiale, dans laquelle le champ de l'ADN a laissé son
empreinte.
Cette substance a la capacité de conserver une mémoire, d'enregistrer des
informations. L'existence de cette substance commence à être bien documentée par
les avancées récentes de la physique quantique. C'est le champ du vide, appelé
aussi champ de cohérence universel ou matrice universelle (voir article Éther et
énergie du vide et suivants).
Sur : http://www.spirit-science.fr/Matiere/Phys3-ether.html, (Alain BOUDET) à propos
du vide :
Si une particule apparait dans un intervalle de temps très bref bien défini, alors son
énergie reste floue et peut prendre des valeurs dans un ample intervalle des plus
basses aux plus hautes énergies.
C'est justement le cas des photons virtuels du champ quantique, qui fourmillent de
façon très brève. Ils ont donc une probabilité importante d'avoir une haute énergie.
Dans ce cas, les photons peuvent donner naissance à des particules avec
masse selon le principe de Relativité Restreinte qui stipule l'équivalence de l'énergie
et de la masse selon la formule E = mc2. On passe de la non-matière à la matière.
(Sur Wikipedia : un Phonon en optique est égal à un Photon : En physique de la
matière condensée, un phonon (du grec ancien φωνή / phonê, la voix) désigne un
quantum d'énergie de vibration dans un solide cristallin1 : lorsqu'un mode de
vibration du cristal de fréquence définie ν cède ou gagne de l'énergie, il ne peut le
faire que par paquets d'énergie hν, h étant la constante de Planck. Ce paquet est
considéré comme une quasi-particule, à savoir une particule fictive appelée phonon.
Le cristal est alors réputé échanger des phonons lorsqu'il perd ou gagne de
l'énergie. Le concept permet une analogie avec la lumière qui possède des
propriétés similaires : elle se manifeste tantôt comme une onde, tantôt comme un
paquet d'énergie hν, qui correspond à une particule élémentaire appelée photon.).
Suite Alain BOUDET sur le Vide :
Si l'on se place dans le cas d'un champ électromagnétique pur, sans aucune charge
électrique, créer une particule chargée négativement telle qu'un électron ne peut se
faire que si une particule chargée de la même quantité positive est créée en même
temps (un positron). C'est ce qu'on appelle une création de paires de particules,
sous-entendu, de charges opposées. Le champ qui remplit l'Univers peut donner
naissance à un nombre incalculable de paires de particules.
Lorsque de telles particules se rencontrent à nouveau, elles s'annihilent et
disparaissent en restituant leur énergie au fond énergétique du champ. C'est
pourquoi leur existence est très brève.
On est amené à considérer l'univers comme une vaste mer fourmillante de
particules qui apparaissent et disparaissent. C'est ce qu'on nomme les
fluctuations de l'énergie et du nombre de particules du vide.
Cette vision proposée par la théorie quantique des champs a complètement modifiée
l'image que l'on avait d'un univers vide. Le monde est décrit par des champs
d'énergie. En chaque point de l'espace vide, tout est en perpétuelle création et
dissolution. Il n'y a pas de mouvements d'objets, mais des mouvements
perpétuels d'énergie dans une vaste matrice cosmique. Les objets ne sont que
les émergences de paquets d'énergie. "Le vide fluctue d'une manière aléatoire entre
l'être et le non-être." (Heinz Pagels, physicien, The cosmic code, Bantam Books,
1983).
À partir de la théorie quantique des champs et de sa description d'un vide plein de
photons virtuels, le physicien néerlandais Hendrick Casimir (1909 – 2000) a calculé
en 1948 que si un tel gaz de photons existe, il devrait avoir des effets physiques
mesurables dans certaines situations spéciales.
Hendrick
Merci à Wikipédia
Casimir Schéma du principe d'attraction de deux
plaques métalliques proches dans le vide
quantique,
selon
Casimir.
La taille des bulles représente la longueur
d'onde
des
photons
Merci à Wikipédia
Casimir (rien à voir avec le sympathique dinosaure de l'émission télévisée de l'Ile
aux Enfants) imagine en pensée un dispositif comprenant deux plaques métalliques
placées parallèlement dans l'espace vide. Lorsqu'il y a une seule plaque, elle est
bombardée en permanence par des photons qui exercent un impact sur elle.
Comme les impacts sont reçus des deux côtés, la plaque reste en équilibre et rien
ne se passe.
Il en est de même pour deux plaques, sauf si on les rapproche très près l'une de
l'autre. Dans ce cas, les faces qui se font face reçoivent moins de photons, à
condition que leur distance n'excède pas quelques micromètres. Mathématiquement,
on peut dire que si la distance entre les plaques est L, les photons de longueur
d'onde supérieure à L sont exclus de l'espace intérieur (voir figure).
Les impacts sur les faces externes sont plus grands que ceux sur les faces
internes. Il doit en résulter une pression qui tend à rapprocher les plaques.
Elle est d'autant plus grande que les plaques sont proches. (Ou je rajoute
entre deux vitres d’un double vitrage disposé de chaque côté de murs
porteurs d’électricité, Voir le Vide à température ambiante l’Ecole de Physique
des Houches à Chamonix).
Vérifications expérimentales
Pour prouver la réalité de la force de Casimir, il fallait réaliser un dispositif
expérimental suffisamment sensible pour la mesurer. Or la force en question est de
l'ordre de 1 dix millionième de gramme. Cela a pu être mesuré seulement à partir de
1996, par Steven Lamoreaux (physicien étasunien) à l'université de Washington,
avec des plaques distantes de quelques micromètres. Les résultats concordent avec
la théorie à 5% près. Par la suite, quelques expériences effectuées avec un pendule
de torsion ou avec un microscope à force atomique ont vérifié la grandeur de la force
de Casimir avec encore plus de précision.
La force de Casimir est-elle vraiment due à l'énergie du vide?
On a donc une confirmation de l'existence et de la valeur de la force d'attraction de
Casimir. Mais cela ne prouve pas qu'elle tire son existence de la mer de corpuscules
du vide. Elle ne prouve pas la réalité de cette mer et de ses fluctuations.
En effet, il est tout à fait possible de calculer cette force au moyen d'autres théories
qui ne font pas appel au vide lui-même, mais aux caractéristiques matérielles des
plaques. Et on arrive à des valeurs semblables.
Ces théories alternatives tiennent compte des mouvements fluctuants des atomes
des plaques qui s'influencent mutuellement d'une plaque à l'autre (forces de Van der
Waals).
Sur : http://www.spectro.jussieu.fr/Casimir-Physics-2014?lang=en via recherche sur
Effet Casimir sur site Ecole de Physique des Houches à Chamonix lors du
symposium : From March 30 through April 4, 2014 Ecole de Physique des
Houches, France : document Pdf :
David Dean (Laboratoire Ondes et Matières Aquitane, Univ. Bordeaux and CNRS,
Talence, France) Many body effects for fluctuation induced interactions We discuss
the formulation of many particle systems with fluctuation induced interactions.
Examples include the effective interaction between inclusions in membranes, such
as proteins, which modify the local bending rigidity and how membrane tension can
alter the phase diagram of such systems.
Jean-Baptiste Fournier (Laboratoire MSC. University Paris Diderot and CNRS,
Paris, France) Dynamics of the interaction between inclusions in a model fluctuating
elastic medium and in bio- membranes I investigate the dynamics of the interaction
between two active inclusions hosted by a fluctuating 1d elastic medium with purely
dissipative dynamics. The internal state of the inclusions, hence their coupling with
the elastic field, is altered at some instant and the interaction is calculated versus
time. Both linear and non-linear couplings are considered. A strong overshoot is
observed for non-linear inclusions. The same problem is addressed in a more
realistic situation with active membrane inclusions, using the complete viscous
dynamics of the bilayer membrane. Finally, I shall briefly discuss the fluctuation of
the equilibrium Casimir force between membrane inclusions, i.e., the variance of the
fluctuation of the force the average of which is the Casimir force. This variance
exhibits a nontrivial dependence on the separation between the inclusions.
Sur : http://www.mdpi.com/1424-8247/8/4/675?trendmd-shared=0 © 1996-2016
MDPI AG (Basel, Switzerland) Pharmaceuticals 2015, 8(4), 675-695;
doi:10.3390/ph8040675
Review
Mitochondrial Dysfunction and Disturbed Coherence: Gate to Cancer
Jiří Pokorný 1,* , Jan Pokorný 2 , Alberto Foletti 3,4 , Jitka Kobilková 5 , Jan Vrba 6 and
Jan Vrba Jr. 7
1
Institute of Photonics and Electronics, Czech Academy of Sciences, Chaberská 57,
182 51 Prague 8, Czech Republic 2 Institute of Physics, Czech Academy of
Sciences, Na Slovance 2, 182 21 Prague 8, Czech Republic 3 Institute of
Translational Pharmacology, National Research Council—CNR, Via Fosso del
Cavaliere 100, Rome 00133, Italy 4 Clinical Biophysics International Research
Group, via Maggio 21, Lugano 6900, Switzerland 5 Department of Obstetrics and
Gynaecology, 1st Faculty of Medicine, Charles University in Prague, Apolinářská 18,
128 00 Prague 2, Czech Republic 6 Faculty of Electrical Engineering, Czech
Technical University in Prague, Technická 2, 166 27 Prague 6, Czech Republic 7
Faculty of Biomedical Engineering, Czech Technical University in Kladno, Sitná
Square 3105, 272 01 Kladno, Czech Republic
* Author to whom correspondence should be addressed.
Received: 22 May 2015 / Revised: 6 September 2015 / Accepted: 11 September
2015 / Published: 30 September 2015.
Abstract
Continuous energy supply, a necessary condition for life, excites a state far
from thermodynamic equilibrium, in particular coherent electric polar
vibrations depending on water ordering in the cell. Disturbances in oxidative
metabolism and coherence are a central issue in cancer development.
Oxidative metabolism may be impaired by decreased pyruvate transfer to the
mitochondrial matrix, either by parasitic consumption and/or mitochondrial
dysfunction. This can in turn lead to disturbance in water molecules’ ordering,
diminished power, and coherence of the electromagnetic field. In tumors with
the Warburg (reverse Warburg) effect, mitochondrial dysfunction affects
cancer cells (fibroblasts associated with cancer cells), and the electromagnetic
field generated by microtubules in cancer cells has low power (high power due
to transport of energy-rich metabolites from fibroblasts), disturbed coherence,
and a shifted frequency spectrum according to changed power. Therapeutic
strategies restoring mitochondrial function may trigger apoptosis in treated cells; yet,
before this step is performed, induction (inhibition) of pyruvate dehydrogenase
kinases (phosphatases) may restore the cancer state. In tumor tissues with the
reverse Warburg effect, Caveolin-1 levels should be restored and the transport of
energy-rich metabolites interrupted to cancer cells. In both cancer phenotypes,
achieving permanently reversed mitochondrial dysfunction with metabolic-modulating
drugs may be an effective, specific anti-cancer strategy.
Sur Futura-Sciences à propos des Microtubules : http://www.futurasciences.com/magazines/matiere/infos/actu/d/physique-calculateursquantiques-cerveau-51709/
Des calculateurs quantiques dans le cerveau ?
Le mathématicien Roger Penrose et l'anesthésiologiste Stuart Hameroff ont
proposé il y a une vingtaine d'années un début d'explication sur le
fonctionnement du cerveau humain doué d'expérience consciente. L'un des
éléments de leur théorie impliquait l'existence d'états quantiques résistants à
la décohérence dans des structures à l'intérieur des neurones. Dans un article
récent faisant le point sur l'état de leur théorie, les deux chercheurs affirment
qu'il y aurait maintenant des indications fortes en faveur de cette hypothèse.
Bien que les deux hommes soient respectés, la communauté scientifique reste
sceptique.
Le 21/01/2014 à 15:30 - Laurent Sacco, Futura-Sciences
Voilà presque 20 ans, le grand mathématicien et physicien Roger Penrose publiait
un livre issu de ses réflexions sur la nature de l’esprit et de la conscience. L’ouvrage,
intitulé Les ombres de l'esprit, reprenait par ailleurs certaines des idées avancées
dans les années 1980 par l’anesthésiologiste Stuart Hameroff. Plusieurs thèses
étaient défendues. La première était que le théorème d’incomplétude de Gödel
n’était pas compatible avec la thèse issue des travaux d’Alan Turing concernant
l’intelligence artificielle, à savoir qu’un calcul sur une machine suffisamment
complexe pouvait engendrer une intelligence humaine consciente.
Pour Penrose, le résultat de Gödel impliquait que l’esprit et la conscience humains
étaient irréductibles à des calculs. Il rejoignait donc le camp de ceux qui pensent que
le « difficile problème de la conscience » (hard problem of consciousness en
anglais), selon le terme inventé par le philosophe australien David Chalmers, n’est
pas solutionnable dans le cadre d’une réduction de la conscience à l'exécution
d'algorithmes. Dit autrement, quand bien même on peut associer une structure
mathématique à l’expérience vécue d’un son ou d’une couleur, elle ne peut se
réduire à cette structure et à un calcul, pas plus que simuler une étoile, un cyclone
ou une onde électromagnétique sur un ordinateur ne génère réellement ces objets.
Penrose exprimait aussi, comme d’autres avant lui (tel Einstein, Schrödinger ou
encore John Bell), son insatisfaction sur l’état actuel de la physique quantique.
Une nouvelle physique quantique
On sait qu’en mécanique quantique, l’amplitude de probabilité d’un système
physique, aussi appelée vecteur d’état ou fonction d’onde, évolue de façon
complètement déterministe en étant gouvernée par une seule loi : l’équation de
Schrödinger. Mais lorsqu’on cherche à mesurer une grandeur physique associée à
un système, par exemple la position d’un électron ou son spin, il existe une
deuxième loi indiquant que lors de cette mesure, la fonction d’onde change
brutalement et de façon aléatoire. C’est un peu comme si l’acte consistant à mesurer
la présence d’une note dans un morceau de musique émis sous forme d’ondes
acoustiques sphériques autour d’un piano faisait brutalement disparaître dans tout
l’espace les autres notes et n’en laissant plus qu’une, tirée au sort selon une loi de
probabilité donnée par la forme de l’onde acoustique initiale.
Il faudrait plusieurs livres rien que pour rendre compte des problèmes soulevés par
cette « réduction du paquet d’ondes », comme disent les physiciens, étroitement liée
à l’introduction d’amplitudes de probabilité et simplement de lois de probabilité en
physique quantique. Elle a notamment conduit au paradoxe EPR, et surtout à celui
du chat de Schrödinger. Pour différentes raisons qu’explique en détail Penrose dans
son livre, même s’il reconnaît la pertinence de la théorie de la décohérence au sujet
du paradoxe du chat de Schrödinger, il pense (et il n’est pas le seul) que le problème
n’est pas complètement résolu pour autant.
Selon lui, une physique encore inconnue, mais qui doit découler d’une théorie
quantique de la gravitation dans laquelle la mécanique quantique standard doit ellemême être une simple approximation, est une nécessité si l’on veut vraiment
résoudre toutes les énigmes et les difficultés que posent certains aspects de la
théorie quantique. Surtout, cette nouvelle physique doit contenir des éléments
mathématiques qui ne sont pas réductibles à des algorithmes, en accord avec
l’interprétation que fait Penrose du théorème d’incomplétude de Gödel. Elle serait
aussi susceptible d’éclairer d’un jour nouveau le problème difficile de la conscience.
Des automates cellulaires quantiques dans les neurones
C’est à la suite de réflexions similaires, dont il avait donné une version moins
détaillée dans un précédent livre publié en français sous le titre L’esprit, l’ordinateur
et les lois de la physique, que Penrose a été contacté par Stuart Hameroff. Celui-ci
lui a parlé de ses tentatives en tant que biologiste réfléchissant sur l’origine des
effets de l’anesthésie, pour comprendre le fonctionnement du cerveau et les bases
physiques de la conscience. En joignant leurs travaux, les deux hommes ont donc
proposé la théorie suivante.
Ils prennent pour acquis qu’une bonne partie du fonctionnement du cerveau
s’explique très bien avec les lois de la physique classique, en particulier au niveau
du connectome, c'est-à-dire du câblage des neurones. Mais au niveau des liaisons
synaptiques, quelque chose de nouveau émergerait. Ces liaisons seraient fortement
influencées par des structures que l’on trouve dans le cytosquelette des neurones :
les microtubules. Ce sont des sortes de fibres constituées d’éléments appelés des
dimères de tubuline, des protéines possédant un moment dipolaire. Selon Penrose
et Hameroff, ces protéines que l’on peut polariser dans deux états feraient des
microtubules des sortes d’automates cellulaires capables de stocker des qubits et
d’effectuer des calculs en plus de ceux que l’on attribue au réseau de neurones. Si
tel est le cas, la capacité de traitement de l’information du cerveau humain serait
bien supérieure à celle qu’on lui attribue aujourd’hui. Ce qui repousserait la date à
laquelle un ordinateur serait suffisamment puissant pour simuler correctement son
fonctionnement.
La région centrale d'un neurone avec son noyau (nucleus) et d'où partent l'axone et
des dendrites. On voit le réseau de microtubules parallèles connectés par des
protéines. © Stuart Hameroff
Les microtubules, des calculateurs quantiques ?
Mais surtout, et c’est le point le plus critiqué par la communauté scientifique,
Penrose et Hameroff ont prédit que les microtubules seraient des calculateurs
quantiques efficaces, alors que la théorie de la décohérence semble impliquer que
ce n’est pas possible. Les cellules du cerveau et les microtubules seraient trop
chauds et trop perturbés par le bruit de fond ambiant pour que des calculs
quantiques longs aient le temps d’être effectués. En plus court, même en
descendant à l’échelle des tubulines, on est toujours confronté à des objets trop gros
et trop chauds pour manifester des effets quantiques.
Toutefois, Penrose et Hameroff ont répliqué que l’on ne pouvait être certain de rien
sur ce point. On sait bien que des comportements quantiques macroscopiques
d’objets existent bien, comme la supraconductivité et la superfluidité (à basse
température il est vrai, mais on envisage pourtant de créer des supraconducteurs à
température ambiante). On sait aussi que l’effet EPR fonctionne, malgré des
séparations de plusieurs mètres entre des systèmes quantiques. Surtout, des signes
de manifestation de cohérence quantique dans des systèmes biologiques à
température ambiante sont observés depuis quelques années, particulièrement avec
la photosynthèse. Il se pourrait que l’évolution ait découvert le moyen de contourner
l’obstacle de la décohérence quantique.
Les ombres de la physique de l'esprit
Il existe dans la théorie de Penrose et Hameroff une seconde hypothèse encore plus
spéculative. Si des calculs quantiques sont bien effectués par les microtubules, ils
seraient sous la domination des effets de gravitation quantique faisant intervenir des
processus échappant au calcul que postule Penrose au-delà de la mécanique
quantique orthodoxe. C'est notamment au niveau de la réduction du paquet d'ondes
lors d'une mesure que ces effets interviendraient, avec ce qu'il appelle la réduction
objective orchestrée, ou orchestrated objective reduction (Orch-OR) en anglais.
La théorie quantique dont nous disposons actuellement ne serait, pour Penrose
comme pour Einstein et même des physiciens comme John Bell et le prix Nobel
Gerard 't Hooft, qu’une solution partielle bien que très efficace en pratique aux
problèmes de la quantification de l’énergie et de la dualité onde-corpuscule. À un
niveau plus profond de la réalité existerait donc une physique de la conscience
encore inconnue, englobant la théorie quantique orthodoxe, et dont nous ne
pouvons pour le moment voir que l’ombre dans le connectome et les microtubules.
Ainsi que l’existence de l’espace-temps ne devient palpable que lorsqu’on est
confronté à des vitesses proches de celle de la lumière et à des champs de
gravitation intenses, la physique de l’esprit ne deviendrait visible que face à des
objets très complexes.
Entre spéculation scientifique et pseudoscience
Inutile de dire qu’on atteint là le sommet de la spéculation scientifique, où le risque
de se perdre dans des considérations métaphysiques non scientifiques est élevé. On
sait d’ailleurs que plusieurs scientifiques de haut niveau, tels que John Hagelin et le
prix Nobel Brian Josephson, ne professent plus que de la pseudoscience en tentant
d’aborder le problème des bases physiques de la conscience.
Bien que très critique vis-à-vis des hypothèses de Hameroff et Penrose, la
communauté scientifique ne considère pas pour le moment que ces deux
chercheurs ont franchi la ligne rouge. On a plutôt l’impression que ce qu’ils
proposent est du même niveau que les réflexions de Schrödinger dans son célèbre
ouvrage Qu'est-ce que la Vie ? publié en 1944, des réflexions qui ont orienté les
pionniers de la biologie moléculaire vers la découverte de l’ADN, mais l’ont aussi
anticipée.
Indications de cohérence quantique dans les microtubules
Penrose et Hameroff viennent de publier l’année dernière un article dans Physics of
Life Reviews faisant le point sur leur théorie de l’origine de la conscience. La revue
contient plusieurs articles commentant et critiquant leur théorie ainsi que leurs
réponses. On est quand même assez déçu de voir que parmi ces articles, il s’en
trouve un de Deepak Chopra, un célèbre médecin états-unien d’origine indienne
dont les théories sont plus que fumeuses. Mais ce qui frappe le plus, c’est que
Penrose et Hameroff affirment maintenant qu’il y a des signes de l’existence d’un
état de cohérence quantique dans les microtubules. Ils se basent pour cela sur les
travaux d’un chercheur indien, Anirban Bandyopadhyay, du National Institute for
Materials Science à Tsukuba, au Japon, qui étudie les microtubules avec ses
collègues depuis quelques années.
Sur Futura-Sciences à propos des travaux de Penrose et Hameroff remis en
question : http://www.futurasciences.com/magazines/matiere/infos/actu/d/physique-consciencemecanique-quantique-revers-theorie-penrose-18575/
Conscience et mécanique quantique : un revers pour la théorie de Penrose
La mécanique quantique est à la racine des phénomènes de l’Univers. Depuis
des décennies, plusieurs grands physiciens et neurobiologistes soupçonnent
qu’elle puisse être la clé du fonctionnement du cerveau humain. L’une de ces
théories, celle de Penrose-Hamerhoff, vient de recevoir, si ce n’est une
réfutation, du moins un sérieux revers.
Le 16/03/2009 à 11:35 - Laurent Sacco, Futura-Sciences
Niels Bohr, l’un des pères de la mécanique quantique, avait été l’un des premiers à
proposer que le caractère probabiliste et non mécanique au sens classique de la
théorie quantique pouvait être à la source des phénomènes biologiques et en
particulier de la conscience humaine, avec son apparent libre arbitre. Le
neurobiologiste et prix Nobel John Eccles a lui aussi spéculé sur le rôle de la
mécanique quantique dans le fonctionnement du cerveau.
De nos jours, les scientifiques les plus sérieux et les plus célèbres soutenant une
théorie quantique de la conscience sont le grand mathématicien et physicien Roger
Penrose et l’anesthésiologiste Stuart Hameroff.
Sir Roger est connu du grand public pour ses travaux sur les trous noirs, l’origine de
l’Univers et sa mythique singularité primordiale dans le cadre de la relativité
générale. Certainement aussi talentueux et génial que Stephen Hawking sur ces
sujets, il est aussi l’auteur de deux livres L'esprit, l'ordinateur et les lois de la
physique et Les ombres de l'esprit dans lesquels il soutient que, quels que soient les
progrès technologiques, aucun ordinateur fonctionnant selon des principes
algorithmique ne pourra jamais conduire à de la conscience artificielle.
Celle-ci fonctionnerait selon des principes autres, intervenant dans une théorie
quantique de la gravitation, et qui nous sont toujours inconnus.
Cependant, avec Hamerhoff, il a proposé une ébauche de théorie quantique de la
conscience faisant intervenir, dans des structures au cœur des neurones, un
phénomène rappelant celui de la condensation de Bose-Einstein de l’hélium
superfluide et des atomes ultra-froids de béryllium.
On sait que dans les réseaux cristallins, l’application des règles de la mécanique
quantique aux ondes sonores pouvant s’y propager conduit à l’existence de quanta
semblables à ceux des ondes électromagnétiques, les phonons.
En 1968, le physicien Herbert Fröhlich avait théorisé que tout comme les phonons
étaient liés à des oscillations des atomes dans un réseau autour de leur position
d’équilibre, les molécules des membranes biologiques, possédant ce qu’on appelle
un moment dipolaire, se comportaient elles aussi comme des oscillateurs avec des
quanta d’excitations. Or, tout comme pour les phonons, ces quanta sont des
bosons. Selon les calculs de Herbert Fröhlich, le phénomène de condensation
de Bose-Einstein pouvait aussi s’y produire.
Penrose et Hamerhoff ont alors émis l’hypothèse que, dans les neurones, à
l’intérieur des structures appelées microtubules, des condensats de Fröhlich
pouvaient se former. La magie quantique, et plus précisément le phénomène
d’intrication et les processus de traitement de l’information que l’on attribue à
des ordinateurs quantiques, pourraient donc intervenir de cette manière dans
le fonctionnement du cerveau jusqu'à faire émerger la conscience d’un « je »
doué d’un libre arbitre.
Il existe plusieurs types de condensation de Fröhlich et celui invoqué par
Penrose et Hamerhoff, jamais encore observé expérimentalement, est celui dit
de condensat cohérent. Toute la question était de savoir si, déjà
théoriquement, de tels condensats pouvaient se produire dans les
microtubulles.
Un groupe de chercheurs australiens travaillant dans les universités de
Sydney et du Queensland vient de publier un article sur ce problème. Ils sont
parvenus à déterminer la température de formation d’un condensat cohérent
de Fröhlich : au moins 100 millions de kelvins ! Une telle température qui ne
régne même pas au cœur du Soleil ne peut en aucun cas exister dans le
cerveau.
Si la thèse de Penrose-Hamerhoff sur une origine quantique de la conscience,
faisant même intervenir la gravitation quantique n’est pas réfutée, il semble clair,
sous réserve que les calculs des chercheurs australiens soient exacts, que le
modèle précis qu’ils ont proposé est désormais insoutenable...
Sur Wikipedia à Esprit Quantique, on trouve des sérieux concurrents à Roger
Penrose et Stuart Hameroff que l’on explique tout de même, en les personnes
de David Bohm (Effet Aharonov-Bohm le Donut recouvert de miroirs du film
SOURCE
CODE)
et
Gustav
Bernroider
:
https://fr.wikipedia.org/wiki/Esprit_quantique Dernière modification de cette page
le 12 janvier 2016, à 14:00.
Les théories de Roger Penrose et Stuart Hameroff et de Gustav Bernroider
s'appuient sur la neurophysiologie, plus particulièrement sur de possibles effets de
cohérence quantique dans le système nerveux, qui en assureraient la cohérence à
grande échelle et formeraient les bases matérielles (mais de nature quantique, nonlocale) de la conscience (voir 40 Hz, fréquence de la conscience?). Penrose et
Hameroff s’intéressent à la délocalisation des électrons dans les poches
hydrophobes des microtubules, qui forment l'ossature de la cellule, tandis que
Gustav Bernroider et coll. étudient des poches semblables, mais au centre de
canaux ioniques, qui sont localisés sur la surface de la cellule.
La théorie de Bohm s'inscrit davantage dans la lignée philosophique de Bohr
(sans exclure d'éventuels corrélats neurochimiques de la conscience), mais
rejette le postulat qu'il est impossible (en vertu du principe de
complémentarité) de décrire le monde quantique. Pour Bohm, Hiley, Peat,
Pylkkänen et coll., c'est la distinction entre matière et esprit qui doit avant tout
être repensée.
David Bohm
Premiers constats (1951)
Dans son ouvrage de référence Quantum Theory, Bohm observe, dans la lignée de
Bohr et de son principe de complémentarité, que l'impossibilité de mesurer à la fois
la position et la vitesse (momemtum) d'une particule (le principe d'indétermination
d’Heisenberg) est analogue à l'impossibilité de connaître la teneur d'une pensée en
même temps que ce vers quoi elle tend (voir intentionnalité). Paavo Pylkkänen
l'illustre par l'exemple d'une personne à qui on demanderait de décrire ce à quoi elle
pense alors qu'elle est dans un train de penser : ce mouvement s'interrompt au
moment de la prise de conscience de ce à quoi elle pense. Bohm a cherché à savoir
s'il existait, derrière la réalité quantique et les réalités de l'esprit une explication
commune à ces paradoxes.
L'ordre implicite
David Bohm affirme que la mécanique quantique et la théorie de la relativité sont
contradictoires et que cette contradiction implique qu'il existe un niveau encore plus
fondamental dans l'univers physique, qui serait une unité indivisible, un ordre
implicite à partir desquels apparaît l'ordre explicite de l'univers tel que nous le
connaissons. L'ordre implicite de Bohm s'applique à la fois à la matière et la
conscience, et il propose que cet ordre implicite pourrait expliquer la relation entre
matière et conscience. L'esprit et la matière sont vues comme des projections dans
notre ordre explicite à partir de la réalité sous-jacente de l'ordre implicite.
Dans le formalisme de Bohm, il y a un niveau fondamental où la conscience n'est
pas distincte de la matière. La position de Bohm sur la conscience est liée à la
théorie holographique du cerveau de Karl Pribam. Celui-ci considère que la vue et
les autres sens sont des lentilles sans que les autres sens apparaissent comme des
hologrammes. Pribam affirme que l'information est enregistrée dans tout le cerveau
et qu'elle est enveloppée dans un tout de manière similaire à un hologramme. Il est
suggéré que les souvenirs sont connectés par association et qu'ils sont manipulés
par la pensée logique. Si le cerveau reçoit aussi des informations à travers nos sens,
alors les souvenirs, les associations, la pensée logique et la perception sensorielle
sont censés être unifiés dans l'expérience globale de la conscience.
En essayant de décrire la nature de la conscience, Bohm évoque l'expérience
d'écouter de la musique. Il pense que la sensation de mouvement et de changement
qui constitue l'expérience de la musique provient à la fois du passé immédiat et du
présent conservés ensemble dans le cerveau, que les notes du passé sont vues
comme des transformations plutôt que des souvenirs. Les notes qui étaient
implicites dans le passé immédiat sont perçues comme explicites dans le présent.
Bohm compare ce phénomène à la conscience qui se dégage de l'ordre implicite.
Bohm considère que le mouvement, les changements et aussi la cohérence
d'expériences comme écouter de la musique comme la manifestation d'un ordre
implicite. Il affirme détenir la preuve de ce qu'il affirme à partir des travaux de Piaget
sur les nouveau-nés. Il affirme que ces travaux démontrent que les bébés doivent
faire l'apprentissage du temps et de l'espace qui font partie de l'ordre explicite, mais
par contre ils ont une perception du mouvement qui est codée en dur car faisant
partie de l'ordre implicite. Bohm compare ce codage en dur et la théorie de
Chomsky qui affirme que la grammaire est codée en dur dans les cerveaux des
enfants. Dans ses publications, Bohm n'a pas proposé de mécanisme spécifique du
cerveau par lequel l'ordre implicite pourrait émerger en rapport avec la conscience.
Les implications de la théorie de Bohm dans le domaine du problème corps-esprit
sont actuellement étudiées par Paavo Pylkkänen.
Gustav Bernroider
Des papiers récents du physicien Gustav Bernroider, ont laissé à penser que
ce dernier fait l'hypothèse que la structure implicite/explicite de Bohm peut
être prise en compte pour la relation entre les processus neuronaux et la
conscience. Dans un papier publié en 2005, Bernroider a précisé sa thèse en
ce qui concerne les bases physiques de ce processus. L'idée principale
développée dans son papier est que la cohérence quantique peut être
entretenue dans les canaux ioniques des neurones suffisamment longtemps
pour pouvoir être utilisée par les processus neuronaux. De plus, ces canaux
peuvent se superposer aux lipides environnants, des protéines et d'autres
canaux de la même membrane. Les canaux ioniques régulent le potentiel
électrique à travers la membrane de l'axone, et par conséquent jouent un rôle
central dans le traitement de l'information par le cerveau.
Bernroider base ses travaux sur des études récentes du canal ionique
potassium (K+) dans son état fondamental. Il s'inspire particulièrement des
recherches sur la spectroscopie au niveau atomique de l'équipe de
MacKinnon. Les canaux ioniques ont une région qui sert de filtre qui accepte
les ions K+, mais qui ne laisse pas passer les autres ions. Ces travaux
montrent que la région filtre a une structure de 5 ensembles de 4 atomes
d'oxygène. Cette structure fait partie du groupe carboxyle des molécules
acido-aminées dans la protéine environnante. Ces dernières sont appelées
poches de liaison. Deux ions K+ sont piégés dans le filtre de sélection du
canal ionique fermé. Chacun de ces ions est lié électrostatiquement à 2
ensembles d'atomes d'oxygène ou poches de liaison, ce qui implique 8
atomes d'oxygène au total. Chacun de ces ions dans le canal oscille entre
deux configurations.
Bernroider utilise cette structure qui a été récemment découverte pour
spéculer sur la possibilité d'une cohérence quantique des canaux ioniques.
Les calculs de Bernroider et de son coauteur Sisir Roy les amènent à penser
que le comportement des ions dans le canal K ne peut être compris qu'au
niveau quantique. Ceci est leur hypothèse de départ. Ensuite, ils se
demandent si la structure du canal ionique peut être liée à des états logiques.
Des calculs supplémentaires les amènent à penser que les ions K+ et les
atomes d'oxygène des poches de liaison sont deux systèmes quantiques
superposés, qu'ils peuvent alors considérer comme un ordinateur quantique
effectuant le calcul d'une correspondance. Les ions qui sont destinés à être
expulsés du canal sont supposés encoder l'information concernant l'état des
atomes d'oxygène. Il est aussi proposé que les canaux ioniques séparés
pourraient être liés au niveau quantique.
L'exposition aux champs électromagnétiques agit via l'activation des canaux
calciques voltage-dépendants de type L. Comment cela conduit à
l'hypersensibilité électromagnétique (EHS) et à d'autres effets sur la santé :
http://cdel.us6.listmanage.com/track/click?u=6997dbbac2f5a852fc3f7aea4&id=1ba8c6813d&e=12
1d2b09ec
Par : Martin L. Pall : Professeur émérite de biochimie et de sciences médicales
fondamentales
Washington
State
University
thetenthparadigm.org
[email protected]
On sait depuis plus de 30 ans que les champs électromagnétiques pulsés sont
souvent beaucoup plus actifs biologiquement que les champs non-pulsés. Comme je
le disais, c'est incompatible avec le paradigme thermie/chaleur puisque les champs
pulsés produisent soit moins de chaleur, soit la même quantité de chaleur selon la
façon dont l'expérience est menée. Nous sommes donc confrontés à une énigme
importante concernant la façon dont ces champs électromagnétiques basse
fréquence peuvent influencer notre biologie, pour le meilleur ou pour le pire. Ces
champs électromagnétiques sont constitués de photons de basse énergie, avec une
énergie par photon trop faible pour influencer la chimie du corps ! Comment
peuvent-ils influencer notre biologie par des effets non thermiques ? Et pourtant, les
études sont nombreuses à montrer qu'ils le font.
J'ai récemment résolu cette importante énigme. Les champs électromagnétiques :
CEM activent les canaux calciques voltage-dépendants. Et ce sont les effets en aval
de l'augmentation du Ca2+ intracellulaire qui conduisent aux effets biologiques de
l’exposition aux CEM. La preuve principale est que toute une série d'études
montrent que dans les études sur l’exposition à divers champs électromagnétiques
de basse fréquence, tous les effets produits peuvent être bloqués par des inhibiteurs
des canaux calciques, c’est-à-dire des médicaments qui inhibent les canaux
calciques voltage-dépendants. La conclusion est que ces champs
électromagnétiques agissent sur le plan biologique en activant les canaux
calciques voltage-dépendants (CCVD) est en outre soutenue par des centaines
d'études qui montrent que l'exposition aux champs électromagnétiques microondes est suivie par de grandes augmentations du calcium intracellulaire et/ou
par des modifications de la signalisation calcique.
En outre, cette conclusion est également étayée par les études de
modélisation biophysiques de Panagopoulos et al, qui montrent que les CEM
peuvent agir par le biais de leurs interactions avec les résidus d'acides aminés
chargés qui régulent l’ouverture et la fermeture du canal, pour ouvrir les
canaux ioniques voltage-dépendants. Ainsi l’activation des CCVD par les CEM
est biophysiquement plausible et a été prédite à partir de la modélisation
biophysique !
(…)
Les résultats montrant que l'exposition aux CEM agit via l'activation des CCVD
fournissent, pour la première fois, une réponse à l'énigme relative à la manière dont
l'exposition aux CEM composés de photons de basse énergie peut affecter notre
biologie et la médecine. Parce que l'augmentation du Ca2+ intracellulaire produite
par activation des CCVD peut agir, à son tour, pour stimuler la synthèse de l’oxyde
nitrique (NO), de telles augmentations peuvent également avoir un rôle important.
Pilla a récemment montré que ces expositions aux hyperfréquences pulsées des
CEM produisent des augmentations quasi instantanées du Ca2+ intracellulaire mais
aussi de la synthèse de l’oxyde nitrique (NO) (le tout survenant en moins de 5
secondes) :
Pilla AA. Electromagnetic fields instantaneously modulate nitric oxide signaling in
challenged biological systems. Biochem Biophys Res Commun. 2012;426:330-3.
La plupart des réponses physiologiques au Ca2+ et à l’oxyde nitrique,
agissent comme suit :
L’ON augmente Ie taux de GMP cyclique (GMPc), ce qui conduit à la
stimulation de la protéine kinase GMPc-dépendante (protéine kinase G).
En revanche, la plupart des effets physiopathologiques de NO sont médiés par
son rôle de précurseur du péroxynitrite (ONOO-), induisant la production de
radicaux libres et de stress oxydatif.
Il existe toute une série de similitudes entre les récepteurs NMDA (Sur Wikipedia :
Les récepteurs NMDA sont des récepteurs ionotropes activés dans des conditions
physiologiques par le glutamate et la glycine1 qui sont essentiels à la mémoire et à la
plasticité synaptique. Ce sont les seuls récepteurs au glutamate à être
spécifiquement activés par l'agoniste pharmacologique N-méthyl-D-aspartate
(NMDA). Ils sont perméables aux cations monovalents (sodium, potassium) et au
calcium. En raison de la perméabilité au sodium et au potassium, le potentiel de
réversion des NMDAR est autour de 0 mV. L'entrée de calcium dans le neurone via
les récepteurs de NMDA serait un mécanisme d'induction de la plasticité synaptique.
Les récepteurs NMDA sont bloqués par l'ion magnésium qui occupe l'entrée du pore,
et qui peut être libéré en cas d'inversion de potentiel électrochimique. La glycine et
le glutamate sont nécessaires à l'activation des récepteurs NMDA) et les CCVD de
type L :
1. Les deux ouvrent un canal ionique lorsqu'ils sont activés.
2. Les deux canaux restent ouverts pour une période de temps relativement longue
par rapport aux autres canaux.
3. Les deux permettent à des quantités importantes de calcium de circuler dans la
cellule.
4. On pense que les effets des deux sont médiés par un excès de calcium
intracellulaire [Ca2+]i.
5. Les deux produisent de grandes quantités d’oxyde nitrique (NO), en raison de
l'action de deux oxyde nitrique synthases calcium-dépendantes, avec le NO qui
induit souvent dans les deux cas la production de péroxynitrite.
6. Tous deux se sont révélés être en mesure de stimuler la potentialisation à long
terme, un processus dans le système nerveux central impliqué dans l'apprentissage
et la mémoire en produisant une sensibilisation neurale.
1. Ce que l'on appelle le cycle NO/ONOO-, c’est-à-dire un cercle vicieux
biochimique, essentiellement local, qui est initié par divers déclencheurs, y compris
ceux qui agissent via l’augmentation de l'activité NMDA, et qui se propage lui-même
au fil du temps.
2. Et un autre mécanisme connexe suggéré par le Dr Iris Bell et d'autres chercheurs
pour son implication dans la MCS, à savoir la sensibilisation neurale causée par ce
qui est connu sous le nom de potentialisation à long terme. Cela peut également
impliquer l'activité du récepteur NMDA et d'autres mécanismes qui font partie du
cycle NO/ONOO-. Le 1 et le 2 sont examinés en détail dans ma revue de toxicologie
sur la MCS.
L’exposition aux CEM, en activant les CCVD de type L devraient également être en
mesure d’induire les deux mécanismes. Nous l'avons déjà dit, il existe des données
sur le fait que les CCVD de type L peuvent initier la potentialisation à long terme,
tout comme les récepteurs NMDA. De même, ils produisent de fortes augmentations
des taux de calcium intracellulaire qui peuvent, avec leurs effets en aval, agir pour
initier le cycle NO/ONOO-.
En conséquence, dans le cerveau, l’EHS agit comme suit :
Les CEM micro-ondes sont plus actifs en activant les CCVD dans certaines régions
du cerveau que dans d'autres.
Dans ces régions ou ils sont les plus actifs ils élèveront les taux de [Ca2+]i, d’oxyde
nitrique et de péroxynitrite, démarrant le cycle NO/ONOO(-).
Cela rendra cette zone plus sensible à une exposition supplémentaire car le cycle a
déjà commencé, provoquant une plus grande sensibilité qu’auparavant.
Cela stimulera également une potentialisation à long terme, faisant que les synapses
deviennent hypersensibles. Vous avez donc encore une sensibilité supplémentaire.
La protéine kinase C’est également stimulée par une exposition préalable et par le
cycle NO/ONOO(-), ce qui fait que les CCVD sont encore plus sensibles à la
stimulation.
Sur : http://asthme-reality.com/manipulations/pages/brevetsons.htm (dont les
scientifiques
cités
ont
été
vérifiés
via
le
site :
http://www.constitution.org/abus/mkt/uncom.htm#LIDAM
:
le
site
de
CONSTITUTION.ORG qui nous accueille ainsi à sa HOME PAGE : Welcome to
the CONSTITUTION SOCIETY : The Constitution Society is a private non-profit
organization founded in 1994 and dedicated to research and public education
on the principles of constitutional republican government. It publishes
documentation, engages in litigation, and organizes local citizens groups to
work for reform. La seule ressource scientifique comportant les recherches de
Madame Eleanor WHITE disponible car le site RAVEN 1 a été supprimé ! Le
sous-titre est : The State of Unclassified and Commercial Technology
Capable
of
Some
Electronic
Mind
Control
Effects
Eleanor White, P.Eng).
Moyens technologiques de manipulation des masses
Sons subliminaux : brevets
Recherches et brevets sur les possibilités de faire entendre des sons autrement que
par l'utilisation d'ondes sonores mécaniques et en faisant emprunter au son une
autre voie que le système auditif. Comme par exemple les recherches de Allan Frey
en 1962 et de Joseph Sharp en 1974 sur la transmission de sons qui semblent
naître à l'intérieur du crâne en utilisant des micro-ondes ou des ultrasons.
Plusieurs
brevets
décrivent
ces
possibilités.
UN DES BREVETS existants, accordé à Wayne Brunkan le 31 octobre 1989
United
States
Patent
4,877,027
Brunkan
Oct.
31,
1989
Système
auditif,
résumé :
:
Il est possible de transmettre du son dans la tête d’une personne en irradiant sa tête
avec des micro-ondes à des niveaux de fréquences de 100 MHz à 10 000 MHz qui
sont modulées pour former un type d’onde bien particulier. Cette onde prend la
forme d’impulsions périodiques récurrentes de très courte durée modulées en
fréquence. Chaque impulsion est faite de 10 à 20 pulsations également espacées et
très rapprochées les unes des autres. La largeur de chaque impulsion se situe entre
500 nanosecondes et 100 microsecondes. La largeur de la pulsation se situe entre
10 nanosecondes et 1 microseconde. Les impulsions sont modulées en fréquence
par l’information audible afin de créer l’impression d’entendre chez la personne dont
la
tête
est
irradiée.
Inventeurs : Brunkan; Wayne B. (P.O. Box 2411, Goleta, CA 93118).
N°
de
dossier
:
202,679
Déposé
:
6
juin,
1988
Classification
internationale
:
A61N
5/00
Classification
américaine
actuelle
:
607/56
Domaine de recherche : 128/420.5, 804, 419 R, 421, 422, 746; 381/68
Les
recherches
d'Allan
H.
Frey
Réponse du système auditif humain à de l'énergie électromagnétique modulée par
ALLAN
H.
FREY
General
Cornell
Journal
de
Electric
University,
physiologie
Advanced
Ithaca,
appliquée
Electronics
New
17(4):
689-692.
Center
York
1962.
Ce document est destiné à attirer l’attention des physiologistes sur un nouveau
phénomène. En utilisant des densités de puissance d’énergie électromagnétique
extrêmement basse en moyenne, il a été possible d’induire la perception de sons
chez des personnes normales ou sourdes. Cet effet était induit à plusieurs
kilomètres de l’antenne dès l’instant où l’émetteur était allumé et est fonction de la
fréquence de la porteuse et de la modulation. Il y a eu des tentatives de faire
correspondre les sons induits par l’énergie électromagnétique avec ceux produits
par l’énergie acoustique. Le meilleur résultat était obtenu quand l’amplificateur
acoustique était commandé par le modulateur de l’émetteur de radiofréquences. La
densité de puissance maximum est un facteur critique et si le bruit acoustique est d’à
peu près 80 db, une densité de puissance maximum d’environ 275 mw / rf est
nécessaire pour induire la perception à des fréquences porteuses de 125 mc et
1,310 mc (mégacycles). La densité de puissance moyenne peut se situer à un
niveau de radiofréquences de l’ordre de 400 µ_w/cm2. Les différents endroits qui ont
été prouvés positifs pour capter l’énergie électromagnétique sont analysés tandis
que
la
périphérie
de
la
cochlée
est
exclue.
Reçu
pour
être
publié
le
29
septembre
1961
Des recherches approfondies ont été menées concernant les effets des
radiofréquences (RF) sur les organismes (énergie électromagnétique entre 1 kc et **
Gc). En règle général, ces travaux concernaient l’évaluation des dommages
découlant de l’augmentation de la température du corps. Les densités de puissance
moyennes utilisées étaient de l’ordre de 0,1-t w/cm² pendant une période allant de
plusieurs
minutes
jusqu’à
plusieurs
heures.
En comparaison, en utilisant des densités de puissance moyenne mesurées en
microwatts par cm², nous avons découvert que des effets ****r qui sont transients
(ou transitoires), peuvent être induits avec des radiofréquences. De plus ces effets
se produisent dès que l’émetteur est allumé. Avec la modulation appropriée, il est
possible d’induire des sons chez les personnes sourdes comme chez les personnes
normales, qu’elles se trouvent à quelques centimètres ou à plusieurs milliers de
kilomètres de l’émetteur. Avec des paramètres de transmission quelques peu
différents, vous pouvez induire la perception de coups brutaux à la tête, sans aucun
autre symptôme vestibulaire manifeste tels que les étourdissements ou la nausée.
En changeant et en diminuant encore les paramètres de l’émetteur, il est possible
d’induire
la
sensation
de
fourmillements.
Des recherches expérimentales avec ces phénomènes pourraient donner des
informations sur le fonctionnement du système auditif et de façon plus générale sur
les fonctions du système nerveux. Cette énergie pourrait être utilisée pour explorer
les codes du système nerveux par exemple, en utilisant si possible les procédures
Neider et Neff et pour stimuler le système nerveux sans occasionner les blessures
dues
aux
électrodes.
*
=
illisible
sur
l’original
Transmettre
Micro-ondes
Laboratoires
Veterans
publié
Journal
Volume
du
et
son : Dr. Joseph Sharp (traduction de l'article)
comportement
par
le
Dr.
Don
R.
Justesen
de
neuropsychologie
expérimentale
Administration
Hospital,
Kansas
City,
Missouri
dans
of
the
30,
"The
American
March
American
Psychologist"
Psychological
Association
1975,
Number
3
[Note d’Eleanor White, ingérnieur et consultante technique de l’association CAHRA :
Cet article décrit en termes précis comment Dr. Joseph C. Sharp et son équipe
ont transmis les mots correspondant aux nombres 1 à 10 en utilisant une
version modulée de l’émetteur à micro-ondes pulsés d’Allan Frey, (description
détaillée
en
anglais
du
dispositif
de
Frey]
Page :
396
:
La démonstration de la transformation en sons de l’énergie micro-ondes par des
matériaux manquant d’eau diminue la probabilité qu’un principe thermohydraulique
est à l’oeuvre dans la perception humaine de cette énergie. Cependant, une certaine
forme de thermoacoustique accompagne probablement la perception. Si c’est le cas,
il est clair que simplement chauffer n’est pas suffisant pour obtenir l’effet Frey, la
nécessité d’avoir des radiations qui sont pulsées semble impliquer un principe
thermodynamique.
Frey et Messenger (1973) et Guy, Chou, Lin, et Christensen (1975) confirment
qu’une impulsion micro-onde avec un temps de montée lent ne produit pas de
réponse auditive; seulement si le temps de montée est court, avec pour résultat une
onde de forme carré quant-au contour de l’enveloppe d’énergie de type
radiofréquence
émise,
on
obtiendra
une
réponse
auditive.
[Commentaire d’Eleanor White : voilà pourquoi nous „n’entendons pas“ les signaux
des
ondes
radio
ou
télévisuelles
ordinaires]
Donc la fréquence de changement (la première dérivée) de la forme d’onde que
prend l’impulsion est un facteur important de la perception. En se basant sur une
interprétation thermodynamique, on pourrait déduire qu’une information peut être
encodée
dans
cette
énergie
et
"communiquée"
à
l’"auditeur."
Ce type de communication a en fait été démontré. A. Guy, un télégraphiste doué, a
mis au point pour son père, un télégraphiste de compagnie ferroviaire à la retraite,
un système fonctionnant avec un interrupteur, dont l’ouverture ou la fermeture
provoquait l’émission d’énergie micro-onde pulsée. En dirigeant les radiations vers
sa propre tête, des messages complexes en morse ont été facilement reçus par
Guy.
Sharp et Grove ont découvert que moduler de l’énergie micro-onde de façon
appropriée peut permettre de communiquer de la parole sans utiliser de
"câble" ou de "récepteur." Ils enregistrèrent oralement sur une cassette
chacune des syllabes anglaises correspondant aux chiffres entre un et 10. Les
analogues électriques sous forme d’ondse sinusoïdales de chacun des mots
ont ensuite été traités afin que chaque fois qu’une onde sinusoïdale traversait
la référence zéro vers le moins, cela déclenchait l’émission d’une brève
impulsion
d’énergie
micro-onde.
[Commentaire d’Eleanor White : Ceci est en fait une forme de ce que l’on appelle la
modulation
de
l’impulsion
en
vitesse].
En s’irradiant eux-mêmes avec ces micro-ondes "modulées en voix," Sharp et Grove
ont facilement été capables d’entendre, d’identifier et de distinguer les 9 mots. Les
sons entendus étaient relativement similaires à ceux émis par une personne avec un
larynx
artificiel.
La communication de mots plus complexes et de phrases n’a pas été tentée car la
densité moyenne d’énergie nécessaire pour transmettre des messages plus longs
aurait approchait les 10 milliwatt par cm² considérés actuellement comme la limite
d’exposition
à
ne
pas
dépasser.
La capacité de communiquer directement avec un être humain par "radio sans
récepteur" offre des perspectives prometteuses à la fois au sein de la clinique et à
l’extérieur. Mais la question controversée et pas encore résolue de la quantité de
radiations micro-ondes à laquelle un être humain peut être exposé sans craindre
pour sa santé va probablement devancer les applications de ce type de
communication dans un proche avenir.
Résumé des premières découvertes en sciences civiles et citations diverses
sur
le
sujet :
En 1973 Dr Gerald Oster a découvert un phénomène particulier à l'école de
Médecine du Mont Sinai à New York. Dr Oster avait étudié les effets des ondes
sonores sur le cerveau. Il a découvert que faire entendre grâce à des écouteurs,
deux tonalités différentes séparément à chaque oreille, faisait émettre le cerveau à
une fréquence obtenue en faisant la différence entre les deux tonalités, par exemple
si l'oreille gauche reçoit une fréquence de 400Hz et l'oreille droite une fréquence de
406Hz
on
trouvera
une
activité
dominante
de
6Hz
sur
l’EEG
(electroencéphalogramme). Il a appelé ce phénomène : battements binauraux.
Robert Monroe, fondateur de l'Institut Monroe des sciences appliquées en Virginie,
a mené d’autres études sur ces phénomènes et a découvert des combinaisons
particulières de tonalités et fréquences qui produisent des effets spécifiques chez
l'homme. Sur les milliers de combinaisons de fréquences possibles qui pourraient
être reproduites, Monroe et son équipe en ont sélectionné cinquante trois qui avaient
des effets très positifs sur le cerveau. Monroe a fait breveter ce procédé en 1975, en
l’appelant RAF Réponse d’Adoption de Fréquence ou FFR (Frequency Following
Response). Monroe a également développé une série de cassettes, utilisant les
combinaisons de fréquences que lui et son équipe ont découvertes. Il a appelé la
série HemiSync, pour Synchronisation des Hémisphères.
Brevet US 5,159,703 : Procédé pour effectuer des présentations subliminales
silencieuses: ”Silent subliminal presentation system”, brevet accordé par
l’Office
des
brevets
américains
United
States
Patent
n°
5,159,703
Lowery
27
octobre
1992
Résumé
:
Système de communication silencieux, où l’onde porteuse non audible, utilisant une
gamme de fréquences très élevées ou très basses ou bien le spectre adjacent des
ultrasons, voit son amplitude ou fréquence modulée en fonction de l’information à
transmettre et propagée par voie acoustique ou vibratoire pour transmission dans le
cerveau généralement par l’intermédiaire de haut-parleurs, écouteurs ou
transducteurs piézoélectriques. Les ondes porteuses modulées peuvent être
transmises directement en temps réel ou bien peuvent être enregistrées et
conservées très facilement sur des supports mécaniques, magnétiques ou optiques
pour
une
transmission
tardive
ou
répétée
à
l’auditeur.
Inventeurs : Lowery; Oliver M. (5188 Falconwood Ct., Norcross, GA 30071)
No
du
dossier
:
458339
Déposé : 28 décembre 1989
Brevet US 5,213,562 : Méthode pour induire des états de conscience mentaux,
émotionnels et physiques, ainsi qu’une activité mentale spécifique chez les
êtres
humains
.
United
States
Patent
n°
5,213,562
Monroe
25
mai
1993
Résumé
:
Une méthode dont les types d’applications concerne la reproduction d’états de
conscience souhaités; la formation d’un individu à reproduire un tel état de
conscience sans autre stimulation sonore; et le transfert de tels états d'un être
humain vers un autre en imposant à un individu l’EEG d’une autre personne
superposé aux signaux stéréo désirés, qui déclencheront le phénomène du
battement
binaural.
Inventeurs:
Monroe;
Robert
A.
(Nelson
County,
VA)
cédé
à
:
Interstate
Industries
Inc.
(Faber,
VA)
No.
de
dossier:
514460
déposé le : 25 avril 1990
Méthode et dispositif pour induire les états de conscience souhaités, brevet
accordé
par
l’Office
des
brevets
américains
United
States
Patent
n°
5,356,368
Monroe
18
octobre
1994
Résumé
:
Méthodes améliorées et dispositif destinés à entraîner le cerveau à adpoter un
modèle d’activité cérébrale. Utilise la Réponse d’Adoption de Fréquence (RAF ou
FFR Frequency Following Response) et facilite l’obtention de l’état de conscience
souhaité. Dans l’un des cas, une grande variété de formes d’ondes d’un
électroencéphalogramme (EEG), spécifiques à un état de conscience donné, sont
combinées pour produire une forme d’onde d’EEG à laquelle les sujets seront peutêtre plus facilement susceptibles. Dans un autre cas, des modèles d’activités
correspondant au sommeil sont reproduits en copiant des périodes d'activités
cérébrales types, observées au cours de portions d’un même cycle de sommeil; les
principes de la synchronisation du cerveau sont appliqués pour induire le sommeil.
Dans un cas supplémentaire, les principes de la synchronisation du cerveau sont
appliqués au milieu du travail afin d’induire et de maintenir le niveau souhaité de
conscience.
Un
dispositif
portatif
est
également
décrit.
Inventeurs:
Monroe;
Robert
A.
(Nelson
County,
VA)
cédé
à
:
Interstate
Industries
Inc.
(Faber,
VA)
No.
de
dossier:
664176
Déposé : 1er mars 1991
Sur : http://asthme-reality.com/manipulations/pages/ultrasons.htm
Moyens technologiques de manipulation des masses
Ultra-sons subliminaux : les applications commercialisées
"L'air qui engendre un son parfait" dans l'hebdomadaire scientifique "New
Scientist"
du
7
septembre
1996
par
Gary
Eastwood :
Un dispositif musical qui semble faire surgir le son de nul part pourrait remplacer les
technologies de sonorisation conventionnelles, disent ses réalisateurs. Le dispositif
prototype n'a pas de haut-parleurs conventionnels. Au lieu de cela il se base sur les
ondes des ultrasons pour créer un hologramme sonore ou des schémas
d'interférences en plein air. Cette technologie pourra servir aussi bien comme
système de sonorisation amélioré que, une fois adapté, pour des applications dans
le domaine du contrôle des foules. Le système pourrait cibler des individus désignés
avec de puissantes ondes sonores à basses fréquences qui sont temporairement
incapacitantes pour les êtres humains. "American Technology Corporation"
(ATC) à Poway, en Californie, a développé ce prototype, c’est le responsable en
chef du Département Technologie de la compagnie, Elwood Norris qui est à
l’origine de l’idée. La Société dévoilera le prototype aux USA ce mois-ci (septembre
1997) et espère commercialiser les premières versions d’ici un an. Le système émet
deux ultrasons de fréquences différentes. Chaque ensemble d’ondes est à une
fréquence trop élevée pour être entendu, mais à l’endroit où ces ondes se croisent
ou interfèrent, elles produisent du son audible. L'effet équivaut à „générer des
oscillations électriques de type hétérodyne pour entraîner un changement de
fréquence des ondes acoustiques“ (ou "acoustique hétérodyne") et se base sur le
phénomène dit de Tartini, ou différence de tonalité. Au 18ème siècle, le compositeur
italien Guiseppe Tartini a remarqué que deux ondes sonores de fréquences
différentes qui se croisent produiront un troisième son, dont la fréquence est la
différence entre les deux. Ce phénomène "d’acoustique hétérodyne“ se produit aussi
avec les ultrasons. Deux ultrasons aux fréquences trop élevées pour être audibles,
telles que 200 kilohertz et 201 kilohertz, produiront un son audible de 1 kilohertz. Les
ultrasons du prototype sont produits par des cristaux piézoélectriques, ou des
transducteurs. Une tension oscillante transmise aux cristaux les fait vibrer de façon
similaire à celle d’un haut-parleur. Un cristal émet un signal fixe de 100-kilohertz,
alors que le signal de l’autre cristal varie entre 100 kilohertz et 120 kilohertz. Ceci
produit des différences de tonalités entre 0 hertz et 20 kilohertz, ce qui couvre toute
la gamme de l'audition humaine." "La sensation est vraiment stupéfiante," dit Norris.
"Si vous dirigez le son en direction d’un mur, toutes les personnes dune salle comble
indiqueront le même endroit comme point de départ de ce son. Vous pouvez alors
déplacer le son vers le centre de la salle et le projeter au-dessus des têtes de
l’assistance." Le système produit du son indirectement, ce qui devrait éliminer la
distorsion normale provoquée par les haut-parleurs, dit Norris. Il pense que cela
pourrait améliorer les téléphones et les appareils auditifs, et permettre des effets
sonores supplémentaires dans les salles de cinéma. La source sonore mobile
pourrait être employée pour représenter, par exemple, le passage d’un avion à
réaction au-dessus des têtes des spectateurs. Il n'y a pas de raison pour que cela ne
fonctionne pas," dit Peter Fryer, responsable de la recherche de B&W Loudspeakers
à Steyning, dans le Sussex. "Mais les hautes fréquences peuvent être si élevées
que les ondes risquent de ne pas se propager très loin, l’air les absorbant. Seuls les
essais
permettront
de
prouver
l’efficacité
du
système."
Le système pourrait également avoir des applications dans le contrôle des foules.
Des sons puissants et de basses fréquences peuvent provoquer désorientation et
nausées. Dans les années 60, les USA ont essayé sans succès d'utiliser les
infrasons à partir d’hélicoptères pour mettre les soldats ennemis hors de combat
dans la jungle vietnamienne. Mais les sources sonores nécessaires étaient si
puissantes que les secousses ont presque démonté l'avion, et la majeure partie du
son a été absorbée par ceux qui étaient proches des haut-parleurs. Selon Norris,
l’acoustique hétérodyne permet de viser très exactement un individu jusqu'à une
distance de 200 ou 300 mètres en plaçant la zone d'interférence correctement.
L'Audio-projecteur :
Le
son
projeté
comme
la
lumière :
Tout comme un rayon de lumière ou un laser peut éclairer un point précis, ”l’audioprojecteur” peut ‘’sonoriser’’ avec un faisceau de son projeté dans l’air. C’est un
jeune chercheur américain du MediaLab qui a inventé cet appareil capable de défier
les lois de l’acoustique. Joseph Pompéii est un surdoué qui a été embauché
comme acousticien à 16 ans par la société Bose. Mais personne ne croyait à son
idée de projection du son, jusqu’à ce qu’il aille frapper à la porte du fameux
laboratoire du Massachusset Institute of Technology, le MediaLab. Spécialisé
dans l’innovation, ce laboratoire a donné à Joseph Pompéii les moyens de mener
ses recherches. Et le résultat est là : un boîtier relié à une sorte de galette de
matériau composite noir permet de braquer le son comme un laser. L’audioprojecteur convertit un rayon d’ultrasons en un faisceau étroit de son en utilisant les
capacités de résonance de l’air. Comme l’explique l’inventeur, ce faisceau est au
haut-parleur ce que le laser est à l’ampoule. On entend le son lorsqu’on traverse le
faisceau, le reste de la pièce est silencieux. L’appareil peut projeter un son de 80
à 90 décibels jusqu’à 200 mètres. Il ne s’agit pas de remplacer les enceintes pour
l’usage quotidien mais on imagine déjà de multiples applications pour des
spectacles, des expositions ou des grandes surfaces. L’armée américaine s’y
intéresse aussi.
Maintenant il est possible d'avoir du son pour un usage personnel sans qu'aucun
équipement ne protège nos oreilles. M. Pompeii reçoit des lettres et des emails en
provenance du monde entier de la part de gens convaincus que son audioprojecteur est utilisé dans leur cas comme dispositif de contrôle des esprits
("mind
control").
Absolument
pas,
dit-il
en
riant.
Mais M. Pompeii aime trop s'amuser pour ne pas faire quelques traits d'esprit de son
invention. Se tenir sur le balcon de son bureau du 4ième étage et émettre le son de
verres qui se brisent en direction des traiteurs en bas est l'un de ses favoris. Les
traiteurs décontenancés s'arrêtent presque toujours pour regarder au sol.
Finalement ils lèvent les yeux ou ils nous entendent rire dit-il. Maintenant les
traiteurs
ont
l'habitude.
Les gens ont écrit à M. Pompeii en demandant des dispositifs pour les protéger des
utilisations insidieuses de l'audio-projecteur à des fins de contrôle des esprits. Il a
joué avec l'idée de vendre des bouchons d'oreilles "audio-projecteur" sur son site
Internet pour satisfaire la demande. Bien sûr, comme les sons audibles produits par
son dispositif sont des ondes sonores normales, le produit serait tout simplement
des bouchons ordinaires ornés de son logo. Mais si cela peut tranquilliser les gens,
cela en vaut peut être la peine.
Et
comme
bien
expliqué
reality.com/manipulations/index.htm
sur
le
site :
http://asthme-
On appelle "techniques de manipulation des masses", l'ensemble des moyens
d'influence permettant la manipulation de l'opinion publique à des fins
politiques, économiques ou stratégiques.
Selon Gurdieff, l'homme ordinaire est constamment dans un état d'inconscience
analogue au sommeil, il n'est qu'une machine qui ne contrôle ni ses actes ni ses
pensées. Pour s'éveiller, il faut comprendre que l'on ne sait rien de soi-même et que
le rappel de soi est la première étape vers le véritable éveil.
Gurdieff
classe
les
hommes
en
quatre
groupes
:
-le
cercle
intérieur
qui
réunit
les
humains
éveillés
-le cercle mésotérique qui regroupe les humains "théoriquement" éveillés
-le cercle exotérique qui regroupe les humains qui se réveillent
-le cercle extérieur qui regroupe les humains endormis
Contre-mesures
Les
règles
d'Alynski :
En 1970, Saul Alynski, provocateur hippy, publiait un manuel énonçant des règles
tactiques pour survivre en société ou pour la combattre :
- le pouvoir n'est pas ce que l'on a mais ce que les autres croient que l'on a
- il faut sortir du champ d'expérience de son adversaire, il faut inventer de
nouveaux
terrains
de
lutte
- il faut combattre son ennemi avec ses propres armes. Utiliser les éléments de
son
propre
livre
de
référence
pour
l'attaquer
- l'humour est l'arme la plus efficace, si on ridiculise ou si on pousse son
adversaire à se ridiculiser, il lui est plus difficile de se battre
une
tactique
ne
doit
jamais
devenir
une
routine
il
faut
maintenir
l'adversaire
en
état
de
défense
- ne jamais bluffer si on n'est pas capable de passer aux actes
les
handicaps
apparents
peuvent
devenir
des
atouts
- si l'on obtient la victoire, il faut être capable de l'assurer et d'occuper le
terrain
durablement.
Sinon,
il
vaut
mieux
abandonner
- il faut focaliser sa cible et ne plus en changer durant la bataille. Ne jamais
courir deux lièvres à la fois.
ALORS MOI JE DIS LA LUTTE OK DONC FAITES DE LA MUSIQUE POUR
LUTTER CONTRE LEUR MUSIQUE PROGRAMMANT VOTRE MORT ET MEFIEZVOUS DES PROGRAMMATIONS HERTZIENNES FACON : PORN-STARS OU
AUTRES VASTES PRODUCTIONS TELEVISUELLES DONC AUDIOVISUELLES : PRODUITES PAR DES OPERATEURS MOBILES TOUS PATRONS
DE TV, RADIOS, MAGAZINES ( !!!) COTES AU CAC 40 ET AUX AMIS DE
PETITE TAILLE MAIS AU HAUT POUVOIR POLITIQUE BLING-BLING ET AVEC
LE CONCOURS DE STARS TRES VISUELLES OU FABRIQUEES PAR LA
TELE QUI ARBORENT SOUVENT UN LOOK DE TOUTE BEAUTE TELLES DES
MANNEQUINS ….ARTICULES ET EN KITS CAR REFAITS DE LA TETE AUX
PIEDS ! A BONS ENTENDEURS SALE-UT !!!
Téléchargement