Le Microphone

publicité
Technologie des Equipements et des Supports / Olivier Marot [email protected]
Le Microphone
Un microphone ou plus simplement micro est un dispositif de conversion des ondes sonores acoustiques d'un
milieu compressible en impulsions électriques. C'est donc un capteur analogique. Le signal électrique a l'avantage
de pouvoir être facilement traité (voir sonorisation et enregistrement sonore).
Le terme microphone désigne tantôt l'appareil complet utilisé en audio, tantôt le capteur nu en tant que
composant.
Le micro dynamique Shure SM58 (à gauche) et sa version hypercardioïde, le
BETA58 (à droite). Le Shure SM-58 est un microphone dynamique
cardioïde unidirectionnel pour voix. Le SM-58 est considéré comme le micro
chant de référence pour la sonorisation live. Il est robuste et bon marché.
Utilisé à travers le monde, il est l'un des micros les plus répandus dans les
concerts, mais peu aussi faire un très bon travail en studio dans certaines
situations bien précises.
Caractéristiques techniques


Bande passante : 50 Hz à 15 000 Hz.
Niveau de sortie (à 1000 Hz) : -54.5 dBV/Pa (1.85 mV)
1 Pa = 94 dB SPL





Impédance : L'impédance nominale est de 150 Ohm (300 Ohm réelle) pour connexion aux entrées de
micros basse impédance.
Phase : Une pression positive sur le diaphragme produit une tension positive sur la broche 2 par rapport à
la broche 3.
Connecteur : XLR mâle
Corps : Acier moulé avec grille sphérique en acier
Poids net : 298 grammes
Caractéristiques d’un signal
Hz, dB, dBvu, dBV, dB SPL, Ohms, A, V, mV, etc…
Rappel sur l’électricité
L’électricité est l'interaction de particules chargées sous l'action de la force électromagnétique. Ce phénomène
physique est présent dans de nombreux contextes : l'électricité constitue aussi bien l'influx nerveux des êtres
vivants, que les éclairs d'un orage. Elle est largement utilisée dans les sociétés développées pour transporter de
grandes quantités d'énergie facilement utilisable.
Les propriétés de l'électricité ont été découvertes au cours du XVIIIe siècle. La maîtrise du courant électrique a
permis l'avènement de la seconde révolution industrielle. Aujourd'hui, l'énergie électrique est omniprésente dans
les pays industrialisés : à partir de différentes sources d'énergie, principalement hydraulique, thermique et
nucléaire, l'électricité est un vecteur énergétique employé à de très nombreux usages domestiques ou industriels.
deux charges de nature opposée s'attirent
deux charges de même nature, par exemple deux
charges positives, se repoussent
Des phénomènes tels que l'induction montrent en effet que les champs électrique et magnétique sont liés : un
champ magnétique variable engendre un champ électrique, et réciproquement un champ électrique variable est
source d'un champ magnétique. Cet effet de couplage entre les deux champs n'existe pas en électrostatique et en
magnétostatique. Lorsque les distributions de charge et de courant sont statiques, les champs électriques et
magnétiques leur sont en effet directement reliés, de sorte que les champs ne sont pas des variables dynamiques
indépendantes1. En revanche, le couplage entre les deux champs est la source d'une dynamique complexe (retard,
propagation, ...), qui élève le concept de champ électromagnétique au rang de véritable système physique doté
d'une énergie et d'une impulsion ainsi que d'une dynamique propre.
En électromagnétisme :
1. Les charges sont immobiles : on est alors en électrostatique avec des champs électriques statiques.
2. La densité de charge est nulle et les courants sont constants dans le temps : on est en
magnétostatique avec un champ magnétique statique.
3. Lorsque les courants sont relativement faibles, variables et se déplacent dans des conducteurs isolés
dits fils électriques, les champs magnétiques produits sont très localisés dans des éléments dits
bobines d'auto-inductance, self, transformateurs ou générateurs et les densités de charges non
nulles dans des condensateurs ou batteries génératrices de courants : on est alors en
électrocinétique ; on y distingue les courants faibles (électronique) et les courants forts
(électrotechnique). Il n'y a pas de champ à l'extérieur du circuit. On étudie des circuits électriques
et l'on y distingue les basses fréquences et les hautes fréquences. L'électronique a fait des progrès
énormes à partir du développement des semi-conducteurs qui sont maintenant utilisés pour faire
des circuits intégrés de plus en plus miniaturisés et comportant des puces électroniques ou
microprocesseurs.
4. Les hautes fréquences atteintes par les circuits résonnants électriques ont permis, à l'aide
d'antennes, de créer des ondes électromagnétiques éliminant ainsi les fils de connexions. L'émission,
la propagation et la réception de ces ondes qui sont régies par les équations de Maxwell constituent
l'électromagnétisme.
L'électricité statique
Dans la nature, les électrons sont des porteurs de charges négatives et les protons des porteurs de charges
positives. Les atomes qui composent la matière ordinaire comprennent des électrons qui se déplacent autour d'un
noyau composé de protons et de neutrons, ces derniers étant électriquement neutres. Le nombre d'électrons étant
égal au nombre de protons, l'ensemble est électriquement neutre.
Quand on frotte certains matériaux entre eux, les électrons superficiels des atomes de l'un sont arrachés et
récupérés par les atomes de l'autre. Par exemple, une tige de verre frottée sur un tissu de soie se charge
positivement, car ses atomes perdent des électrons au bénéfice de la soie ; si on frotte un ballon de baudruche sur
des cheveux secs, on le charge négativement, car il capte des électrons des cheveux.
Une règle en plastique frottée sur le tissu d'un vêtement possède une charge négative, elle peut alors attirer des
petits morceaux de papier. La règle modifie, par influence électrostatique, la répartition des charges dans le
papier : les charges négatives de la règle repoussent les charges négatives à l'autre extrémité du morceau de
papier et attirent les charges positives des atomes de papier.
On parle d'électricité statique lorsqu'il n'y a pas de circulation des charges électriques. Expérimentalement cela est
généralement obtenu en utilisant des matériaux dans lesquels les charges sont « piégées », des matériaux isolants
comme le plastique, le verre, le papier... qui résistent à la circulation des charges1.
Le courant électrique
Il existe aussi des matériaux conducteurs, comme les métaux, l'eau salée, le corps humain ou le graphite, qui
permettent aux charges électriques de se déplacer facilement.
Lorsqu'on marche sur une moquette, le frottement des pieds sur le sol arrache des électrons et le corps se charge
d'électricité statique. Quand on touche une poignée de porte métallique, on ressent alors une petite décharge
électrique accompagnée d'une étincelle, causée par le déplacement brutal des charges électriques s'écoulant vers
le sol à travers les matériaux conducteurs de la porte.
Cet écoulement est dû au fait qu'il y avait plus de charges dans le corps que dans le sol : comme deux charges de
même nature ont tendance à se repousser, dans un conducteur elles vont chercher à se déplacer vers le point le
moins chargé. Cette différence de charges entre le corps et le sol est appelée une différence de potentiel.
Pour créer un courant électrique, il faut donc un circuit de matériaux conducteurs qui permettra aux charges
électriques de se déplacer et, un système capable de créer une différence de potentiel entre les deux extrémités du
circuit. Ce système est appelé un générateur : ce peut être par exemple une pile ou une dynamo.
Le sens du courant
Dans un circuit électrique on dit que le courant électrique, noté I, circule entre les électrodes depuis le pôle positif
vers le pôle négatif du générateur. Ce sens est purement conventionnel puisque le courant peut aussi bien être
causé par des charges positives qui seront attirées par le pôle négatif du générateur, que par des charges négatives
qui se déplaceront en sens inverse, vers le pôle positif.
Dans certains cas, des charges positives et négatives se déplacent en même temps et ce double déplacement est
responsable du courant électrique global. C'est le cas dans les solutions ioniques, où les cations et les anions se
déplacent dans des sens opposés, et dans les semi-conducteurs comme une diode, où électrons et « trous » font de
même. Les charges ne peuvent pas toutes se déplacer sous l'action du champ électrique et c'est ainsi que dans un
fil électrique, les charges positives (les noyaux des atomes) restent fixes dans la structure du métal et ne peuvent
constituer aucun courant électrique ; le courant électrique dans un métal est créé uniquement par le déplacement
des charges négatives (les électrons libres) vers le pôle positif du générateur : c'est un courant électronique,
cependant on utilise dans tous les cas le sens conventionnel I du courant, institué avant la découverte de la charge
négative de l'électron.
On parle de courant continu quand le sens reste constant et, de courant alternatif quand il change périodiquement.
La fréquence d'un courant alternatif est le nombre de périodes par seconde. Elle s'exprime en hertz (Hz), par
exemple le courant distribué dans les installations électriques est à une fréquence : de 50 Hz en Europe et, de
60 Hz aux États-Unis.
Analogie hydraulique
Pour comprendre certaines propriétés du courant électrique, il est intéressant de le comparer à de l'eau s'écoulant
dans un circuit de tuyaux. Le générateur peut alors être vu comme une pompe chargée de mettre sous pression le
liquide dans les tuyaux.
La différence de potentiel, ou tension, ressemble alors à la différence de pression entre deux points du circuit
d'eau. Elle est notée U, et exprimée en volts (V).
L'intensité du courant électrique peut être assimilée au débit d'eau dans le tuyau. Elle rend compte du nombre de
charges qui passent à chaque seconde dans un point du circuit ; elle est souvent notée I, et mesurée en ampères
(A).
La résistance d'un circuit électrique serait alors l'analogue du diamètre des tuyaux. Plus les tuyaux sont petits,
plus il faut de pression pour obtenir un même débit ; de façon analogue, plus la résistance d'un circuit est élevée,
plus il faut une différence de potentiel élevée pour avoir une même intensité. La résistance électrique rend compte
de la faculté d'un matériau de freiner plus ou moins le passage du courant. Elle est notée R et, elle est exprimée
en ohms (Ω).
Il est possible de pousser cette analogie beaucoup plus loin2 mais il est important de garder à l'esprit qu'elle a ses
limites et que certaines propriétés du courant électrique s'écartent sensiblement de ce modèle basé sur du fluide,
des tuyaux, et des pompes.
L'électricité dans la nature
Les échanges électriques sont omniprésents dans la nature. En général, il s’agit de phénomènes peu visibles, mais
ils sont fondamentaux : les forces électromagnétiques et électrofaibles font partie des quatre interactions
fondamentales qui structurent tout l’Univers.
La foudre
La friction de nombreux matériaux naturels ou artificiels produit de la triboélectricité. La foudre est une énorme
décharge électrique due à l'accumulation d'électricité statique dans les nuages. En temps normal l'air est un
isolant, qui bloque le passage de l'électricité. Lorsque la charge électrique dans les nuages d'orage arrive à une
valeur certaine, la différence de potentiel, des différentes charges accumulées, est tel qu'elle parvient à modifier la
structure des gaz qui composent l'air, les transformant localement en un plasma ionisé, qui conduit lui
parfaitement l'électricité. Des arcs électriques géants se forment alors, entre deux nuages ou, un nuage et la terre :
les éclairs, permettant le rééquilibre des charges électriques.
L'électrisation de l'air peut donner lieu à d'autres phénomènes, comme le feu de Saint-Elme.
Au cœur de la matière
La circulation des charges électriques intervient dans de nombreux phénomènes naturels, et notamment dans les
réactions chimiques d’oxydo-réduction comme la combustion.
Le champ électromagnétique terrestre est lui aussi créé par des courants électriques circulant dans le noyau de
notre planète.
Les poissons électriques
Torpille du Pacifique
Les poissons électriques sont capables de tirer parti du courant électrique pour s'orienter,
pour se protéger ou bien pour communiquer. Il existe des espèces capables de produire
de véritables décharges électriques : 620 V pour l'anguille électrique ; cela lui permet
d'assommer ses proies avant de les consommer. Ils produisent de telles décharges
électriques grâce à leurs organes électriques, qui ont une structure interne semblable aux muscles du corps
humain.
L'influx nerveux
Tous les êtres vivants produisent de l'électricité pour animer les muscles ou pour transmettre de
l’information par l'influx nerveux dans les nerfs. C'est ainsi que les médecins utilisent l'électrocardiographie et
l'électro-encéphalographie pour diagnostiquer le fonctionnement du cœur ou du cerveau. La science qui étudie la
production d'électricité chez les êtres vivants est l'électrophysiologie.
Histoire
Électricité est un mot provenant du grec ἤλεκτρον, êlektron, signifiant ambre jaune. Les Grecs anciens avaient
découvert qu’en frottant l’ambre jaune, il produisait une attirance sur d’autres objets et, parfois des étincelles. Ils
ont donc appelé cette force électricité.
William Gilbert, le premier, dans son De Magnete (1600), a fait la distinction entre corps électriques (il a
introduit ce terme) et magnétiques. Il a assimilé la Terre à un aimant, noté les lois de répulsion et d'attraction des
aimants par leur pôle, et l'influence de la chaleur sur le magnétisme du fer. Il a établi aussi les premières notions
sur l'électricité, dont une liste des corps électrisables par frottement.
Une période d'observation commença au XVIIIe siècle où l'on apprit à créer de l'électricité statique. En 1733,
Monsieur Du Fay, dit Charles-François de Cisternay, découvrit les charges positives et négatives et observa les
interactions entre ces charges. Mais c'est Coulomb qui en énonça les premières lois physiques.
En 1799, Alessandro Volta inventa la pile électrique, et en 1868 le Belge Zénobe Gramme réalisa la première
dynamo. En 1879, Thomas Edison présenta sa première ampoule électrique à incandescence. Une centrale
hydraulique de 7 kW fut construite la même année à Saint-Moritz, puis, en 1883, Lucien Gaulard et John Dixon
Gibbs créèrent la première ligne électrique. En 1889, une ligne de 14 km fut construite dans la Creuse, entre la
Cascade des Jarrauds, lieu de production, et la ville de Bourganeuf.
L'électricité se développa alors progressivement pendant le XXe siècle, d'abord dans l'industrie, l'éclairage public
et le chemin de fer avant d'entrer dans les foyers. Différents moyens de production de l'électricité se
développèrent : centrales hydrauliques, thermiques, éoliennes, puis nucléaires...
Production
L'électricité représente environ un tiers de
l'énergie consommée dans le monde.
Sources de l'électricité mondiale en 20003
L'électrotechnique est la science des
applications domestiques et industrielles
(production, transformation, transport,
 a : charbon 39 %
distribution et utilisation) de l'électricité.
 b : hydroélectrique 17 %
La méthode la plus courante pour produire
 c : nucléaire 17 %
de grandes quantités d'électricité est
 d : gaz 17 %
d'utiliser un générateur, convertissant une
 e : pétrole 8 %
énergie mécanique en une tension
 f : éolienne, géothermique... 2 %
alternative. Cette énergie d'origine
mécanique est la plupart du temps obtenue
à partir d'une source de chaleur, issue ellemême d'une énergie primaire, telle l'énergies fossiles, pétrole, nucléaires ou une énergie renouvelable, l'énergie
solaire. On peut également directement utiliser une énergie mécanique, comme l'énergie hydraulique ou l'énergie
éolienne.
Bien évidement la source n'est pas forcément mécanique, exemple les piles ou les panneaux solaires.
Transport et distribution
Le courant qui circule sur réseau électrique est le plus souvent alternatif et triphasé, car il est le plus économique
à produire et à transporter. Alors que le consommateur final a besoin de courant à basse tension, moins dangereux
à utiliser, il est plus économique pour le transport du courant sur de longues distances, d'utiliser une très haute
tension.
En effet, à puissance constante, si l'on augmente la tension, on réduit l'intensité du courant
(
en monophasé) et donc, les pertes par effet Joule ou pertes thermiques
(
), ainsi que l'effet de peau qui limite la circulation des forts courants à la surface extérieure des
conducteurs : ceci obligerait l'utilisation de câbles de cuivre de plus grosse section. On utilise donc des
transformateurs élévateurs de tension, de manière à réduire l'intensité du courant pour le transport, et des
transformateurs abaisseurs de tension pour la distribution (en basse tension) aux usagers.
Conversion transformation
Les tensions électriques peuvent être transformées et converties.
En règle générale pour les grosses puissances, les tensions sont alternatives, et passent par des transformateurs
pour convertir le courant en flux magnétique, lui-même reconverti en courant dans des bobines. Ce principe
permet de changer le niveau de tension tout en conservant la fréquence et une isolation galvanique entre le réseau
primaire et secondaire du transformateur. Pour les puissances le permettant technologiquement, on utilise des
convertisseurs à semi-conducteurs (transistors, thyristors) :
 des redresseurs pour convertir une tension alternative en tension continue ;
 des onduleurs pour convertir les tensions continues en alternatives ;
 des convertisseurs permettent la conversion directe de tension continue en tension continue par découpage
à haute fréquence.
Stockage
Pour l'électricité transportée et distribuée au moyen de conducteurs, il est nécessaire d'équilibrer à tout moment la
production et la consommation. Les centrales thermiques au gaz, au pétrole ou au charbon, sont généralement
mises en service pour répondre à des pics de demande. On utilise aussi des stations de pompage-turbinage entre
deux retenues d’eau : pendant les heures creuses, l'eau est pompée vers le bassin supérieur, et pendant les heures
de pointe, l'eau passe dans une turbine qui produit un appoint d'électricité sur le réseau.
Il est aussi possible de stocker l'électricité à petite échelle au moyen de batteries d'accumulateurs, de
condensateurs ou de bobines d'inductances.
 Les batteries d'accumulateurs sont très répandues pour l'utilisation des équipements et systèmes
autonomes fixes ou mobiles.
 Les condensateurs sont utilisés depuis longtemps en électricité et électronique, mais sont apparus
récemment des supercondensateurs permettant de disposer de plus de puissance instantanée qu'avec des
batteries d'accumulateurs classiques de taille plus grande, mais pendant des temps très courts. Une
utilisation possible peut trouver sa place dans la traction électrique automobile pour les phases transitoires
d'accélération, d'autant plus que la recharge des condensateurs est presque instantanée.
 Le stockage de l'énergie électrique dans des selfs ou bobines d'inductances n'offre d'intérêt qu'avec des
matériaux supraconducteurs, ce qui n'est encore que du domaine expérimental en matière de stockage.
Les métiers de l’électricité
L'électrotechnique est un ensemble de technologies qui peuvent être pratiquées par : un ingénieur, un
électrotechnicien, un dessinateur-projeteur...
 le bobineur est un technicien qui réalise les circuits magnétiques comme ceux des moteurs ou des
générateurs ;
 le monteur-câbleur réalise les armoires de commande et il procède au raccordement ;
 les électriciens câblent les réseaux basse tension et haute tension, dans le bâtiment, l'industrie, le tertiaire,
la marine, l'aéronautique et les moyens de transport terrestre, (automobile) ;
 les techniciens de maintenance, entretiennent et dépannent les machines électriques ;
 les automaticiens, électroniciens, électrotechniciens créent les automatismes et systèmes de régulation
électrique pour commander les machines automatisées...
Ainsi qu'une multitude de métiers liés à l'industrie de l'électricité (pour les plus courants : chimiste, calorifugeur,
thermicien, robinetier, chaudronnier, mécanicien...).
L'électromagnétisme est la branche de la physique qui étudie le champ électromagnétique et son interaction avec
les particules dotées d'une charge électrique
L'induction électromagnétique, aussi appelé induction magnétique, est un phénomène physique qui se
manifeste par la production d'une différence de potentiel électrique aux bornes d'un conducteur électrique ou
encore d'un courant électrique en son sein.
Ce phénomène est notamment utilisé dans les transformateurs électriques, les bobines, ou encore les plaques à
induction
Chauffage par induction par un solénoïde.
Chauffage par induction d'une bouteille
en métal : la variation d'un champ
magnétique induit des courants dans le
corps de l'objet, qui échauffent celui-ci
par effet Joule.
L'effet Joule est la manifestation thermique de la résistance électrique. Il se produit lors du passage d'un courant
électrique dans tout matériau conducteur, à l'exception des supraconducteurs qui nécessitent cependant des
conditions particulières. Les Supraconducteurs sont constitués de matière (ex céramiques+ …) qui n’émettent
quasiment pas de magnétisme ou n’ont pas d’effet joule… effet accentué lorsqu’ils sont extrêmement refroidis
(Azote liquide... ou de 0 et 1 K), mais coûtent souvent très chers. 0 Kelvin est égale à -273,15 °C.
De manière générale le courant électrique
est assuré par le déplacement des charges
électriques. Ces porteurs de charge en
mouvement se heurtent aux atomes
constitutifs du milieu dans lequel ils se
déplacent – par exemple un câble électrique
– ce qui constitue un frein, une résistance à
leurs déplacements. Pour réussir à faire
passer le courant, il faut donc fournir une
puissance supplémentaire, qui sera dissipée
lors des chocs avec les atomes, sous forme
d'énergie thermique (dissipation d'énergie
électrique sous forme de chaleur). C’est ce
qu’on appelle l'effet Joule.
On appelle courants de Foucault les
courants électriques créés dans une masse
conductrice, soit par la variation au cours
du temps d'un champ magnétique extérieur
traversant ce milieu (le flux du champ à
travers le milieu), soit par un déplacement
de cette masse dans un champ magnétique
constant. Ils sont une conséquence de l'induction magnétique. Le champ magnétique variable au cours du temps
est responsable de l'apparition d'une force électromotrice à l'intérieur du milieu conducteur. Cette force
électromotrice induit des courants dans la masse. Ces courants ont deux effets :
 ils provoquent un échauffement par effet Joule de la masse conductrice ;
 ils créent un champ magnétique qui s'oppose à la cause de la variation du champ extérieur (loi de Lenz).
Lorsque la variation de flux est due à un déplacement du milieu devant un champ magnétique constant, les
courants de Foucault sont responsables de l'apparition de forces de Laplace qui s'opposent au déplacement, d'où
l'effet de freinage observé.
Photo venant du CERN, Organisation européenne pour la recherche nucléaire, qui est le plus grand laboratoire de
physique des particules du monde.
Exemple d’utilisation des supraconducteurs : http://telematin.france2.fr/?id_article=15494&page=chronique
http://www.norja.net/saviezvousque/html/utilisations_des_supraconducte.html
Cette section, à l'usage d'un public plus large, présente chacune des quatre équations de Maxwell de manière
conceptuelle et tente de donner une idée de comment elles s'articulent pour expliquer l'origine du rayonnement
électromagnétique comme, par exemple, la lumière. Les équations elles-mêmes sont décrites en détail dans les
sections suivantes.
 L'équation de Maxwell-Gauss décrit comment un champ électrique est généré par des charges
électriques : le champ électrique est orienté des charges positives vers les charges négatives. Plus
précisément, cette loi relie le flux électrique à travers n'importe quelle surface de Gauss fermée, avec la
charge électrique de la surface.
 L'équation de Maxwell-Thomson énonce qu'il n'existe aucune "charge magnétique" (ou monopôle
magnétique) analogue à une charge électrique. Au contraire, le champ magnétique est généré par une
configuration nommée dipôle, qui n'a pas de charge magnétique mais regroupe une charge positive et une
charge négative reliées entre elles et inséparables. À titre d'exemple, cela permet de montrer que flux
magnétique total à travers n'importe quelle surface de Gauss est nul, ou que le champ magnétique est un
champ solénoïdal.
 L'équation de Maxwell-Faraday décrit comment la variation d'un champ magnétique peut créer (induire)
un champ électrique. Ce courant induit est utilisé dans de nombreux générateurs électriques: un aimant en
rotation crée un champ magnétique en mouvement qui génère un champ électrique dans un fil à
proximité1.
 L'équation de Maxwell-Ampère énonce que les champs magnétiques peuvent être générés de deux
manières : par les courants électriques (c'est le théorème d'Ampère) et par la variation d'un champ
électrique (c'est l'apport de Maxwell sur cette loi).
Cette "correction" de Maxwell du thèorème d'Ampère est particulièrement importante : elle signifie que la
variation d'un champ magnétique crée un champ électrique et que la variation d'un champ électrique crée un
champ magnétique. Par conséquent, ces équations permettent la circulation d'ondes électromagnétiques autoentretenues, ou "rayonnement électromagnétique".
La vitesse calculée pour les ondes électromagnétiques, qui pourrait être prédite par des expériences sur les
charges et les courants2, est exactement la vitesse de la lumière. En effet, la lumière est une forme de
rayonnement électromagnétique (tout comme les rayons X, les ondes radio, etc). Maxwell avait compris la
relation entre le rayonnement électromagnétique et la lumière en 1864, unifiant ainsi deux domaines jusqu'ici
disjoints : celui de l'électromagnétisme et celui de l'optique.
Le premier intérêt de cette équation est que les équations de Maxwell deviennent compatibles avec l'équation de
conservation de la charge. Par la suite, ce terme apporte une certaine symétrie dans les équations qui permettra
d'établir une équation de d'Alembert, montrant que les champs électrique et magnétique propagent ainsi ce qu'on
appellera onde électromagnétique.
Appliquée aux conditions initiales, cette décomposition en sinusoïdes permet notamment l'étude analytique de la
propagation des ondes, ou la simulation informatique de tels phénomènes.
Onde stationnaire
Une onde stationnaire est le phénomène
résultant de la propagation simultanée dans des
directions différentes de plusieurs ondes de
même fréquence, dans le même milieu
physique, qui forme une figure dont certains
éléments sont fixes dans le temps. Au lieu d'y
voir une onde qui se propage, on constate une
vibration stationnaire mais d'intensité
différente, en chaque point observé. Les points
fixes caractéristiques sont appelés des nœuds de
vibration.
Les milieux affectés par des ondes stationnaires
peuvent être à une, deux ou trois dimensions ;
voici quelques exemples :

une dimension
o corde vibrante
o tuyau sonore (en première approximation, d'autant meilleure que son diamètre est plus faible)
o fibre optique le
 deux dimensions :
o table d'harmonie des instruments de musique
o surface d'un plan d'eau ou d'un réservoir de mercure
 trois dimensions
o volume intérieur d'une église (vis-à-vis du son de l'orgue)
o espace affecté par des interférences lumineuses
Selon le point observé, les vibrations produites par les différentes ondes s'additionnent ou se compensent de
manière partielle ou totale, ce qui provoque à des emplacements définis et fixes leur neutralisation mutuelle (lieux
appelés « nœuds » : les vibrations disparaissent) ou leur addition (lieux appelés « ventres » : les vibrations sont
amplifiées et maximales). La distance séparant un nœud du nœud le plus proche est égale a la distance de la corde
divisée par le nombre de ventres. Une onde stationnaire s'établit sur une corde dans le cas où :
2L = nD où
avec L la longueur de la corde, D la longueur de l'onde s'établissant dans la corde et n le nombre de ventres.
Les fréquences pour lesquelles elles s'établissent s'appellent les modes harmoniques de vibration et dépendent de
la corde et de la tension qui lui est appliquée et sont toutes multiples d'un entier et de la plus petite fréquence à
laquelle la corde vibre. Soit : fn = nf0, avec fn la fréquence du mode harmonique de rang n, n le rang de
l'harmonique
et f0 la fréquence du mode fondamental de vibration de la corde.
Les ondes stationnaires peuvent affecter tous les phénomènes vibratoires : mécaniques, sonores, optiques,
électromagnétiques…
Les ondes stationnaires peuvent être mises en évidence de nombreuses façons : cordes vibrantes, tube de Kundt,
interférences sonores ou lumineuses, etc.
Le principe du tube de Kundt ou principe des ondes stationnaires est le suivant. Le tube est fermé à une extrémité
par un porte-éprouvette. L'éprouvette (homogène, isotrope) de matériau absorbant est cylindrique et d'épaisseur
finie e. À l'autre extrémité, un haut-parleur alimenté par un générateur de basses fréquences émet une onde sonore
de fréquence pure f (onde incidente) qui est réfléchie par le porte-éprouvette. À la traversée de l'éprouvette, l'onde
perd de l'amplitude (transformation d'énergie par absorption). L'onde réfléchie est par ailleurs en déphasage (dû
au retard) avec l'onde incidente. Les ondes réfléchie et incidente se composent pour former une onde
stationnaire. L = 1 m ; D = 0,1 m (gros tube) => 85 < f < 1 700 Hz ;
L = 0,34 m ; D = 0,034 m (petit tube) => 250 < f < 5 000 Hz
Utile BTS : compréhension du signal, la Fréquence
La bande passante est la largeur, mesurée en hertz, d'une plage de
fréquence f2 - f1. Elle peut aussi être utilisée pour décrire un signal,
dans ce cas le terme désigne la différence entre la plus haute et la plus
basse fréquence du signal (ce que l'on appelle aussi l'encombrement
spectral). Elle est habituellement notée B ou BP.
La bande passante à -3 dB (décibel) d'un amplificateur est la gamme
de fréquences où le gain en tension de l'amplificateur est supérieur au
gain maximum moins trois décibels1. Si on ne raisonne pas en décibel,
cela correspond à la gamme de fréquences où le gain en tension est
supérieur au gain maximum divisé par racine de deux2, ce qui
correspond à une division de la puissance fournie à la charge par deux3,4. Occasionnellement on rencontre des
bandes passantes plus larges, par exemple la bande passante à -6 dB, gamme de fréquences où le gain en tension
est supérieur à la moitié du gain maximum.
De manière plus générale, la bande passante à -x dB est la gamme de fréquences où le gain du filtre est
supérieur au gain maximum divisé par 10x/20, par exemple pour -3dB : 100,15 =
Les points extrêmes de la bande passante sont appelés pulsations de coupure.
(≈0,7071)
En physique
Dans le domaine de la physique ondulatoire on parlera d'une fréquence :
 d'oscillation mécanique (ressort, corde vibrante, vibration du réseau cristallin, vibration de molécules, etc
 d'oscillation acoustique dans le domaine audible (sonore) ou inaudible (infrasons, ultrasons, hypersons ...)
 d'oscillation électromagnétique (lumière visible, infrarouge, ultraviolet, etc...).
La fréquence est également utilisée pour quantifier la vitesse de fonctionnement d'un microprocesseur (voir
Fréquence du processeur). Dans ce cas, la fréquence permet de connaître le nombre d'opérations par seconde que
peut effectuer le composant (exemple : un processeur d'horloge 2Ghz peut traiter 2 000 000 000 d'opérations
élémentaires par seconde).
En musique
En musique, la fréquence est reliée à la hauteur des sons entendus. La fréquence est exprimée en Hz, comme cidessus. Le spectre de fréquence entendu par l'oreille humaine s'étend environ de 20 à 20 000 Hz. La fréquence du
«la» 440 a été établie comme fréquence de référence.
Mathématiquement, il est possible de faire plusieurs calculs entre les notes musicales et leurs fréquences. Une
fréquence doublée donne une octave, tandis qu'une fréquence additionnée de son octave inférieure donne une
quinte. Ensuite, l'addition d'une fréquence de 2 octaves inférieures donne une tierce. Par exemple :
Fréquence Note
Intervalle
Calcul
110
La1 Octave
440/4
220
La2 Octave
440/2
440
La3 Octave
(référence)
550
Do# Tierce Majeure
440 + 110
660
Mi
Quinte juste
440 + 220
990
Si
Quinte juste (Mi-Si) 660 + 330
En revanche, ces intervalles sont purs et nontempérés; par conséquent, ils sonnent légèrement
faux à une oreille conditionnée au tempérament égal.
Le bruit rose est un signal aléatoire dont la densité
spectrale de puissance décroît de 3 dB par octave. Sa
densité spectrale de puissance tend donc vers l'infini
pour les basses fréquences et vers zéro pour les
hautes fréquences ; Ce signal se rapproche plus de la sensibilité de l'oreille que le bruit blanc. Le bruit rose est
donc souvent utilisé pour calculer la réponse fréquentielle d'une chaîne sonore et pour mesurer les caractéristiques
microphone, haut-parleur :
exemple, un bruit rose est émis dans une salle via un haut-parleur et un microphone, situé dans la salle, enregistre
le signal reçu. Le spectre mesuré permet de connaître les fréquences atténuées et de les corriger via un égaliseur.
Informatique et autre :
Dans le domaine de l'informatique, la bande passante indique — par abus de langage — un débit d'informations.
Le terme exact est le débit binaire.
L'origine du terme est une analogie avec la bande passante en électronique. La bande passante d'un câble
mesurant le nombre maximal d'oscillations par seconde qu'un signal peut y prendre sans être trop atténué, si le
signal est celui d'une liaison informatique comme une liaison série, le nombre d'oscillations va refléter le nombre
d'informations que l'on peut transférer durant une seconde.
La bande passante peut concerner le débit d'un périphérique (tel qu'une mémoire, un disque dur, etc.) ou d'un
medium de communication (réseau, bus, etc.) ou de manière générale n'importe quel débit d'information, comme
entre le processeur et la mémoire cache.
On mesure généralement cette bande passante en octets (byte en anglais) par seconde (o/s, ou en anglais « Byte
per second », B/s) ou en bits par secondes (bit/s ou bps), plus généralement utilisée par les fournisseurs d'accès
internet pour donner le débit maximum d'un abonnement.
La bande passante "utile" (visualisée par l'utilisateur) peut être différente de celle délivrée par le fournisseur. En
effet de nombreux facteurs influent sur les performances applicatives. Ainsi, la latence (délai de transmission)
associée à la taille des fenêtres TCP de la machine réceptrice limite le débit utilisable par une session applicative
selon la formule suivante : Débit Max = Taille de la fenêtre TCP / Latence.
Exemple: Débit max "Toulouse-Dubai" = 65535 Bytes / 0.220 s = 297886.36 Bytes/s = (8 * 297886.36 )/ (1024 *
1024) = 2.27 Mbit/s.
Le débit ressenti par un utilisateur n'est donc pas uniquement fonction de la bande passante souscrite auprès d'un
opérateur.
Exemples de bandes passantes [modifier]







Signal téléphonique : 300 Hz - 3 400 Hz
Signal de télévision PAL pour 1 canal : 6 MHz
Signal de télévision SECAM pour 1 canal : 8 MHz
Sons audibles par l’oreille humaine : 20 Hz - 20 kHz (ressentis : 10 Hz - 48 kHz …)
Sons qualité Radio Fm : 40 Hz - 15 kHz
Sons qualité RNIS (Téléphonie numérique) : 40 Hz - 7 kHz
Voix : 50 Hz - 3 kHz / Harmoniques aussi à 4 8 12 et 16 kHz,
Onomatopées et pratique :
Compréhension des fréquences par analogie aux onomatopées : voici un repère très
important !
Sur un même son enregistré on applique un équaliseur qui surélève de +15dB une fréquence (pente Q : 10 env.) :
Hz : 20
30
40 50
extra graves
500 1kHz 1.2 1.5 2
Graves
Bourdonnements
Basse
Basse
2.5
3 4 6
Voyelles
« MM » « OM » ON
infra basse
Contre basse
80 100 150
Au
guit / instru
Baryton Ténor
Oh
7
8
10
Harmoniques
Ah
Eh
I U
Caisse claire
Flutes
Mezzo Soprano
fff
chhh ss
Sopranino Fifre Cymbales
12
16
20
suraigües
sifflements
Décibel
Le décibel (dB) est un sous-multiple du bel, correspondant à 1 dixième de bel. Nommé en l’honneur de
l'inventeur Alexandre Graham Bell, le bel est unité de mesure logarithmique du rapport entre deux puissances,
connue pour exprimer la puissance du son. Grandeur sans dimension en dehors du système international1, le bel
n'est pas l'unité la plus fréquente. Le décibel est plus couramment employé.
Équivalent à 1/10 de bel, le décibel comme le bel, peut être utilisé dans les domaines de l’acoustique, de la
physique, de l’électronique et est largement répandue dans l’ensemble des champs de l’ingénierie (fiabilité,
inférence bayésienne, etc.).
Cette unité est particulièrement pertinente dans les domaines où la perception humaine est mise en jeu. En effet,
la loi de Weber-Fechner stipule que la sensation ressentie varie comme le logarithme de l’excitation.
Histoire des bels et décibels
Le bel (symbole B) est utilisé dans les télécommunications, l’électronique, l’acoustique ainsi que les
mathématiques. Inventé par des ingénieurs des Laboratoires Bell pour mesurer l’atténuation du signal audio sur
une distance d’un mile (1,6 km), longueur standard d’un câble de téléphone, il était appelé unité de
« transmission » à l’origine, ou TU ((en)Transmission unit), mais fut renommé en 1923 ou 1924 en l’honneur
du fondateur du laboratoire et pionnier des télécoms, Alexander Graham Bell.
Définition
Si on appelle X le rapport de deux puissances P1 et P0, la valeur de X en bel (B) s’écrit :
On peut également exprimer X dans un sous multiple du bel, le décibel (dB) :
un décibel étant égal à un dixième de bel.
Si le rapport entre les deux puissances est de : 102 = 100, cela correspond à 2 bels ou 20 dB. À titre d’exemple la
puissance double environ tous les 3 décibels et 130 décibels correspondent à une puissance 1 000 fois plus
importante que 100 décibels.
Dans certaines situations les puissances sont proportionnelles au carré d’une autre grandeur, généralement une
amplitude. En électronique linéaire et sinusoïdale la puissance est proportionnelle au carré de l’amplitude de la
tension ; en acoustique, la puissance acoustique est proportionnelle au carré de l’amplitude de la pression
acoustique. Si les amplitudes sont plus facilement accessible au calcul ou à l’expérience, il est souvent choisi
d’exprimer le rapport de puissance en termes d’amplitude. En revanche, si l’on considère deux tensions efficaces
U1 et U0, on conviendra d’écrire que leur rapport, exprimé en décibels, est celui des puissances absorbés par une
même résistance R, aux bornes de laquelle ces tensions auraient été appliquées. Aussi on a :
P1 étant la puissance étudiée et P0 la puissance de référence.
Le logarithme du carré d’une grandeur étant égal à deux fois le logarithme de la grandeur on obtient la formule
suivante :
Le décibel comme unité de mesure absolue
Le décibel est utilisé comme mesure du rapport entre deux puissances dans certains domaines, comme les
télécommunications ou le radar pour décrire des gains ou des amplifications (dB positifs) ou des pertes ou des
atténuations (dB négatifs). On parle alors d’une atténuation de 15 dB compensée par un amplificateur avec 15 dB
de gain. Une atténuation de 15 dB est équivalente à un gain de -15 dB.
Le décibel a donné naissance à un certain nombre d’unités (sans dimensions) utilisées pour mesurer des
puissances ou des intensités de façon absolue. Ceci se fait en utilisant comme puissance de référence (dans le
dénominateur de la définition précédente) une valeur de puissance prédéfinie. Dans ce cas, on ajoute une lettre à
« dB » pour savoir de quoi on parle.
Voici quelques exemples :















dBSPL décibel en acoustique (voir plus bas) ;
dB(A) décibel pondéré en acoustique à 40 dB au-dessus du seuil d’audibilité (voir plus bas) ;
dB(B) décibel pondéré en acoustique à 70 dB par rapport au seuil d’audibilité ;
dB(C) pareillement que la référence dB(B) mais cette fois-ci à 90 dB par rapport au seuil d’audibilité, il
ne doit pas être confondu avec le dBc (voir plus bas) ;
dBFS échelle de mesure en numérique, le niveau maximum mesuré est le Zéro Fullscale, voir :
(en)dBFS
dBW décibels au-dessus d’un watt. La puissance de référence est 1 W ;
dBm décibels au-dessus d’un milliwatt. La puissance de référence est 1 mW ;
dBV décibels mesurant la tension par rapport à une référence de 1 volt RMS. Le matériel audio grandpublic travaille généralement au niveau électrique de -10 dBV, soit 0,3162 V (ou -7,78 dBu) ;
dBμV décibels mesurant la tension par rapport à une référence de 1 μvolt RMS ;
dBu décibels mesurant la tension par rapport à une référence de 0,775 volts RMS. Cette valeur de
référence correspond à la tension d’une charge de 600 ohms soumise à 1 mW. Le matériel audio
professionnel travaille généralement au niveau électrique de +4 dBu, soit 1,228 V (ou 1,78 dBV) ;
dBi utilisé pour parler du gain des antennes. Le gain de référence est celle d’une antenne isotrope ;
dBd : pareillement que le dBi mais le gain de référence est celle d’une antenne dipole ;
dBFs : amplitude d’un signal comparativement à son niveau maximum avant saturation ;
dBc: mesure du rapport de puissance entre un signal (le bruit, souvent) et la porteuse sur laquelle il
transite (c pour "carrier") ;
dBZ : mesure du rapport entre la réflectivité (Z) revenant de la précipitation sondée par un radar
météorologique par mètre cube (qui est proportionnelle au diamètre à la sixième puissance des gouttes) et
la réflectivité qu’on aurait si ce volume était rempli de 1 mm6 / m3 de gouttes.
Unité acoustique
dBSPL
Le décibel, de symbole dB, est une unité relative de l’intensité acoustique. Le dBSPL (Sound Pressure Level)
est défini par le rapport de la puissance par unité de surface du son que l’on mesure et une puissance par unité de
surface de référence :
A la pratique on se sert d’un dB mètre, et on mesure à 1W à 1 mètre le
signal émis par un HP afin de connaitre ses performances, ou par
exemple, afin de relever la pression maxi de 105dB autorisée dans une
salle de concert !
La puissance par unité de surface de référence est 10-12 W·m-2 (un picowatt par mètre carré).
La puissance par unité de surface transportée par une onde sonore est reliée à la pression acoustique par la
formule :
est la puissance par unité de surface ou intensité acoustique(en W·m-2).
 p est la pression acoustique efficace (en pascal).
 ρ est la masse volumique du milieu (en kg·m-3).
 v est la vitesse du son dans le milieu (en m·s-1).
Si, dans la formule de la première définition, on remplace la puissance par unité de surface par la formule en
fonction de la pression acoustique, la densité et la vitesse se simplifient et on obtient :
où :
Si on sort le carré du logarithme on obtient la seconde version de la définition de dBSPL :
est la pression de référence que l’on accepte comme
le niveau à partir duquel l’oreille humaine commence à percevoir un son pur de 1 kHz. Celui-ci est de 20 µPa
(valeur efficace). Les deux valeurs de référence (1 picowatt par mètre carré et 20 µPa efficaces) sont équivalentes
pour l’air à la température et pression ambiante.
Par ailleurs, pour un même niveau acoustique à différentes fréquences, l’homme ne perçoit pas le même niveau
d’intensité. Pour un même niveau d’intensité acoustique de 20 dBSPL, un son pur de 1 kHz paraîtra plus fort
qu’un son de 10 kHz tandis qu’un son de 100 Hz ne sera pas perçu. Pour avoir le même niveau perçu, le son de
10 kHz devra être à 30 dBSPL et le son de 100 Hz à 50 dBSPL. Les courbes isosoniques représentent les courbes
de même intensité perçue qu’un son pur de 1 kHz à un niveau acoustique donné.
p est le niveau de pression du son (en valeur efficace) et
dBHL
Intensité perçue par l’oreille humaine normale.
dBSL
Intensité perçue par un individu donné.
Le seuil de perception auditive
Le niveau de 0 phone ou 0 dB SPL est un niveau vraiment bas. Pour s’en rendre compte, voici à quoi ce niveau
de 0 dB SPL correspond :
 en puissance par mètre carré : à 0,5 watts repartis sur toute la surface de la France métropolitaine ;
 en pression : à la pression due au poids d’une couche de 2×10-9 m d’eau (environ 20 atomes d’épaisseur) ;
 en déplacement des molécules dans l’air : à une oscillation (crête à crête) de 2×10-11 m, c’est-à-dire deux
dixièmes de l’épaisseur d’un atome.
dB pondéré
Il existe plusieurs courbes de pondération : A, B, et C. La courbe de pondération (A) correspond de près à la
correction de l’oreille humaine. Moins sensible aux BF (basses fréquences) et plus sensibles aux HF (hautes
fréquences). Cependant, ce n’est pas exactement ce que déchiffre notre cerveau. Pour cela, il faut additionner les
niveaux sonores pondérés relevés en fonction des fréquences. Attention, 80 dB (A) + 80 dB (A) n’est pas égal à
160 dB(A) mais à 83 dB(A). Plus la différence entre deux sons est élevée moins on majore. Le bruit d’un avion
120 dB (A) + le bruit d’une voiture 80 dB(A) = 120 dB(A). L’avion couvre complètement le bruit de la voiture.
Pour bien comprendre Le dB(A) est un niveau sonore global (son perçu par l’oreille) et le dB est un niveau
sonore qui n’a de sens que lorsqu’il est noté pour une fréquence donnée.
Pour prendre en compte cette sensibilité de l’oreille par rapport aux fréquences, le dB(A) est utilisé. Une courbe
isosonique a été définie correspondant à un niveau perçu de 40 dB pour un son pur de 1 kHz. L’inverse de cette
courbe pondère le signal et l’on obtient le niveau en dB(A) par intégration sur toutes les fréquences. Cette unité
est très fréquemment utilisée dans les indicateurs acoustiques du bruit.
Divers exemples sur l'échelle du bruit pour une fréquence de 1 000 Hz















0 dB : seuil d’audibilité
De 0 à 10 dB : désert
De 10 à 20 dB : cabine de prise de son
De 20 à 30 dB : conversation à voix basses, chuchotement
De 30 à 40 dB : forêt
De 40 à 50 dB : bibliothèque, lave-vaisselle
De 50 à 60 dB : lave-linge
De 60 à 70 dB : sèche-linge, sonnerie de téléphone, téléviseur, conversation courante
De 70 à 80 dB : aspirateur, restaurant bruyant, passage d’un train à 80 km/h
De 80 à 90 dB : tondeuse à gazon, klaxon de voiture
De 90 à 100 dB : route à circulation dense, tronçonneuse, atelier de forgeage, TGV à 300 km/h à 25 m
De 100 à 110 dB : marteau-piqueur à moins de 5 mètres dans une rue, discothèque
De 110 à 120 dB : tonnerre, atelier de chaudronnerie, vuvuzela à 2 mètres
De 120 à 130 dB : sirène d’un véhicule de pompier, avion au décollage (à 300 mètres), concert amplifié
130 dB : seuil de la douleur




De 140 à 150 dB : course de Formule 1, avion au décollage
170 dB : fusil d’assaut
180 dB : décollage de la fusée Ariane, lancement d’une roquette
194 dB : son le plus bruyant possible dans l’air à la pression atmosphérique du niveau de la mer. La
différence de pression dans une onde sonore de ce niveau est d’une atmosphère et correspond à
l’apparition d’une pression nulle sur le front de dépression de l’onde. Toute onde au-delà de cette frontière
ne s’appelle plus onde sonore mais onde de choc.
Au-dessous de 20 dB, le son est pratiquement inaudible pour l’oreille humaine. Il commence à devenir
douloureux au-delà de 80 dB, dangereux à partir de 100 dB et insupportable dès 120 dB. Le seuil de douleur n’est
pas un absolu, il dépend de la fréquence. Le seuil de douleur peut être atteint à un niveau sonore de 110 dB pour
une fréquence de 20 000 Hz et à 120 dB pour une fréquence inférieure à 10 000 Hz. Ces valeurs (80 dB, 100 dB,
120 dB) sont les valeurs courantes de la littérature[réf. nécessaire].
Des tests psycho-acoustiques ont montré qu’un dépassement du volume sonore est perceptible par l’oreille
humaine à partir de 1 dB2.

Autre échelle des bruits
-10 dB(A) Sons inaudibles par l'homme, audibles par certains animaux
0 dB(A)
Laboratoire d’acoustique (le niveau de 0 dB(A) n’existe pas dans la nature)
25 dB(A)
Conversation à voix basse (à 1,50 m)
30 dB(A)
Chambre à coucher silencieuse
45 dB(A)
Appartement normal
60 dB(A)
Conversation normale
70 dB(A)
Rue à gros trafic
75 dB(A)
Aspirateur
80 dB(A)
Aboiements
90 dB(A)
Tondeuse à gazon (moteur à essence)
105 dB(A) Niveau sonore maximal autorisé dans les discothèques
120 dB(A) Réacteur d’avion (à quelques mètres), concert de rock en plein air (à 1m…)
Le niveau zéro en dB(A) est fixé arbitrairement à la limite de l'audible pour un humain moyen, avec une
pondération prenant en compte les variations de sensibilité de l'oreille humaine en fonction de la fréquence. Le
db(A) tire son nom de la "pondération A" qui est la plus fréquente. Il en existe d'autres comme l'ITU-R 468.
En d'autre termes : un son de même intensité réelle (pression acoustique), aura une valeur en dB(A) différente
selon qu'il sera plus ou moins aigu, les sons très graves ou très aigus correspondant aux valeurs les plus faibles.
Par conséquent, des personnes ayant une meilleure audition que la moyenne, ou certains animaux peuvent
entendre des bruits inférieurs à 0dB(A), c'est par exemple le cas des chiens pour les sons aigus (voir ultrasons),
ou des éléphants pour les sons très graves (voir infrasons).
Vitesse du son
La vitesse du son est la vitesse à laquelle se déplacent les ondes sonores. Elle varie suivant le milieu de
propagation, et est définie de la manière suivante :
(en m/s)
avec : ω, la pulsation de l'onde (en rad/s), k la norme de son vecteur d'onde (en rad/m)
Le son se déplace dans l'air sec à 0ºC à une vitesse de 1 200 kilomètres par heure, ou de 331,6 m/s; dans un corps
solide, les ondes sonores se déplacent plus rapidement.) À 20° dans un environnement normal, on peut simplifier
à 340m/s. La vitesse de propagation du son dépend du milieu dans lequel il se propage et de la température. A
20°C, dans l'air, elle de 340 mètres par seconde soit 1 224 km/h.
Vous avez un exemple ici : http://subaru2.univ-lemans.fr/enseignements/physique/02/thermo/vitson.html
Dans l’air :
Pour un T° -40°C = 306 m/s
Pour une T° -20°C = 319 m/s
Pöur une T° 0°C = 331 m/s
Pour une T° 20°C = 343 m/s
Pour une T° 40°C = 354 m/s
Propagation du son ]
Dans un milieu compressible, le plus souvent dans l'air, le son se propage sous forme d'une variation de pression
créée par la source sonore. Un haut-parleur, par exemple, utilise ce mécanisme. Seule la compression se déplace
et non les molécules d'air, si ce n'est de quelques micromètres. Lorsque l'on observe des ronds dans l'eau, les
vagues se déplacent mais l'eau reste au même endroit, elle ne fait que se déplacer verticalement et non suivre les
vagues (un bouchon placé sur l'eau reste à la même position sans se déplacer). Le son se propage également dans
les solides sous forme de vibrations des atomes appelées phonons. Là encore, seule la vibration se propage, et non
les atomes qui ne font que vibrer très faiblement autour de leur position d'équilibre.
La vitesse de propagation du son (Par abus de langage,on parle également de la Célérité, cette dernière étant
définie pour des ondes électromagnétiques) dépend de la nature, de la température et de la pression du milieu.
Comme l'air est proche d'un gaz parfait, la pression a très peu d'influence sur la vitesse du son. Dans un gaz
parfait la célérité est donnée par la relation :
où est la masse volumique du gaz et sa compressibilité adiabatique.
On voit donc que la célérité du son diminue lorsque la densité du gaz augmente (effet d'inertie) et lorsque sa
compressibilité (son aptitude à changer de volume sous l'effet de la pression) augmente. Quand il s'agit de
l'atmosphère, il convient de connaitre en plus la structure thermique de la masse d'air traversée ainsi que la
direction du vent car :
 le son se propage moins bien à l'horizontale que sous des angles montants à cause du changement de
densité. (Cette propriété est prise en compte dans la conception des théâtres en plein air depuis l'antiquité)
 l'atténuation est nettement moins forte sous le vent. (Tant que son régime au sol n'est pas trop turbulent)
 le son peut être littéralement porté par une inversion basse du gradient de température. Par exemple, suite
au refroidissement nocturne, il est possible d'entendre un train à 5 km d'une voie ferrée sous le vent
malgré les obstacles. Le son est alors contraint de se propager sous l'inversion en effet guide d'onde.
Les ondes sonores se déplacent à environ 344 m/s dans de l'air à 20 °C, vitesse qu'on peut arrondir à environ un
kilomètre toutes les trois secondes, ce qui est utile pour mesurer grossièrement la distance d'un éclair lors d'un
orage (la vitesse de la lumière rendant sa perception quasi instantanée). Dans des milieux solides (non gazeux) le
son peut se propager encore plus rapidement. Ainsi dans l'eau, sa vitesse est de 1482 m/s et dans l'acier de
5050 m/s. Le son ne se propage pas dans le vide, car il n'y a pas de matière pour supporter les ondes produites
(isolation phonique), le son se propageant grâce aux déplacements des molécules d'air. C'est une onde dite
longitudinale, car les points matériels se déplacent dans le même sens que le déplacement de l'onde (l'autre type
étant les ondes transversales).
Fréquence et hauteur
La fréquence d'un son est exprimée en hertz (Hz), elle est directement liée à la hauteur d'un son perçu, mais n'en
est qu'une des composantes (voir l'article Psychoacoustique). À une fréquence faible correspond un son grave, à
une fréquence élevée un son aigu.
Tout être vivant doté d'une ouïe ne peut percevoir qu'une partie du spectre sonore :
 les physiologistes s'accordent à dire que l'oreille humaine moyenne ne perçoit les sons que dans une
certaine plage de fréquences située environ (selon l'âge, la culture, etc.), entre 16 Hz (en dessous les sons
sont qualifiés d'infrasons) et 20 kHz (au-delà les sons sont qualifiés d'ultrasons) ;
 le chat peut percevoir des sons jusqu'à 25 kHz ;
 le chien perçoit les sons jusqu'à 35 kHz ;
 la chauve-souris et le dauphin peuvent percevoir les sons de fréquence 100 kHz.
Certains animaux utilisent leur aptitude à couvrir une large bande de fréquences à des fins diverses :
 les éléphants utilisent les infrasons pour communiquer à plusieurs kilomètres de distance ;


les dauphins communiquent grâce aux ultrasons ;
les chauve-souris émettent des ultrasons (~80 kHz) avec leur système d'écholocation leur permettant de se
déplacer et de chasser dans le noir total.
Pour avoir les fréquences correspondant aux notes de musique de la gamme tempérée (musique classique
occidentale), voir Gamme tempérée > Comparaison de 3 systèmes de division de l'octave.
Amplitude et la pression sonore
Article détaillé : Amplitude.
L'amplitude est une autre caractéristique importante d'un son. La pression sonore perçue dépend (entre autres) de
l'amplitude et correspond dans l'air aux variations de pression de l'onde. Le son peut être fort ou doux (les
musiciens disent forte ou piano).
Unité de mesure
En acoustique la pression sonore et l'intensité se mesurent en décibels (dB). C'est une grandeur sans dimension,
logarithme du rapport entre une grandeur caractéristique du son étudié et celle d'un son de référence.
Le choix d'un logarithme permet d'avoir des chiffres aisément manipulables, qui ne deviennent pas extrêmement
grands ou petits (voir l'article Échelle logarithmique), et parce que cette approche correspond mieux à ce que
perçoit l'oreille humaine en termes de sensation sonore.
Ces considérations sont le fruit des recherches du psychophysicien allemand Gustav Fechner qui, au milieu du
XIXème siècle, s'était fixé pour but de quantifier les sensations que peuvent produire différents stimuli (variation
de température, d'éclairement, etc.).
On utilise deux grandeurs pour mesurer l'intensité : l'intensité, mesurée en watts par mètre carré et pour laquelle
l'intensité de référence est I0 = 10-12W.m-2, et la pression, mesurée en pascals et pour laquelle la pression de
référence est P0 = 2.10-5 Pa. La première est toujours le double de la seconde, et c'est a priori celle qui est utilisée
en l'absence de précision.
Mais attention, la notion de niveau sonore ne donne qu'une vague idée de la sensation perçue, car il faut prendre
en compte la sensibilité de l'oreille, qui varie principalement selon la fréquence du son (l'oreille est moins
sensible aux basses fréquences). Une meilleure approximation du volume perçu est donnée en décibel pondéré A
(dBA), elle peut être mesurée électroniquement après filtrage du signal par un filtre à pondération A (il existe
également des pondérations B et C adaptées aux mesures de sons d'intensités plus grandes).
0 dB correspond au minimum que l'oreille humaine peut percevoir appelé seuil d'audibilité, et non au silence
absolu. Cette valeur a été choisie par expérimentation pour un son de fréquence 1000 Hz, elle vaut 10-12 W.m-2,
mais la plupart des personnes a un seuil d'audibilité supérieur à 0 dB (environ 4 dB). Le seuil de douleur est de
130 dB, mais l'oreille peut subir des dommages à partir de 85 dB (voir l'article Psychoacoustique).
Il suffit de changer la référence de puissance ou de pression (P0 ou W0 dans les formules ci-dessous) pour que
l'échelle des volumes soit complètement changée. C'est pourquoi les décibels gradués sur le bouton de volume
d'une chaîne Hi-fi ne correspondent pas du tout à des niveaux acoustiques mais à des puissances électriques de
sortie de l'amplificateur, ce qui n'a quasiment rien à voir : la valeur 0 dB représente bien souvent la puissance
maximale que l'amplificateur est capable de délivrer.
Niveau de bruit en
Niveau d'intensité
Niveau de bruit en pression
puissance
Le niveau de puissance caractérise une source sonore, il est donc indépendant de la distance source - récepteur.
En revanche, les niveaux d'intensité et de pression correspondent aux niveaux perçus par le récepteur. Ils
dépendent donc de la source et aussi de la distance source récepteur.
Différentes mesures de l'amplitude
Il existe plusieurs façons de mesurer l'amplitude d'un son, et par extension, d'un signal quelconque de nature
ondulatoire :
 l'amplitude moyenne (la valeur moyenne arithmétique du signal positif)
 l'amplitude efficace (amplitude continue équivalente en puissance)
 l'amplitude crête (maximale positive)
 l'amplitude crête à crête (l'écart maximal d'amplitude positive et négative)
Dans la pratique, l'amplitude moyenne présente peu d'intérêt et n'est pas utilisée. En revanche, la valeur efficace
ou RMS, pour Root Mean Square en anglais, soit la valeur quadratique moyenne du signal est universellement
adoptée pour mesurer la valeur des tensions alternatives, dans le cadre général autant qu'en acoustique. Un
amplificateur qui est donné pour 10 watts RMS fera 14 watts en crête et 28 watts en crête à crête (aussi noté cc).
Les mesures de puissance crête à crête sont assez souvent appelées « watts musicaux » par les vendeurs de
matériel audiovisuel, car les chiffres sont plus flatteurs.
Timbre
C’est la caractéristique qui peut identifier un son d’une façon unique. Deux sons peuvent avoir la même
fréquence fondamentale et la même intensité ; mais ne peuvent jamais avoir le même timbre.
Espace-temps
Comme tous les phénomènes perçus, le temps joue un rôle fondamental pour l'acoustique (et encore plus en
musique). Il existe même des relations très étroites entre l'espace et le temps, vu que le son est une onde qui se
propage dans l'espace au cours du temps.
On distingue trois grandes classes de signaux acoustiques :
 périodiques, dont la forme se répète à l'identique dans le temps ;
 aléatoires, qui n'ont pas de caractéristiques périodiques. Dans ce qui suit, et d'une manière générale, on ne
s'intéresse qu'à un ensemble restreint de ces signaux ; ceux qui ont des caractéristiques statistiques stables
dans le temps. On les appelle signaux aléatoires ergodiques. Concrètement, c'est le cas des bruits « blanc
ou rose » utilisés par les scientifiques et certains artistes ;
 impulsionnels : qui ne se répètent pas dans le temps et ont une forme déterminée.
Tous les signaux peuvent être définis et analysés indifféremment dans l'espace temporel ou dans l'espace
fréquentiel. Dans ce dernier, on aura souvent recours à l'utilisation du spectre du signal, calculé depuis sa
définition fréquentielle (dite du domaine de Fourier). Le spectre d'un signal représente les différentes « notes » ou
sons purs que contient un son, appelés partiels. Dans le cas d'un signal périodique stable comme une sirène, le
spectre n'évolue pas au cours du temps et présente une seule valeur appelée « raie ». Il est en effet possible de
considérer tout son comme la combinaison d'un ensemble de « sons purs » qui sont des sinusoïdes (voir à ce sujet
l'article sur la transformée de Fourier).
Échantillonnage (signal)
L'échantillonnage consiste à transformer un signal analogique (continu) en signal numérique (discret), en
capturant des valeurs à intervalle de temps régulier (ici temps est à prendre au sens large et s'applique à tout
signal). C'est une étape nécessaire pour pouvoir enregistrer, analyser et traiter un signal par ordinateur, car celuici ne peut traiter que des nombres. Il faut distinguer l'échantillonnage de la quantification, mais ce sont toutes
deux des étapes nécessaires à la numérisation d'un signal.
La fréquence à laquelle les valeurs sont capturées est la fréquence d'échantillonnage, appelée aussi cadence
d'échantillonnage, ou taux d'échantillonnage, exprimée en Hz. Par exemple, un CD audio contient des données
musicales échantillonnées à 44,1 kHz (44 100 échantillons par seconde), un DVD Audio 48, 96 ou 192 kHz (48
000, 96 000 ou 192 000 échantillons par seconde), un Super Audio CD 2822.4 kHz (2 822 400 échantillons par
seconde).
Problèmes liés à l'échantillonnage
Un signal analogique est par définition d'une précision infinie, à la fois en temps et en valeur. Or
l'échantillonnage, pour permettre une définition exacte en temps du signal afin de le stocker numériquement, va
réduire ce signal à une suite de points discrets. Cela comporte deux conséquences distinctes :
1. seules les informations présentes sur les points de capture sont enregistrées ;
2. tout le reste est perdu.
Intuitivement, on peut se rendre compte que, si la fréquence d'échantillonnage est très faible, les acquisitions
seront très espacées et, de ce fait si le signal original comporte des détails entre deux positions de capture, ils ne
seront pas enregistrés. C'est pour cela que la fréquence d'échantillonnage doit être bien choisie, suffisamment
grande pour restituer correctement l'ensemble des informations transportées par le signal analogique, au moins les
informations utiles, sans être excessive, ce qui gaspillerait de l'espace de stockage. Le théorème de Shannon
affirme que toutes les fréquences du signal inférieures à la moitié de la fréquence d'échantillonnage seraient
correctement restituées. En pratique on constate que les fréquences harmoniques de la fréquence
d'échantillonnage sont privilégiées et qu'il y a de nombreuses pertes.
Figure 1 : Echantillonnage
Les fréquences supérieures à la moitié de la
fréquence d'échantillonnage introduisent un
recouvrement spectral également appelé
crénelage ou repliement. Pour s'en convaincre,
essayons d'imaginer un signal analogique qui
comporterait des impulsions très courtes et très
grandes, comme les craquements sur un disque
vinyle. Ces impulsions représentent un ajout de
hautes fréquences au signal de base. Si le point
de capture tombe sur une portion saine,
l'impulsion est ignorée, mais si le point de
capture tombe au milieu de l'impulsion, c'est la
valeur à cet endroit précis qui sera enregistrée, introduisant de ce fait un artéfact lors de l'enregistrement, car cette
valeur sera considérée comme la valeur moyenne sur son intervalle.
Afin d'éviter ce genre de désagréments, on effectue généralement un filtrage fréquentiel passe-bas avant
l'opération d'échantillonnage proprement dite, que l'on appelle filtre anti-repliement (anti aliasing filter en
anglais) dont la fréquence de coupure sera théoriquement égale à la plus haute fréquence correctement restituée,
soit la moitié de la fréquence d'échantillonnage. Dans la pratique, il en est tout autrement. Il est bien sûr
nécessaire que les fréquences supérieures à la moitié de la fréquence d'échantillonnage soit fortement atténuées
(pour un bon filtre, -50 dB). Mais le gabarit du filtre anti-repliement (purement analogique), aura une bande dite
d'atténuation plus ou moins large en fonction de l'ordre du filtre. la figure 2 illustre le problème. La bande
d'atténuation est comprise entre 20 kHZ et 22,05 kHz. Le problème est qu'un filtre linéaire analogique avec un
ordre supérieur à 8 est difficile à mettre en œuvre (Les filtres à capacités commutées sont plus simples). Il est plus
simple d'augmenter légèrement la fréquence
d'échantillonnage.
Figure 2 : Exemple d'un filtre anti-repliement
Le filtre peut également être un passe-bande, par
exemple si on souhaite échantillonner une source
de radio FM, et dans ce cas la fréquence
d'échantillonnage devra être le double de la
largeur de bande, et non la fréquence de coupure,
de ce filtre.
Si l'on prend le cas particulier du CD dont la
fréquence d'échantillonnage a été fixée à
44,1 kHz, le théorème de Shannon affirme qu'il
ne faut pas dépasser une fréquence enregistrée de 22 050 Hz. En réalité, lorsque la fréquence échantillonnée se
rapproche de très près de la fréquence d'échantillonnage, on ne peut éviter un effet d'interférence générant des
sons parasites indésirables. Pour les éviter, on a recours à plusieurs méthodes. Le plus simple consiste à couper
délibérément les fréquences dépassant 20 kHz, au lieu de les couper à 22, avant échantillonnage, à l'aide par
exemple d'un filtre anticrènelage. On évite ainsi la zone « dangereuse ». Une autre méthode consiste à
« corriger » les données en temps réel pour les adapter à la fréquence d'échantillonnage (par exemple le Super Bit
Mapping mis au point par Sony).
Dans de nombreux cas, un filtrage est naturellement effectué lors de l'acquisition, de par l'imperfection des
systèmes de capture. Prenons l'exemple d'un capteur CCD : son rôle est de transformer la lumière qu'il reçoit en
une valeur d'intensité lumineuse. Il ne reçoit pas un point infiniment petit de lumière qui correspondrait
mathématiquement à un point discret et physiquement à un photon, c'est physiquement impossible, mais il reçoit
une zone de lumière plus ou moins grande, et ses propriétés physiques font qu'une valeur analogique d'intensité
est donnée en sortie, qui correspond à une sorte de moyenne pondérée de l'ensemble des points de lumière reçus.
Il peut très bien prendre davantage en compte le centre de sa zone de réception que la périphérie, voire l'inverse,
la sortie en sera d'autant changée. Cependant, la plupart des capteurs agiront d'une manière proche d'un filtre
passe-bas, évitant la nécessité de filtrer le signal analogique.
Transformée de Fourier
En analyse, la transformation de Fourier est un analogue de la théorie des séries de Fourier pour les fonctions
non périodiques, et permet de leur associer un spectre en fréquences. On cherche ensuite à obtenir l'expression de
la fonction comme « somme infinie » des fonctions trigonométriques de toutes fréquences qui forment son
spectre. Une telle sommation se présentera donc sous forme d'intégrale. L'analyse non standard permet de la
présenter sous forme d'une série et justifie le point de vue intuitif. Séries et transformation de Fourier constituent
les deux outils de base de l'analyse harmonique.
Le théorème de Nyquist-Shannon, nommé d'après Harry Nyquist et Claude Shannon, énonce que la
fréquence d'échantillonnage d'un signal doit être égale ou supérieure au double de la fréquence maximale
contenue dans ce signal, afin de convertir ce signal d'une forme continue à une forme discrète (discontinue
dans le temps). Ce théorème est à la base de la conversion analogique-numérique des signaux.
La meilleure illustration de l'application de ce théorème est la détermination de la fréquence d'échantillonnage
d'un CD audio, qui est de 44,1 kHz. En effet, l'oreille humaine peut capter les sons jusqu'à 20 kHz, quelquefois
jusqu'à 22 kHz. Il convient donc, lors de la conversion, d'échantillonner le signal audio à au moins 44 kHz.
44,1 kHz est la valeur normalisée par l'industrie.
Si on veut utiliser un signal échantillonné, il faut être sûr que
celui-ci contienne toute l'information du signal analogique
d'origine. Il est souvent commode de considérer celui-ci
comme une somme de sinusoïdes (cf analyse spectrale). Or il
est intuitivement évident qu'une perte d'information se produit
si le pas d'échantillonnage est trop grand par comparaison avec
les périodes en cause, la fréquence d'échantillonnage étant trop
faible par rapport aux fréquences considérées.
Si les fréquences présentes dans le signal ne débordent pas de cet intervalle, c'est-à-dire si la fréquence
d'échantillonnage est supérieure au double de la plus haute fréquence, on obtient la transformée vraie. Dans le
cas contraire, les translatées voisines viennent se superposer. Ce phénomène est appelé "recouvrement du
spectre"
Du fait de la symétrie, tout se passe comme si le spectre
vrai était replié (l'énergie associée aux fréquences
supérieures à la moitié de la fréquence d'échantillonnage
est transférée en dessous de cette fréquence). Si on veut
éviter le franglais on utilise en général le terme repliement
de préférence à aliasing.
Le crénelage (ou crènelage) ou repli de spectre (Aliasing en
anglais) est un phénomène qui peut se produire lors du
traitement numérique d'un signal, lorsque des fréquences qui
ne sont pas représentées dans le signal original sont introduites
par erreur dans le signal, par conséquence de son
échantillonnage ne respectant pas le Théorème d'échantillonnage de Nyquist-Shannon.
Exemple de crénelage sur la lettre A en Times New Roman. A gauche l'image
crénelée, à droite l'image anticrénelée.
Le crénelage ou Aliasing peut arriver lorsqu'on redimensionne une image vers une résolution différente de la
résolution de numérisation. Il s'ensuit un effet de pixellisation, plus ou moins marqué, sur les bordures d'éléments
visuels, ou entre éléments visuels adjacents.
De nombreux programmes disposent d'une fonction d'anticrénelage pour résoudre ce défaut. La correction est
effectuée en introduisant un effet de flou ou de "grisé" qui donne l'impression visuelle de lisser la bordure, On
peut constater le résultat sur l'illustration ci-contre -- en s'éloignant de quelques mètres de l'écran.
En Son : Le crénelage sonore consiste en le « repli » d'une fréquence supérieure à la fréquence de Nyquist vers
une fréquence inférieure à celle-ci. Ceci est particulièrement gênant puisque ce phénomène peut transformer une
harmonique d'un son en une fréquence anharmonique, déplaisante à l'oreille. Le crénelage est souvent une
conséquence des opérations de rééchantillonnage (l'équivalent sonore du redimensionnement d'image, utilisé dans
les échantillonneurs pour varier la hauteur d'un son) ou de distorsion (utilisée notamment pour simuler des
amplificateurs à lampes).
Solutions : Dans bien des cas il n'est malheureusement pas possible mathématiquement d'éliminer rigoureusement
le crénelage, mais il est toutefois possible de le réduire à des niveaux infimes. Une technique courante est de
suréchantillonner le signal à une fréquence d'échantillonnage nettement supérieure à la fréquence voulue,
appliquer les traitements voulus (par exemple redimensionnement d'image, rééchantillonnage ou distorsion de
son), puis de lui appliquer un filtre passe-bas pour éliminer toute fréquence supérieure à la fréquence de Nyquist.
On peut alors redescendre en toute sécurité à la fréquence d'échantillonnage voulue, puisqu'aucune fréquence
supérieure à la fréquence de Nyquist n'est présente. Cette méthode nécessite une puissance de calcul très
importante, elle n'est donc pas applicable à toutes les situations : c'est ainsi qu'à l'heure actuelle, nombre de jeux
vidéos préfèrent encore consacrer toute la puissance du processeur graphique à l'affichage de détails
supplémentaires plutôt qu'à la réduction du crénelage.
En 1927, Nyquist détermine qu'un signal analogique doit être échantillonné à au moins deux fois la plus haute
fréquence le constituant si l'on veut le convertir en un signal numérique correspondant. Ce résultat, connu sous le
nom de théorème d'échantillonnage de Nyquist-Shannon, a été publié dans l'article Certain topics in Telegraph
Transmission Theory (1928).
Pour qu'un signal ne soit pas perturbé par l'échantillonnage, la fréquence d'échantillonnage doit être
supérieure au double de la plus haute fréquence contenue dans le signal. Cette fréquence limite s'appelle la
fréquence de Nyquist.
Formule de Shannon
Puisque la transformée X*(f) du signal correctement échantillonné contient, dans l'intervalle [-½T,½T], la
transformée du signal d'origine x(t), on peut reconstituer celui-ci en calculant la transformée inverse, l’intégration
étant bornée à cet intervalle.
On obtient ainsi
Impédance (électricité)
L'impédance électrique mesure l'opposition d'un circuit électrique au passage d'un courant alternatif sinusoïdal.
La définition d'impédance est une généralisation de la loi d'Ohm dans l'étude des circuits en courant alternatif.
Le mot impédance fut inventé par Oliver Heaviside en juillet 1886. Il vient du verbe anglais to impede signifiant
"retenir", "faire obstacle à" ; verbe qui dérive lui-même du latin impedire qui veut dire "entraver".
Dans un circuit formé par des résistances, condensateurs et bobines, toutes les tensions et les courants sont
solutions d'équations différentielles.
En mathématiques, une équation différentielle est une relation entre une ou plusieurs fonctions inconnues et
leurs dérivées. L'ordre d'une équation différentielle correspond au degré maximal de différentiation auquel l'une
des fonctions inconnues a été soumise.
Les équations différentielles sont utilisées pour construire des modèles mathématiques de phénomènes physiques
et biologiques, par exemple pour l'étude de la radioactivité ou la mécanique céleste. Par conséquent, les équations
différentielles représentent un vaste champ d'étude, aussi bien en mathématiques pures qu'en mathématiques
appliquées.
La loi d'Ohm est une loi physique permettant de relier l'intensité du courant électrique traversant un dipôle
électrique à la tension à ses bornes (elle permet de déterminer la valeur d'une résistance). La loi d'Ohm a été
nommée ainsi en l'honneur du physicien allemand Georg Simon Ohm
Résistivité
La résistivité d'un matériau, généralement symbolisée par la lettre grecque rho (ρ), représente sa capacité à
s'opposer à la circulation du courant électrique. Elle correspond à la résistance d'un tronçon de matériau de 1 m de
longueur et de 1 m2 de section ; elle est exprimée en ohm·mètre (Ω·m). On utilise aussi :
 le Ω·mm2/m = 10-6 Ω·m ;
 le μΩ·cm = 10-8 Ω·m.
La résistivité est la grandeur inverse de la conductivité (symbole : σ).
La résistance R (en ohms) d'une pièce rectiligne d'un matériau de résistivité ρ, de longueur L (en mètres) et de
section droite d'aire S (en mètres carrés) vaut donc :
.
La résistance est la grandeur inverse de la conductance électrique (symbole : G).
La résistivité des matériaux dépend de la température :
 Pour les métaux, à la température ambiante, elle croit linéairement avec la température. Cet effet est
utilisé pour la mesure de température (sonde Pt 100)
 Pour les semi-conducteurs, elle décroît fortement avec la
température, la résistivité peut aussi dépendre de la quantité de
rayonnement (lumière visible, infrarouge, etc.), absorbé par le
composant.
Conductivité
La conductivité électrique est l'aptitude d'un matériau à laisser les charges électriques se déplacer librement,
autrement dit à permettre le passage du courant électrique.
Unité
S.m-1 (siemens par mètre)
Le plus souvent la mesure avec un conductimètre donne le résultat en mS.cm-1 (millisiemens par centimètre).
Attention : 1 mS.cm-1 = 0,1 S.m-1
Dimension : [σ] = I2T3L-3M-1
Revenons à l’impédance
Mais, si toutes les sources délivrent des courants et des tensions fonctions sinusoïdales du temps de même
fréquence et d'amplitude constante, les solutions, à l'état stationnaire (quand tous les phénomènes transitoires se
sont estompés), sont également des fonctions sinusoïdales de même fréquence que les sources et dont l'amplitude
et la phase à l'origine du temps sont constantes.
Le formalisme des impédances établit quelques règles de calculs des potentiels et des intensités du courant en tout
point d'un circuit alimenté par diverses sources et comportant des éléments inductifs et capacitifs. Les méthodes
de calcul sont alors similaires à celles utilisées pour les circuits en courant continu. Ce qui montre l'avantage
d'employer les impédances.
Ces règles ne sont valables que :
 En régime sinusoïdal établi, c’est-à-dire avec des sources de tension et de courant sinusoïdales et une fois
les phénomènes transitoires de départ disparus.
 Avec des composants linéaires, c’est-à-dire des composants dont l'équation caractéristique (relation entre
la tension à leurs bornes et l'intensité du courant qui les traverse) est une équation différentielle à
coefficients constants. Des composants non linéaires comme les diodes sont exclus. Les bobines à noyau
ferromagnétique donneront seulement des résultats approchés et ce, à condition de ne pas dépasser les
valeurs d'intensité au-dessus de laquelle leur fonctionnement ne peut plus être considéré comme linéaire
suite à la saturation qui intervient dans ces matériaux.
Si toutes les sources n'ont pas la même fréquence ou si les signaux ne sont pas sinusoïdaux, on peut décomposer
le calcul en plusieurs étapes à chacune desquelles on pourra utiliser le formalisme d'impédances. Voir plus loin
dans cet article.
Définitions mathématique de l’Impédance
Soit un composant électrique ou un circuit alimenté par un courant sinusoïdal
. Si la tension à ses
bornes est
, l'impédance du circuit ou du composant est définie comme un nombre complexe
Z, dont le module est égal au rapport
et dont l'argument est égal à
.
soit
Comme les tensions et les courants sont sinusoïdaux, on peut utiliser aussi bien des valeurs crête (des
amplitudes), des valeurs efficaces ou des valeurs crête à crête. Mais il faut faire bien attention à rester uniforme et
de ne pas les mélanger. Les résultats des calculs seront du même type que celui utilisé pour les sources.
L'impédance est homogène à une résistance et se mesure en ohms.
Module de l'impédance
Remarque : souvent, par abus de langage on désigne par le terme impédance ce qui, en toute rigueur, devrait
s'appeler module de l'impédance.
Le module de l'impédance se mesure en ohms.
Impédance des composants de base
Composants parfaits :
 Résistance : l'impédance d'une résistance R est égale à R :
C'est le seul composant à avoir une impédance réelle.
 Bobine : L'impédance d'une bobine d'inductance L est :
Ici
est la pulsation, F la fréquence et j² = -1.

.
.
Condensateur : L'impédance d'un condensateur de capacité C est :
Les composants réels ont des impédances d'expression complexe qui dépend généralement de la fréquence du
courant qui les traverse. Ils sont alors modélisés par des circuits constitués de composants idéaux. Par exemple,
une résistance réelle présente, en général, une inductance en série avec sa résistance. Une résistance bobinée
ressemble à s'y méprendre à une inductance et elle présente une valeur d'inductance significative. En haute
fréquence, il est nécessaire d'adjoindre à ce modèle un condensateur en parallèle pour tenir compte des effets
capacitifs existants entre deux spires contigües.
De même, un condensateur et une bobine réels peuvent être modélisés en ajoutant une résistance en série ou en
parallèle avec la capacité ou l'inductance pour tenir compte des défauts et pertes. Il faut même parfois ajouter des
inductances au modèle du condensateur et des capacités au modèle d'inductance. Ces composantes parasites de
l'impédance influent significativement sur l'impédance basique au-delà d'une fréquence qui peut varier de
quelques kiloHertz à quelques gigaHertz.
Réactance
Une impédance peut être représentée comme la somme d'une partie réelle plus une partie imaginaire :
est la partie résistive et
est la partie réactive ou réactance.
Admittance
Voir article principal admittance. L'admittance est l'inverse de l'impédance :
La conductance est la partie réelle de l'admittance et la susceptance est la partie imaginaire de l'admittance.
L'admittance, la conductance et la susceptance se mesurent en siemens. Un siemens est l'inverse d'un ohm.
Sources de tension ou de courant déphasées
Si, dans un circuit, on a plusieurs sources de tension ou de courant, on choisit une d'entre elles comme source de
référence de phase. Par exemple, si la source prise comme référence est de la forme
, on écrira sa
tension comme . Si la tension d'une autre source est en avance de phase d'un angle par rapport à la source de
référence, on écrira cette tension comme
. L'argument des tensions ou courants calculés donnera leur avance
de phase par rapport à la source de référence. Ainsi, par exemple une source de courant est
s'écrira
sous la forme
.
Diagramme de Fresnel
On peut représenter les tensions des sources et les tensions aux bornes des composants d'un circuit comme des
vecteurs dans le plan complexe. Avec un peu d'habitude et un minimum de connaissances de géométrie, ces
dessins sont beaucoup plus explicites que les valeurs ou des formules. Évidemment ces représentations ne sont
pas un moyen de calcul, mais un moyen de « voir » comment les tensions s'additionnent. Ils peuvent être aussi un
moyen d'écrire les formules finales en partant des propriétés géométriques. Vous trouverez deux exemples de
diagrammes de Fresnel dans les exemples plus bas.
Calcul de circuits avec les impédances
Avec ce qui vient d'être dit, on peut calculer des circuits comprenant des impédances de manière similaire a celle
utilisée pour le calcul avec des résistances en courant continu.
Lois de Kirchhoff
Les lois de Kirchhoff s'appliquent de la même manière: « la somme des courants arrivant sur un nœud est nulle »
et « la somme des tensions autour d'une maille est nulle ». Cette fois, aussi bien les courants que les tensions sont
représentés par des nombres complexes. (Voir transformation complexe).
Généralisation de la loi d'Ohm
La tension aux bornes d'une impédance est égale au produit de l'impédance par le courant :
Aussi bien l'impédance que le courant et la tension sont, en général, complexes.
Impédances en série ou en parallèle
Les impédances en série ou en parallèle se traitent comme les résistances avec la loi d'Ohm. L'impédance de
plusieurs impédances en série est égale à leur somme :
L'impédance de plusieurs impédances en parallèle est égale à l'inverse de la somme de leurs inverses :
Interprétation des résultats
Le résultat du calcul d'une tension ou d'un courant est, en général, un nombre complexe. Ce nombre complexe
s'interprète de la façon suivante :
 Le module indique la valeur de la tension ou du courant calculé. Si les valeurs utilisées pour les sources
étaient des valeurs crête, le résultat sera aussi une valeur crête. Si les valeurs utilisées étaient des valeurs
efficaces, le résultat sera aussi une valeur efficace.
 L'argument de ce nombre complexe donne le déphasage par rapport à la source utilisée comme référence
de phase. Si l'argument est positif, la tension ou le courant calculés seront en avance de phase.
Exemples
Une seule source
Inductance et résistance en série alimentées par une source sinusoïdale.
Dans le diagramme de droite nous avons une source sinusoïdale
de 10 volts d'amplitude et de 10 kHz de fréquence. En série
nous avons une inductance de 10 mH et une résistance de 1,2 k .
Calculons le courant qui circule dans le circuit :
Le module de ce courant sera :
Comme la tension était en valeur crête (amplitude), le courant obtenu l'est aussi. Le courant efficace est
La phase du courant est l'argument du nombre complexe :
:
.
Le courant est en retard de phase par rapport à la tension d'alimentation. Ceci est logique puisque le circuit est
inductif.
Diagramme de Fresnel d'une bobine et une résistance en série. Le cercle en gris ne sert que comme aide au dessin
de l'angle droit entre la tension sur la résistance et l'inductance.
Seule la résistance dissipe de la puissance :
Le apparaît parce que la valeur du courant utilisée est la valeur crête.
La tension aux bornes de la résistance est :
La tension efficace que l'on lirait sur un voltmètre serait le module de cette tension, divisé par racine de 2 :
La tension aux bornes de l'inductance est :
La tension efficace lue avec un voltmètre serait :
On peut constater que l'addition de deux tensions « complexes » donne bien (aux arrondis près) la tension
d'alimentation. Par contre, l'addition de deux tensions lues avec le voltmètre donne une tension plus élevée que
celle de l'alimentation (
). C'est le résultat typique des mesures faites avec un voltmètre sur des circuits
dont les tensions ne sont pas en phase.
Deux sources déphasées
Condensateur et résistance en série entre deux sources sinusoïdales
déphasées.
Dans le circuit de droite, un condensateur de
et une résistance
en
série, sont branchés entre deux sources sinusoïdales. Nous prenons comme
sources deux phases du réseau triphasé. La source de gauche sera notre
source de référence.
. celle de droite est en avance de
phase de
. Donc
. Avec le formalisme
d'impédances, la source de gauche s'écrira
et la source de droite
s'écrira
.
Commençons par calculer la différence de tension entre les deux sources :
Le module de cette tension est
référence.
, et elle est en retard de 0,5236 radians (30°) par rapport à la tension de
Diagramme de Fresnel correspondant au deuxième exemple. Le premier cercle sert de guide pour les tensions de
deux sources. Le second pour l'angle droit entre la tension du condensateur et celle de la résistance.
Le courant qui circule est :
Comme les valeurs de départ étaient des valeurs efficaces, le courant aussi est une valeur efficace de 91 mA et en
avance de phase de 16,71° par rapport à la tension de référence.
La tension aux bornes de la résistance est :
La tension aux bornes du condensateur est :
.
La tension aux bornes du condensateur est en retard de phase de 73,3° par rapport à la tension de référence.
Comme précédemment, l'addition des modules des tensions (celles que l'on mesurerait avec un voltmètre) sur la
résistance et le condensateur (563 V) est supérieure à la tension appliquée (398 V).
La tension au point A du circuit sera :
La tension au point A est plus élevée que la tension de chacune des sources.
Quand les impédances ne sont pas directement utilisables
Si toutes les sources n'ont pas la même fréquence, le formalisme des impédances n'est pas directement utilisable.
Dans ce cas on peut utiliser le théorème de superposition et faire un calcul séparé pour chacune des fréquences
(en remplaçant chaque source de tension de fréquence différente par un court-circuit et chaque source de courant
de fréquence différente par un circuit ouvert). Chacune des tensions et courants totales du circuit sera la somme
de chacune des tensions ou courants obtenus pour chacune des fréquences. Pour faire ces dernières sommes, il
faut exprimer chacune des tensions obtenus avec leur dépendance avec le temps et leur déphasage :
pour les tensions et des formules similaires pour les courants.
Si les signaux ne sont pas sinusoïdaux mais qu'ils sont périodiques et continus, on peut décomposer les signaux
en série de Fourier et utiliser le théorème de superposition et faire un calcul séparé pour chacune des fréquences
du développement. Le résultat final sera la somme des résultats obtenus pour chacune des fréquences (avec leur
dépendance temporelle et leur déphasage).
Origine des impédances
Quiconque a, un jour, reçu une décharge électrique, peut affirmer qu'elle était bien réelle et qu'elle n'avait rien
d'imaginaire. Alors, d'où sort le j des formules d'impédances? Nous allons essayer de l'illustrer en calculant, sans
utiliser le formalisme des impédances, le courant qui circule par un circuit formé par une résistance, une
inductance et un condensateur en série.
Le circuit sera alimenté par une tension sinusoïdale et nous avons attendu assez longtemps pour que tous les
phénomènes transitoires du début se soient estompés. Nous sommes en régime permanent. Comme le système est
linéaire, le courant du régime permanent sera aussi sinusoïdal et aura la même fréquence que la source originale.
La seule chose que nous ignorons est son amplitude et le déphasage que le courant peut avoir par rapport à la
tension d'alimentation. Ainsi, si la tension d'alimentation est
le courant sera de la forme
, où est le déphasage que nous ne connaissons pas. L'équation à résoudre sera :
où
,
et
sont les tensions aux bornes de la résistance, l'inductance et le condensateur.
est égale à
La définition d'inductance nous dit que :
.
La définition de condensateur nous dit que
. On peut vérifier (en intégrant l'expression) que :
.
Ainsi, l'équation à resoudre est :
C’est-à-dire, il faut trouver les valeurs de et de qui satisfont cette unique équation pour toutes les valeurs du
temps .
Imaginons maintenant que nous alimentons un circuit identique avec une autre source de tension sinusoïdale dont
la seule différence est qu'elle commence avec un quart de période de retard. C’est-à-dire délivrant une tension
égale à
sera :
. La solution sera la même sauf qu'elle aura aussi le même retard. Le courant
. L'équation de ce second circuit retardé sera :
Il y a des signes qui ont changé car le cosinus retardé se transforme en sinus, mais le sinus retardé se transforme
en
cosinus.
Maintenant nous allons additionner les deux équations après avoir multiplié la seconde par j. L'idée est de
pouvoir transformer les expressions de la forme
en
, utilisant les formules d'Euler. Le résultat est:
Comme
est différent de zéro,on peut diviser toute l'équation par ce facteur:
on déduit:
Le terme de gauche comprend les deux inconnues que nous voulions calculer: l'amplitude et la phase du courant.
Son amplitude sera égale au module du nombre complexe de droite et sa phase sera égale à l'argument du nombre
complexe de droite.
Mais le terme de droite est la formule habituelle à laquelle nous arrivons quand nous traitons les impédances des
résistances, inductances et condensateurs de la même façon que l'on traite les résistances dans la loi d'Ohm. La
formule est exactement celle que nous écrivons quand nous utilisons le formalisme de impédances. On reconnaît
au dénominateur les impédances de la résistance, l'inductance et le condensateur. Ce n'est pas inutile de repeter
que quand nous écrivons:
nous supposons que la personne qui lit cette formule sait l'interpréter et ne va pas croire que le courant puisse être
complexe ou imaginaire. La même supposition est implicite quand nous retrouvons des expressions comme "nous
alimentons avec une tension
" ou o "le courant est complexe".
Historique du micro
L'invention du microphone a été déterminante dans le développement des premiers systèmes téléphoniques.
Émile Berliner a inventé le premier microphone le 4 mars 1877, mais c'est à Alexander Graham Bell que revient
l'invention du premier microphone réellement utilisable qui fut créé en 1920. Une grande partie des premiers
développements des microphones a été menée par les Laboratoires Bell. je kiff le kuduro
Conception et caractéristiques
Microphone électrostatique de studio et son filtre anti-pop
Le microphone est un transducteur électroacoustique, tout comme l'oreille
animale et humaine: il traduit une onde sonore en signal électrique à l'aide
d'une partie mobile, le diaphragme ou membrane, que les ondes sonores
viennent exciter (l'équivalent dans l'oreille est le tympan). Par un dispositif
qui dépend de la technologie du microphone, ces oscillations mécaniques
sont converties en une tension électrique variable (comparable au signal du
nerf auditif). Cette tension électrique est acheminée vers le système
d'amplification, de pré-amplification ou d'enregistrement auquel le micro est
branché.
Un tissu ou une grille protège généralement la partie mobile du microphone,
afin d'éviter qu'elle ne soit abîmée par un contact direct. On peut également
avoir une protection supplémentaire contre le vent, notamment sous forme d'une bonnette (mousse en matière
plastique) ou d'un filtre anti-pop pour atténuer les consonnes explosives « p », « b », « t » et « d ».
Il n'existe pas un microphone capable de faire un enregistrement optimal dans toutes les situations : à chaque
situation de prise de son correspond un microphone, dont les constructeurs spécialisés proposent de nombreux
modèles. Les caractéristiques principales d'un microphone sont donc :
 Son type
 Sa technologie
 Sa directivité
 Ses caractéristiques électro-acoustiques (sensibilité, pression acoustique maximale, ...)
Les types de microphones
Différents types de microphones
Selon le type d'utilisation pour lequel le micro est destiné
(ambiance sonore, chant, instrument de percussion,
instrument à vent, sons aquatiques...) et selon les
conditions d'utilisation (studio, scène, en extérieur...):
 Le microphone à main
 Le microphone de studio
 Le microphone cravate
 Le microphone de surface
 Le microphone canon
 Le microphone pour instrument
 Le microphone cigare
La directivité
La directivité est une caractéristique essentielle du microphone, elle caractérise sa sensibilité en fonction de la
provenance du son, selon son axe central. Tous les microphones ne captent pas le son de la même façon. Suivant
les tâches à accomplir, le rendement optimal provient de la directivité. Certains perçoivent les sons de tout
l'environnement et d'autres s'appliquent à cerner des sources sonores éloignées. Les principales directivités sont
omnidirectionnelle, cardioïde ou supercardioïde et bidirectionnelle.
Le diagramme polaire d'un microphone représente les limites de la sensibilité du microphone dans l'espace. Un
cercle gradué en degrés de 360 unités et une ordonnée exprimée en décibels vous indiqueront l'espace perçu par
le microphone suivant différentes fréquences. En analysant le diagramme directionnel, on s'aperçoit que la prise
de son peut être pré-égalisée sans recourir à la console de mixage, suivant la disposition du microphone face à la
source sonore. En général, la directivité s'applique au mieux lorsque le diaphragme est perpendiculaire à la source
sonore. Dans le tableau suivant le micro est placé verticalement, son extrémité étant représentée par le point
rouge, et on trace les lignes qui créent le même niveau de signal en sortie du micro si l'on y déplace une source
sonore d'intensité constante.
Cardioïde
Bi-directionnel ou
Cardioïde
Hypercardioïde
Canon
large
figure en 8
Omnidirectionnel : aucune source sonore n'est privilégiée. Le micro capte le son de façon uniforme,
dans une sphère théoriquement parfaite. Utilisé pour enregistrer des sons d'ambiance, le microphone
omnidirectionnel perçoit les sons sur 360°, c’est-à-dire qu'il capte tout l'environnement. Il reçoit toutes les
sources sonores et les résonances de celle-ci. Il est donc souhaitable que l'acoustique de la salle se prête à
l'enregistrement. Il est cependant moins sensible aux hautes fréquences provenant par ses côtés et sa base
arrière qu'en attaque frontale. S'il est équipé d'une large capsule, on pourrait dire qu'il est pratiquement
directionnel dans les hautes fréquences. Il offre de très bons enregistrements sur des ensembles de chœur,
ou sur un instrument soliste au son réaliste.
Cardioïde : directivité vers l'avant, privilégie les sources sonores placées devant le micro. Utilisé pour le
chant, la prise d'instruments, le microphone unidirectionnel est le plus répandu. L'apparence de son
diagramme directionnel le fait appeler cardioïde (en forme de cœur). Bien que les sons provenant des
côtés soient toujours moins captés que les frontaux, sa conception est basée sur des différences de
pression acoustique entre les faces avant et arrière. Par ce calcul, il perçoit les sons devant la membrane et
rejette ceux provenant de derrière. Ainsi le son est légèrement moins réaliste que l'omnidirectionnel. De
plus, ils sont sensibles à la pression acoustique. L'effet engendré est celui d'un sentiment de proximité. Il
accroît aussi les moyennes et basses fréquences à mesure que la distance entre la source et la capsule
diminue. On l'utilise lorsque des sons hors axe sont à éviter, cas de réverbération ou de proximité d'autres
instruments. De ce fait, les micros cardioïdes sont couramment utilisés en sonorisation.
Hypercardioïde : similaire au cardioïde, avec une zone avant un peu plus étroite et un petit lobe arrière.
Canon : forte directivité vers l'avant, directivité ultra cardioïde permettant de resserrer le faisceau
sonore capté. Utilisé pour enregistrer des dialogues à la télévision ou au cinéma, et pour capter des sons
particuliers dans un environnement naturel. La directivité est ici ultra cardioïde et présente un champ de
Omnidirectionnel





sensibilité encore plus étroit. La capsule est placée au fond d'une structure tubulaire complexe faisant
office de réseaux d'interférences. Par leur aspect, on les appelle aussi micros fusils ou canons. Les
microphones ultra cardioïdes ne répondent cependant pas aux basses fréquences.
Bi-directionnel ou directivité en 8 : deux sphères identiques, à l'avant et à l'arrière. Caractéristique des
microphones à ruban. Le microphone bidirectionnel est utilisé le plus souvent en combinaison avec un
microphone de directivité cardioïde ou omnidirectionnelle afin de créer un couple MS (Mid pour l'avant et
Side via la directivité bidirectionnelle pour les côtés). Les angles de réjection des microphones
bidirectionnels permettent d'optimiser les problèmes de diaphonie lors de l'enregistrement d'instruments
complexes comme la batterie par exemple. Ce microphone possède deux capsules montées en opposition
de phase.sex and the city

Les différentes technologies
Les principales technologies de microphones sont présentées ici. Il en existe d'autres, comme par exemple le
microphone à ruban, relativement rare.
Microphone dynamique à bobine mobile
Schéma du microphone dynamique: 1.Onde sonore, 2.Membrane,
3.Bobine mobile, 4.Aimant, 5.Signal électrique
Il comporte un diaphragme fixé à une bobine mobile aimantée.
Cette dernière va devenir le siège d'un courant induit en se
déplaçant par rapport à un aimant fixe, ses oscillations étant égales
à celle du diaphragme. Le signal émis par inductance sera le signal
sonore. Les professionnels du son ont tendance à préférer les
microphones statiques aux dynamiques en studio, en raison de leur
reproduction sonore jugée trop ronde et terne par ces derniers, et
ce malgré l'apparition dans les années 80 d'aimants au néodyme fidélisant davantage la bande passante.
Cependant, dans certains cas, cette rondeur et cette chaleur de son peuvent être recherchés, notamment en rock
(reprise d'ampli, voix rock ou métal). Le micro dynamique est également très intéressant pour les prises de
percussion (grosse caisse entre autres) et cuivres, de par leur capacité à encaisser de fortes pressions acoustiques.
Ils sont par contre très utilisés sur scène, où leur solidité est très intéressante et leur manque de sensibilité est un
atout: il évite que le son des « retours » voire de la façade ne passent dans les micros et engendrent un Larsen.
 Avantages : robustesse, passivité (pas d'alimentation externe ni d'électronique), capacité à gérer de fortes
pressions acoustiques, prix en général nettement inférieur à un microphone statique de gamme
équivalente.
 Inconvénients : manque de finesse dans les aigus le rendant inapte à prendre le son de timbre complexes :
cordes, guitare acoustique, cymbales, etc.
 Quelques modèles de références : Les micros broadcast Shure SM7b, Electrovoice RE20 et RE27N/D très
utilisés aux États-Unis et dans certaines radios nationales et locales françaises ; Shure SM-57, un standard
pour la reprise d'instrument (notamment la caisse claire et la guitare électrique) et Shure SM-58 pour la
voix (Micro utilisé entre autres par Kennedy lors des meetings, Mick Jagger sur Voodoo Lounge, Kurt
Cobain sur Bleach etc.). Il est intéressant de savoir que ces deux micros sont identiques au niveau de la
construction et que ce n'est qu'une courbe différente d'équalisation (due au filtre anti-pop qui n'existe pas
sur le SM57) qui les différencient[réf. nécessaire]. Leurs versions hypercardioïdes, le BETA57 et BETA58,
jouissent d'une notoriété moindre, malgré une qualité de fabrication nettement supérieure. Citons encore
le Sennheiser MD-421 très réputé pour les reprises de certains instruments acoustiques (dont les cuivres)
et d'amplis de guitare ou de basse.
Microphone électrostatique à condensateur
Schéma d'un microphone à condensateur. 1.Onde sonore, 2.Membrane
avant, 3.Armature arrière, 4.Générateur, 5.Résistance, 6.Signal
électrique
Les microphones électrostatiques, bien qu'ayant le défaut d'être
sensibles aux manipulations et de saturer à des niveaux de pression
acoustique inférieurs à ceux supportés par les microphones
dynamiques, sont largement plébiscités par les professionnels en raison
de leur fidélité de reproduction. Cette fidélité n'est atteinte que si le
microphone est étalonné ; le pistonphone est un appareil couramment utilisé à cette fin.
La membrane n'est pas fixée à un bobinage, mais est flottante, séparée d'une plaquette électriquement chargée par
un isolant (air, vide...). La face intérieure de la membrane étant saupoudrée d'une fine couche d'or, métal très
conducteur, ou rendue conductrice par tout autre moyen (ex. membrane en Mylar, polyester aluminisé), cela
forme un condensateur. Les vibrations de la membrane font varier l'épaisseur d'isolant entre les armatures du
condensateur, sa capacité varie d'autant, ce qui provoque un mouvement de charges, c'est-à-dire un courant
électrique qui, une fois passé dans une résistance calibrée, va fournir une tension électrique image du signal. La
technologie du microphone électrostatique présente l'avantage d'excellentes réponse transitoire et bande passante,
entre autres grâce à la légèreté de la partie mobile (uniquement une membrane conductrice, à comparer avec la
masse de la bobine d'un microphone dynamique). De telles caractéristiques nécessitent une alimentation fantôme,
à pourvoir en duplex, allant de 11 à 52 Vcc (standardisée à 48 Vcc), ainsi nommée car la tension générée est
véhiculée via le même canal que le signal sonore en connectique XLR. En outre, les microphones électrostatiques
sont équipés de préamplificateurs électroniques à étages de condensateurs, de transistors ou de lampes, car leur
signal de sortie est assez faible. Ils comportent souvent des options de traitement du signal telles un modulateur
de directivité, un atténuateur de basses fréquences, ou encore un limiteur de volume (Pad).
 Avantages : sensibilité, définition.
 Inconvénients : fragilité, nécessité d'une alimentation externe, contraintes d'emploi, inapte à reprendre des
pressions acoustiques trop élevées. Sensible aux manipulations, il est généralement fixé sur une monture à
suspension faite de fils élastiques, généralement en zigzag, destinée à absorber les chocs et les vibrations.
Il est très rare qu'il soit utilisé comme microphone à main, sauf certains modèles qui incorporent une
suspension interne.
 Ces caractéristiques font qu'ils sont en général plus utilisés en studio que sur scène.
 Quelques modèles de référence : Neumann U87ai, U89i et KM 184 (souvent en paire pour une prise
stéréo), Shure SM81 et KSM44, AKG C3000 et C414.
Microphone électrostatique à électret
Le microphone à électret est dans son principe voisin du microphone à condensateur
mais présente la particularité de disposer d'un composant à polarisation permanente :
l'électret. Le problème, c'est que la charge de polarisation diminue dans le temps, ce
qui se traduit par une perte de sensibilité du micro au fil des années.
D'une façon générale, une alimentation à piles du microphone à électret est
nécessaire pour l'alimentation d'un transistor à effet de champ adaptateur
d'impédance logé immédiatement derrière la capsule. En effet l'impédance très
élevée de celle-ci est incompatible avec l'entrée basse ou moyenne impédance (200
Ohms ou 47kohms) des appareils transistorisés actuels. De plus cette liaison directe
serait sujette à de nombreuses inductions parasites et à une chute d'aigus très forte sur
câble long.
Certains modèles semi-professionnels actuels utilisent indifféremment une pile
interne (1.5 volt) ou l'alimentation fantôme normalement prévue pour les micros à
condensateur (48 volts sur les tables de mixage) grâce à un commutateur. Ceci ajoute
au risque de confusion entre les 2 technologies « électret » et « électrostatique pur ».
Facilement miniaturisable, le micro à electret est très utilisé dans le domaine audiovisuel (micro cravate, micro
casque, etc.) où on l'apprécie pour son rapport taille/sensibilité. Les meilleurs modèles parviennent même à
rivaliser avec certains micros électrostatiques en termes de sensibilité.
Les électrets actuels bénéficient d'une construction palliant cette fâcheuse espérance de vie limitée que l'électret
connaît depuis les années 1970.
 Avantages : possibilité de miniaturisation extrême, sensibilité.
 Inconvénients : amoindrissement de la sensibilité au fil du temps.
 Quelques modèles de références : AKG C1000, Shure KSM32, Rode Videomic, Sony ECM.
Microphone magnétique
Un humbucker et deux micros simples
Il est utilisé principalement sur les guitares électriques, les basses les pianos
électriques ou encore les violons électriques, pour capter la vibration des
cordes métalliques. Il existe plusieurs types de micros guitare (voir guitare).
Ces derniers sont choisis en fonction de l'instrument, du style de musique
jouée, et de la coloration sonore que l'on souhaite avoir.
Le premier micro magnétique est apparu en 1931 sur une guitare hawaïenne
de Rickenbacker (la "Frying Pan" modèle A-22), il fallu attendre 1935 pour
voir apparaitre une version adaptée aux guitares traditionnelles; le P-90 de
Gibson. En 1944, Fender inventa (pour la K&F compagny) un autre type de micro à simple bobinage mais dont
les aimants sont séparés. À l'origine, le micro était à simple bobinage, dit single coil, se composant d'un aimant
entouré d'une bobine. Le champ magnétique de l'aimant traverse notamment la bobine, laquelle est soumise aux
variations de ce champ induites par les cordes en mouvement – elles jouent le rôle d'un diaphragme mobile qui
fait varier la force contre-électromotrice parcourant la bobine. À la bobine sont en général raccordés deux fils
électriques : celui qui va véhiculer le son sous la forme de signaux électriques est appelé le « point chaud »,
l'autre est tout simplement relié à la masse.
Le problème des micros simples est qu'il génère des sons parasites. Ce problème fut résolu en 1955 par un
ingénieur de chez Gibson, Seth E. Lover, en utilisant deux micros simples dont les polarités ont été inversées :
c'est le micro double aussi appelé humbucker. Toutefois, ce micros ne fut pas installé avant 1956 sur des guitares
hawaïennes et 1957 sur des guitares électriques.
Les micros doubles peuvent être :
 splittés (on n'utilise qu'un seul des deux bobinages pour donner une sonorité de micro simple) sur
certaines guitares.
 appairés, en série ou en parallèle, en phase ou en opposition de phase, selon le montage électrique installé
sur la guitare, créant ainsi des combinaisons de sonorités supplémentaires.
Il existe aussi les micros guitare « actifs » principalement de la marque EMG, Inc qui ont de nombreux avantages
notamment sur scène et en studio.
Depuis quelques années, des chevalets intégrant des capteurs piézo-électriques (ceux des guitares
électroacoustiques) ont fait leur apparition, que l'on peut combiner aux micros déjà présents sur la guitare.
Microphone à charbon
Les microphones à charbon étaient autrefois utilisés dans les combinés téléphoniques ; ils sont moins voire plus
du tout utilisés de nos jours. Ce sont aussi les premiers microphones des stations radios telles que la BBC.
Ils sont composés d'une capsule contenant des granulés de carbone entre deux plaques métalliques servant
d'électrodes. La vibration due à l'onde sonore vient comprimer les granules de carbone. Le changement de
géométrie des granules et de leur surface de contact induit une modification de la résistance électrique, produisant
ainsi le signal. Ces microphones fonctionnent sur une plage de fréquence limitée et produisent un son de basse
qualité mais sont cependant très robustes.
Quelques photos de microphones
Microphone dynamique pour
karaoké
Shure SM57 et son successeur Beta57
(dynamique)
Vieux micro Grundig (à
charbon)
Vieux micro Grundig (à
charbon)
Sennheiser 845 (dynamique)
Micro AKG C414 (voix, chant, Neumann U89i (universel, à
Neumann U87 (universel, à condensateur)
à condensateur)
condensateur)
Oktava 319 (instruments, à
condensateur)
Membrane d'un Oktava 319
Suspension contre les
vibrations
Schéma du préampli d'un
microphone à électret
Microphone magnétique pour
guitare
Schéma d'un micro
dynamique
Courbes d'un micro à condensateur (Oktava
319) et d'un micro dynamique (SM58)
Schéma d'un micro à condensateur
Autres catégories
Il existe d'autres catégories de micro :
 L'hydrophone : il existe aussi des micros pour écouter les sons dans l'eau. Ces micros ont deux principales
utilisations : la prise de son pour les reportages aquatiques et la navigation dans les sous-marins.
 Le microphone de contact, qui capte les vibrations d'un solide.
Principaux systèmes d'enregistrements stéréophoniques
La stéréophonie mixte et les couples équivalents ORTF, DIN, NOS

Système stéréo composé de deux cardioïdes, avec un angle entre les micros de 110° et des espacements de
capsules de 17cm. Ce système, inventé par les techniciens de l'ORTF, est le meilleur couple équivalent
avec un angle d'enregistrement utile de 90°.
 Un angle entre les micros de 90° et des espacements de capsules de 20cm pour le DIN (allemand), qui
donne une prédominance aux différences temporelles avec un angle d'enregistrement utile de 100°.
 Un angle entre les micros de 90° et des espacements de capsules de 30cm pour le NOS, qui donne des
différences temporelles encore plus présentes avec un angle d'enregistrement utile de 80°.
Exemple de micros ste en XY avec l’enregistreur H4 ou le H1 cités parmi d’autres marques :
- Enregistrement et reproduction simultanée
de 4 pistes
- 96KHz/24bit, 44.1KHz/16bit ou mp3
- 2 micros à Condensateur en configuration
X/Y avec angle de prise de 90° ou à 120°
- preamplificateur nouvelle génération
- decoder mid-side intégré
-
entrées XLR avec alimentation phantôme, entrées Hi -hi-Z
sorties Ligne/casque : miniJack stéréo 3.5mm
stockage SD/SDHC jusqu'à 32GB
LCD rétro éclairé de 1.9 pouces avec interface graphique simplifiée
fonction time stamp et track marker
haut parleur intégré
fonction ""phrase training"" : vitesse playback variable
effets (modélisations d'amplis pour guitare et basse)
accordeur chromatique
metronome
mode stamina pour enregistrer jusqu'à 10 heures consécutives avec des batteries alcalines
software Cubase LE4 inclus - alimentation : 2x batteries AA (non incluses) ou alimentation AD14 5V/1A
- accessoires fournis : alimentateur AD14, cable USB, Carte SD 1GB, bonnette anti souffle, attache pour trépied
- accessoire facultatif : télécommande RC-04 à fil
H1
La stéréophonie d'intensité et les couples coïncidents
Le système XY
Composé de: Deux microphones cardioïdes, avec un angle de 90° et des capsules coïncidentes, c'est-à-dire au
même endroit. Ce système est mono-compatible. Angle utile de prise de son 170°. À noter que l'angle sur le
couple XY est modulable selon la restitution voulue. C'est un couple jouant sur les différences d'intensités,
donnant des sources sonores mal localisées dans l'espace à cause de l'absence des différences temporelles. La
localisation spatiale de l'oreille humaine les utilise énormément. Elle est moins sensible aux différences
d'intensité.
Le système MS
D'origine allemande, MS signifie: (de)Mitte Seite et en Anglais: (en)MideSide.
Ce procédé est, en principe, composé d'un microphone à deux capsules. la
première capsule est cardioïde ou omnidirectionnel, pointée vers la source, la
deuxième capsule est bidirectionnelle (dite figure en 8). Celle-ci est placé
perpendiculairement à la source. L'effet stéréophonique est obtenu par un
matricage:
Cette technique de prise de son a été abandonnée pour la musique à la fin des
années mille neuf cent soixante pour sa mauvaise compatibilité avec la gravure
dite compatible mono/stéréo.
Elle réapparaît dans les années mille neuf cent quatre-vingt, en Europe au début
du cinéma stéréo.
La stéréophonie de phase et son couple AB

Le système AB : deux omnidirectionnels espacés. La sommation peut donner des problèmes de
phase, en particulier si les microphones sont très espacés. les distances sont 25 à 50cm pour
respectivement 180°à 130° d'angle de prise de son. Plus les micros sont espacés, plus l'angle de prise
de son diminue. Lorsque les microphones sont trop espacés, un trou apparaît au centre de l'image.
Le Decca tree
Les distances entre les trois micro du Decca tree sont ajustables.
Résistance et conductivité des matériaux : compléments
Nom du métal
Résistivité à 300 K
(Ω·m)
Argent
16·10-9
Cuivre
17·10-9
Or
22·10-9
Aluminium
27·10-9
Magnésium
46·10-9
Bronze
50·10-9
Zinc
60·10-9
Nickel
70·10-9
Laiton
70·10-9
Cadmium
76·10-9
Platine
94·10-9
Fer
104·10-9
Étain
142·10-9
Plomb
207·10-9
Germanium
460·10-9
Constantan
500·10-9
Mercure
960·10-9
Nichrome
1000·10-9
Carbone
35 000·10-9
L'argent métallique est le corps pur simple qui est le meilleur conducteur d'électricité à température ambiante.
Isolants
nom du matériau résistivité (Ω·m)
eau distillée
1,8 105
verre
1017
air
variable
polystyrène
1020
Résistivité électrique des métaux purs pour des températures entre 273 et 300K (10-8 Ω·m)1 :
H
He
Li
Be
9,55 3,76
B
C
N
O
F
Ne
Na Mg
4,93 4,51
Al
2,733
Si
P
S
Cl
Ar
Ni
Cu
Zn
Ga
7,2 1,725 6,06 13,6
Ge
As
Se
Br
Kr
K
Ca Sc
7,47 3,45 56,2
Ti
39
V
Cr Mn Fe Co
20,2 12,7 144 9,98 5,6
Rb
Sr
Y
Zr Nb Mo
13,3 13,5 59,6 43,3 15,2 5,52
Tc
Ru
7,1
Rh Pd
Ag Cd
4,3 10,8 1,629 6,8
In
8
Sn
11,5
Sb
39
Te
I
Xe
Po
40
At
Rn
Cs
21
Ba
34,3
*
Hf
34
Ta
W Re
13,5 5,44 17,2
Os
8,1
Ir
Pt
Au Hg
4,7 10,8 2,271 96,1
Tl
15
Pb
Bi
21,3 107
Fr
Ra
**
Rf
Db
Sg
Bh
Hs
Mt
Cn
Uut
Uuq Uup Uuh Uus Uuo
*
La
4,7
Ce
Pr
70
Nd Pm
64,3 75
Sm
94
Eu
90
Gd Tb
131 115
Dy Ho
92,6 81,4
Er
86
Tm
67,6
Yb
25
Lu
58,2
**
Ac
Pu
Am Cm
Fm
Md
No
Lr
Th Pa
14,7 17,7
U
28
Np
Ds
Bk
Rg
Cf
Es
Calcul de la résistivité des cristaux
Dans le cas d'un cristal parfait, on peut calculer la résistivité en fonction des paramètres fondamentaux 2.
Cristaux covalents
Les cristaux covalents sont des isolants, la bande interdite est large. Avec l'élévation de température, des électrons
peuvent être suffisamment excités pour franchir le gap. La conductivité suit donc une loi en
T3/2·exp(-Eg/kT) où
 T est la température absolue ;
 Eg est la largeur de la bande interdite ;
 k est la constante de Boltzmann.

Cristaux ioniques
Dans les cristaux ioniques, la conduction se fait par migration de défauts. Le nombre et la mobilité des défauts
suivent une loi d'Arrhénius, la conductivité suit donc une loi similaire, en
exp(-Q/RT) où
 Q est l'énergie de formation ou de migration des défauts ;
 R est la constante des gaz parfaits ;
 T est la température absolue.
Article détaillé : Conduction électrique dans les oxydes cristallins.
Cristaux métalliques
Dans le cas des cristaux métalliques, la résistivité augmente avec la température ; la conductivité augmente
linéairement avec T. Cela est dû à l'interaction entre les électrons et les phonons.
Le premier modèle utilisé considère que les électrons se comportent comme un gaz, le libre parcours moyen des
électrons étant déterminé par les chocs avec les ions (atomes du réseau sans leurs électrons libres, réseau appelé
« gellium »). On trouve une résistivité valant
avec
m : masse d'un électron ;
N : nombre d'électrons par unité de volume, de l'ordre de 1028 m-3 ;
e : charge élémentaire ;
τ : temps de relaxation, c'est-à-dire durée moyenne séparant deux collisions.
Mais ce modèle ne prend pas en compte l'effet de la température ni des impuretés.
Selon la relation de Matthiessen, la conductivité comprend trois composantes :
ρ = ρ T + ρi + ρ D
avec ρT : contribution de l'agitation thermique ;
 ρi : contribution des impuretés, de l'ordre du μΩ⋅cm/% d'impureté ;
 ρD : contribution des défauts atomiques.
Le modèle de Drude prend en compte l'effet Joule, c'est-à-dire l'énergie cinétique que les électrons cèdent au
réseau à chaque collision. Comme les autres modèles, c'est un modèle non quantique, qui permet également de
prévoir la conductivité thermique, mais décrit mal ce qui se passe pour les températures très basses.
La résistivité d'un métal à une température proche de l'ambiante est en général donnée par :
ρ = ρ0(1 + αθ)
avec
 ρ0 : résistivité à 0 °C ;
 α : coefficient de température (K-1) ;
 θ : température en degrés Celsius.





Coefficients de température de quelques métaux
α (10-3K-1)
Métal
Argent
3,85
Cuivre
3,93
Aluminium
4,03
Plomb
4,2
Nickel
5,37
Fer
6,5
Tungstène
45
Mesure de la résistivité
Résistivité des sols
Article détaillé : Terre (électricité).
On utilise un telluromètre et la méthode de Wenner : (on écrit tellurohmmètre (qui mesure la résistance de ce qui
est tellurique)) On plante 4 piquets alignés et équidistants notés 1, 2, 3 et 4. Le courant de mesure est injecté entre
les piquets 1 et 4 et la résistance est mesurée entre 2 et 3. Si la distance entre 2 piquets est égale à D, la résistivité
du sol se calcule avec la formule :
ρ = 2π⋅D⋅R23.
Résistivité des couches minces
La méthode 4 pointes ou méthode de Van der Pauw est utilisable pour mesurer la résistivité d’une couche mince.
Il faut placer les 4 pointes près des bords de la couche à caractériser.
Soit un rectangle dont les côtés sont numérotés de 1 à 4 en partant du bord supérieur, et en comptant dans le sens
des aiguilles d'une montre. On injecte le courant entre deux points du bord 1 et on mesure la tension entre les
deux points du bord opposé (bord 3). Le rectangle pouvant ne pas être strictement un carré nous effectuons une
deuxième mesure en injectant cette fois ci le courant entre les deux points du bord 4, et comme précédemment
nous mesurons ensuite la tension entre les deux points du bord opposé (bord 2). Il suffit ensuite de calculer à
l’aide de la loi d'Ohm, le rapport V/I pour chaque configuration de mesures.
Nous obtenons ainsi RAB,CD et RAC,BD.
La résistivité ρ est la solution de l'équation dite équation de Van der Pauw :
.
où e est l'épaisseur de la couche.
Une méthode de résolution consiste à calculer la résistance équivalente par la formule suivante :
ƒ étant le facteur de forme obtenu d’après la relation :
Nous calculons ensuite la résistivité avec :
ρ = Req⋅e.
Téléchargement