La capture d’images biologique et numérique Ces dernières années, les appareils photo numériques ont connu un très fort succès. C’est pourquoi nous avons choisi de nous y intéresser pour en comprendre le fonctionnement et ses possibilités. Lors de nos recherches générales nous avons pu conclure que le fonctionnement de l’appareil photo numérique est proche de celui de l’œil humain. C’est pourquoi ce TPE tente de répondre à la question : « Quel est le fonctionnement de l’œil et peut on penser que l’homme a essayé de l’imiter afin de créer les appareils photo numériques ? Nous allons traiter tout d’abord, la ressemblance entre l’œil et l’appareil photo numérique. Pour cela, il parait important de définir la lumière qui est indissociable de la capture d’images, puis nous comparerons iris avec diaphragme, et enfin cristallin et cornée avec lentilles. Dans une seconde partie, nous étudierons en détail les deux dispositifs de capture d’images que sont la rétine et le capteur CCD, pour finir nous envisagerons une possible mise en place d’un œil numérique afin de faciliter la vie des personnes malvoyantes Ressemblance entre l’œil et l’appareil photo numérique On appelle communément, lumière l’ensemble des rayonnements magnétiques visibles, c’est à dire, susceptibles d’être directement perçus par l’œil humain. C’est aussi elle qui permet de créer un courant à la sortie d’un capteur CCD. Il paraît donc essentiel de la définir avant d’étudier le fonctionnement de l’œil et celui de l’appareil photo numérique. 1)Définition de la lumière La lumière n’est pas une onde mécanique car elle se propage dans le vide : notre environnement est en fait un champ magnétique créé par la présence de particules chargées et leur déplacement. Si on perturbe ce champ, une onde électromagnétique se propage. Elle a donc la propriété de pouvoir se déplacer dans le vide. De plus on peut prouver son caractère ondulatoire grâce à l’expérience de diffraction. Comme toute onde, la lumière transporte de l’énergie. Elle est donc caractérisée par sa fréquence, f. Cependant, tout au long de notre TPE, nous allons travailler uniquement dans l’air, qui peut être assimilé au vide quant à sa vitesse et sa longueur d’onde. Sa célérité, dans le vide est de C = 3.10^8 m/s, sa longueur d’onde se note λ, et C = λ.f Mais la lumière perçue n’est en fait qu’une fenêtre étroite de l’ensemble des ondes électromagnétiques : le spectre du visible s’étend, à peu près, de 400 nm à 800 nm 2)Iris – Diaphragme Avant d’étudier certaines parties de l’œil, il paraît important de les fixer sur un schéma. a)Iris L’iris est la partie colorée de l’œil. Il limite l’intensité de la lumière pénétrant dans l’œil en faisant varier le diamètre d’ouverture de la pupille. Vision en pénombre : la pupille est dilatée, l’iris lui permet de s’ouvrir largement afin de laisser passer un maximum de lumière. Vision en plein jour : la pupille est rétractée, son diamètre se réduit afin de diminuer la quantité de lumière qui pénètrent dans l’œil. b)Diaphragme Le diaphragme est mécanisme présent sur l’objectif permettant de faire varier l’intensité du faisceau lumineux entrant dans celui-ci. Le diaphragme peut donc être considéré comme l’iris de l’appareil photo numérique car il remplit la même fonction que ce dernier, à savoir la limitation de l’intensité lumineuse admise dans l’appareil optique, quel qu’il soit. 3)Cristallin et cornée – lentilles a)Cristallin et cornée Les rayons lumineux entrent par la cornée, traversent l'humeur aqueuse puis la pupille. Là, le cristallin les fait converger, grâce à ses contractions, sur la rétine. Il possède, en effet, la propriété de changer de forme suivant la distance à laquelle on regarde. Si l'objet est près, il se bombe. On dit qu'il converge. S'il est lointain, il s'aplatit. Cette capacité de mise au point est l'accommodation. Elle fonctionne à partir d'une dizaine de centimètres jusqu'à l'infini. b)Lentilles Dans un appareil photo numérique, l’accommodation se fait grâce à un duo de lentilles : une étant mobile et l’autre, fixe. Ainsi, ce jeu de lentilles peut être considéré comme une seule lentille convergente de vergence variable. Ainsi, la cornée et le cristallin jouent le rôle de lentilles convergentes et focalisent les rayons de lumière sur la rétine, le capteur CCD dans le cas d’un appareil photo numérique. Nous pouvons donc conjecturer que le fonctionnement d’un appareil photo numérique est proche de celui de l’œil : nous pouvons donc penser que les « inventeurs » de l’appareil photo se sont inspirés de notre appareil visuel. Afin de vérifier si cette hypothèse est vraie, nous allons étudier plus particulièrement les deux principaux éléments restants : la rétine et le capteur CCD II. La capture d’images en détail 1)la rétine La rétine constitue l’organe sensitif de la vision proprement dit : au fond de celle-ci se trouvent des photorécepteurs (cônes et bâtonnets), qui transforment l’énergie lumineuse en potentiels nerveux. La rétine est un tapis neuronal très fin (de l’ordre de 01 à 0.5 mm d’épaisseur) organisée en plusieurs couches successives, qui ont chacune une fonction précise. Cependant, pour simplifier nous parlerons ici uniquement des trois couches principales : - la couche des cellules photosensibles la couche granuleuse interne la couche des cellules ganglionnaires On arrive donc à ce schéma simplifié : On constate que la rétine est inversée car la lumière doit traverser la rétine avant de pouvoir atteindre les photorécepteurs, sensibles à la lumière et c’est paradoxalement la couche des ganglionnaires qui assure la transmission du message nerveux au cerveau. Afin de comprendre comment la rétine transforme l’énergie lumineuse en trains d’influx véhiculés dans le nerf optique, nous allons diviser l’étude en deux parties : la perception des couleurs par les cellules photoréceptrices et la transmission des messages nerveux au cerveau A ) La couche des photorécepteurs La couche des photorécepteurs comporte environ 125 millions de cellules photosensibles différentes, portant des noms reflétant leur forme : les 120 millions bâtonnets qui permettent de voir en nuances de gris dans des conditions de faible luminosité. Ils sont donc responsables de la vision nocturne mais ne sont sensibles qu’à la différence entre obscurité et lumière. Les 5 millions de cônes, plus petits et plus larges, sont sensibles à la couleur dans des conditions de forte luminosité. Ils sont responsables de la vision diurne et font la différence entre les couleurs. Ainsi, la résolution d’une image vue par l’œil, qui est définie comme parfaite est comparable à une image d’environ 50 à 70 Mégapixels. 1) les cônes Les cônes sont donc responsables de la vision en couleur. Evidemment il n’y a pas un cône par couleur, ce qui ne serait ni fiable ni économique en termes d’énergie et d’encombrement. La nature a en effet mis au point un système plus ingénieux mais aussi plus robuste. Il existe trois types de cônes différents, chaque type étant sensible à une gamme de longueurs d’onde différente : Les cônes S atteignent leur maximum d’excitation pour une longueur d’onde de 420 nanomètres, soit la couleur bleue Les cônes M sont excités pour des longueurs d’onde proche de 530 nanomètres, correspondant au vert Les cônes L sont excités au maximum lorsqu’une longueur d’onde de 560 nanomètres les atteint, ils restent sensibles pour des longueurs d’onde qui correspondent au rouge ( 800 nanomètres ) Spectre d’absorption des cônes Ainsi lorsqu’ils sont percutés par les photons (particules de lumière, cf. partie I), porteurs d’une quantité d’énergie proportionnelle à la longueur d’onde du rayon lumineux, les cônes assurent une transformation. A noter, plus la longueur d’onde sera éloignée du pic d’absorption, mois les cônes seront activés. Ainsi, selon les longueurs d’onde perçues, des signaux d’intensité variables sont produits dans chacune des trois catégories de cônes, ce qui va permettre au système visuel de déduire toute la gamme de coloris que peut percevoir le cerveau humain. En fait, les photons modifient la forme d’une petite molécule facilement malléable, le rétinal , située à l’intérieur d’un pigment appelé opsine, lui-même situé dans le segment externe d’un cône : ces deux molécules forment la iodopsine. Représentation d’une molécule de iodopsine M : - au centre, en rouge : le rétinal en diverses couleurs : les 7 hélices de l’opsine qui l’entoure Le rétinal est une molécule dérivée de la vitamine A, liée à l’opsine par liaison C = N. Il a la capacité de s’isomériser en contact avec un photon, ce que l’on appelle la photoisomérisation, il passe alors de sa forme 11-cis-rétinal en tout-trans-rétinal. Rétinal La déformation du rétinal entraîne à son tour la déformation de l’opsine, ce qui déclenche une cascade de réactions biochimique conduisant finalement, à la production d’un signal nerveux. Il est important de préciser que ce rétinal est le même pour les différents types de cônes (mais aussi pour les bâtonnets) Par contre, l’opsine diffère pour les photorécepteurs différents et est constituée d’un enchaînement d’acides aminés enroules en sept hélices alpha. Ces différences suggèrent que la plage de longueur d’onde absorbée est déterminée par la molécule d’opsine et que donc, la sensibilité du rétinal est conditionnée par la protéine qui l’entoure. b) les bâtonnets Les bâtonnets sont des photorécepteurs extrêmement sensibles à la lumière, ils sont répartis sur toute la surface de la rétine. Ils permettent de voir dans des conditions d'éclairage faible, la nuit par exemple. Ils sont tous identiques et ainsi ne permettent qu'une vision en nuances de gris (c’est à dire en noir et blanc). La vision, dans des conditions de faible éclairage, est donc exempte de couleurs. Dans le cas des bâtonnets, le rétinal (qui est le même pour tous les photorécepteurs) s’accroche aussi à une molécule d’opsine. Le regroupement ainsi formé s’appelle la rhodopsine qui a un maximum d'absorption à 496 nm. On en conclut que pour que chaque photorécepteur ait une fonction particulière il faut que les opsines soient différentes : chaque opsine est codée par un gène. Tous les photorécepteurs possèdent les 4 gènes, mais le gène rho ne s'exprime que dans les bâtonnets, le gène S dans les cônes S, etc : toutes les opsines sont donc des protéines membranaires très proches. Revenons à la production du signal nerveux grâce à la déformation du rétinal, nous allons maintenant étudier comment ce signal nerveux est transmis au cerveau. B) La couche granuleuse interne La couche suivante, dénommée couche granuleuse interne, comporte une variété de neurones rétiniens : - les cellules horizontales les cellules bipolaires les cellules amacrines Les neurones bipolaires sont un passage obligé entre les photorécepteurs et les cellules ganglionnaires (de la couche des ganglionnaires, que l’on étudiera après) tant pour la voie directe que pour la voie indirecte faisant intervenir les cellules horizontales. Le signal nerveux s’y transmet sous forme de potentiel gradué. Celui-ci peut être autant une dépolarisation qu’une hyperpolarisation de la membrane de la cellule Ce mécanisme est résumé à travers ce schéma simplifié On comprend bien grâce à ce schéma mais aussi à celui présentant les différentes couches de la rétine que les cellules bipolaires sont indispensables dans la transmission du message entre les cellules photo réceptrices et les cellules ganglionnaires de la 3eme couche que nous étudierons plus tard. Les cellules horizontales sont connectées latéralement à plusieurs cônes, bâtonnets et neurones bipolaires, leur rôle est d’inhiber l’activité des cellules avoisinantes et donc d’augmenter l’acuité d’un signal sensoriel. Dans le cas de la vision, quand une source lumineuse atteint la rétine, elle peut illuminer fortement certains photorécepteurs et d’autres beaucoup moins. En supprimant le signal de ces photorécepteurs moins illuminés, les cellules horizontales assurent que seul le signal des photorécepteurs bien illuminés est transmis aux cellules ganglionnaires, améliorant ainsi le contraste et la définition du stimulus visuel. Les cellules amacrines relient les neurones bipolaires aux ganglionnaires : elles forment une route alternative indirecte entre ceux-ci Ces deux derniers groupes de neurones forment un système de contrôle, qui permet d’adapter le système rétinien aux contrastes, au mélange des couleurs etc … C) La couche des ganglionnaires Cette dernière couche nerveuse de la rétine, est composée d’environ 1 million de cellules ganglionnaires. C’est l’étage de sortie vers le cerveau : les ganglionnaires sont reliés d’une part aux cellules bipolaires et ont, d’autre part, des axones qui se rejoignent au niveau de la papille pour former le nerf optique, relié au cerveau 2) Le capteur CCD Le capteur CCD sert d’interface de transformation de la lumière en charges électriques. C’est une surface compartimentée en « photosites » sensibles à la lumière. Lorsque les photons frappent le capteur, leur énergie est transmise à la matière et des électrons sont expulsés de leur orbite. C’est comme cela que le capteur détecte la présence de lumière. Il s’agit en fait d’un matériau semi conducteur compartimenté, le silicium est le plus utilisé. (Capteur photosensibles, microprocesseur …). Pure le silicium est un conducteur « intrinsèque », il conduit très mal les charges électriques. Par exemple, le cuivre est 29 Milliards de fois plus conducteur. Ses atomes possèdent 4 électrons périphériques, on va alors injecter des atomes à 3 électrons périphériques (bores, aluminium, gallium, indium). On a ainsi dopé le semi conducteur et l’on peut ainsi plus facilement détecter les électrons expulsés. Mais quels électrons sont précisément expulsés ? En fait, les électrons du capteur ne peuvent devenir électrons libres que s’ils reçoivent une certaine quantité d’énergie. Par conséquent, les photosites ne recevant pas assez de luminosité ne détecterons pas la lumière qui les frappe. L’effet inverse est aussi observer, une chaleur excessive peut parasiter l’image, on nomme cela le « bruit ». Certains téléscopes du commerce sont d’ailleurs équipé de dispositif de refroidissement avancé (plaque à effet Peltier) afin d’obtenir une image moins bruitée. Revenons à la lumière. L’énergie apportée par un photon dépend directement de sa longueur d’onde notée λ. L’énergie d’un photon est exprimé avec la formule d’Einstein: H x (c/ λ) où c est la vitesse de la lumière et h la constante de Planck (6,621034 Js). L’énergie requise par un électron pour passer du stade d’électron périphérique à celui d’électron libre est notée W. Ainsi L’énergie fournie par le photon doit être supérieur à W. On à donc : (h(c/ λ)) > W Soit : (h(c/ W)) > λ . Pour le silicium, λ doit être inférieur à 1 100nm afin que la lumière soit captée. On remarque donc que le silicium est sensible jusqu’à l’infrarouge proche, c’est pour cela qu’il est utilisé dans ce domaine ! Dans la pratique, l’absorption sera également limitée dans le domaine de l’ultraviolet à cause de l’écran créé par les électrodes de polarisation que nous voyons à présent. A) Electrodes de polarisation Les électrons ainsi éjectés par les photons sont maintenant dans un état d’électrons libres. Afin de les empêcher de regagner l’orbite d’un atome et ainsi perdre trace de toute lumière reçu, les électrons doivent être retenus dans un « coin » du photosite. Pour cela, on utilise des électrodes, isolé du silicium par une couche d’isolant. Pour résumer, nous avons une coupe de ce type : En récapitulant, les photons traversent les électrodes, puis l’isolant, avant de frapper le silicium. Des électrons sont éjecté grâce à l’énergie reçue sont instantanément attirés par les électrodes. La couche d’isolant est là pour les retenir. B) Le transfert des charges Les charges retenues par les électrodes sur chaque photosite ne peuvent être déchargées instantanément, sinon tous les électrons arriveraient dans un ordre chaotique et il serait impossible de recréer une image à partir de ceux-ci. Les capteurs possèdent plusieurs horloges qui régulent les décharges des électrodes pour transférer les électrons de photosite en photosite. Les charges sont déplacées lignes par lignes vers un dispositif de comptage disposé d’une « ligne de registre » et d’un étage de lecture : Ainsi lors de la capture d’une image le transfert vers l’étage de lecture se fait de cette manière : Remarque : Dans la pratique, les électrodes de chaque cellule photosensible permettent d’attirer et de repousser successivement les électrons : on déplace alors les électrons sans mélanger ceux des différents photosites : C) Les Filtres Pour le moment, les photosites ne sont capables de détecter que la présence de lumière et non sa couleur. On utilise pour cela un filtre de Bayer. Pour chaque pixel final, on a en fait 4 photosites chacun recouvert d’un filtre de couleurs. 2 verts, 1 bleue et 1 rouge. Car l’œil humain est deux fois plus sensible au vert qu’au rouge et au bleue. Ceci afin de respecter au mieux la sensibilité de l’œil humain. Un pixel est donc « composé » de 4 photosites ainsi disposés : A ce stade, nous avons donc vu comment la lumière est différenciée puis capturée par l’appareil photo numérique. Le signal analogique en sortie du capteur CCD passe par un convertisseur analogique/numérique, avant d’être compressé et stocké sur la carte mémoire de l’appareil. 3)Œil numérique En comparant, le fonctionnement de la rétine de l’œil humain et le capteur CCD d’un appareil photo numérique, on peut dire que leur fonctionnement est proche : - iris et diaphragme qui limitent l’intensité lumineuse pénétrante - cristallin-cornée et lentilles convergentes qui focalisent les rayons lumineux - système de cônes qui se rapproche du système de filtre de Bayer ( chaque structure capte un domaine de longueur d’onde ). Cependant, les photosites du capteur CCD ne sont sensibles qu’à une seule couleur alors qu’un cône absorbe aussi légèrement les autres couleurs : par exemple un cône M sera un peu excité lorsqu’il sera frapper par un rayon de couleur jaune. On peut tout de même admettre, que la sensibilité d’un capteur numérique serait suffisante pour une personne malvoyante, nous allons maintenant étudier les autres différentes contraintes. a) la taille En effet, il est impératif de créer un dispositif pouvant remplacer directement un œil biologique et donc de prendre sa place. En effet, il est difficile de faire tenir le contenu d'une caméra ultra perfectionnée dans une boule de 2,5 cm de diamètre soit 6,5 cm3 ce qui est extrêmement petit pour un appareil de haute précision b) la forme La rétine tapisse le fond de l’œil et a une forme courbe. Il est impossible de fabriquer un capteur de cette forme. La solution serait alors de mettre le capteur CCD au milieu du globe oculaire mais l’angle de vue serait modifié. De plus, la taille minimale d’un photosite est de 5 microns de coté. En plaçant le capteur au milieu de l’œil on pourrait donc utiliser un capteur de 19,6 millions de photosites, ce qui donnerait une image d’environ 4.9 mégapixels, ce qui est bien peu au regard des 125 millions de cellules photosensibles c) la rapidité Un capteur numérique actuel ne peut pas prendre des vues en rafale, en effet le transfert des charges vers l’étage de lecture nécessite un temps considérable. De plus, il faudrait transformer le signal électrique du capteur en signal nerveux, ce qui nécessiterait un convertisseur, qui amplifierait les problèmes soulevés avant mais aussi un problème de consommation d’énergie et de chaleur. d) la consommation d’énergie et la chaleur Ce dispositif necessiterait la mise en place d’un circuit électronique dont la chaleur dégagée par effet JOULE s’ajouterait à la température du corps humain et donc augmenterait l’effet de « bruit », ce qui nuirait à la qualité du fonctionnement du capteur CCD. De plus, un tel dispositif nécessiterait aussi une alimentation. Le choix de batteries pose à nouveau le problème de place. Et essayer de transformer une quelconque énergie corporelle en énergie électrique (nécessaire au circuit) parait bien trop complexe On peut imaginer un tel œil numérique ainsi : A travers le monde, des chercheurs tentent de vaincre ces contraintes et on assiste peu à peu à la réussite de leurs expériences qui peuvent faciliter la vie des malvoyants Ainsi, des chercheurs japonais ont testé un «oeil électronique», en fait une minuscule caméra ultra-perfectionnée, reconnaissant les bandes blanches des passages piétons et les feux de signalisation, qui pourrait à terme aider les aveugles à traverser aux carrefours. Les résultats de l'expérience sont publiés dans la revue Measurement Science and Technology datée de novembre 2004. Elaboré par l'Institut de technologie de Kyoto, le système pourrait un jour être amélioré pour permettre aux aveugles et malvoyants de se déplacer sans l'aide d'une canne ou d'un chien dressé, soulignent les chercheurs. De même, un Canadien qui avait perdu la vue dans un accident il y a près de 20 ans fait partie d'un groupe de personnes qui vont récupérer une partie de leur vision grâce à l'implantation d'yeux électroniques dans le cerveau. Les patients portent des lunettes spéciales équipées d'une caméra miniature et portent un micro-ordinateur et un stimulateur à la ceinture ou dans un sac. L'équipement est relié par un câble à un minuscule appareil situé dans le crâne et qui branche deux électrodes à la surface de la partie du cerveau qui commande la vue. Ou encore comme ce neurochirurgien portugais le Dr Joao Lobo Antunes, qui vient de rendre la vue à huit aveugles après leur avoir implanté un oeil électronique. Le dispositif consiste en une petite plaque de plastique munie de 16 électrodes qui est implantée dans le crâne afin de stimuler le cortex visuel. Une caméra miniature fixée sur les lunettes du patient retransmet les images à un petit ordinateur porté en bandoulière et relié par des électrodes au cortex. Quelques mois après l’intervention pratiquée dans un hôpital de Lisbonne, les patients parviennent à s’orienter dans l’espace tout seul et à distinguer les formes de personnes ou d’objets. Quatre d’entre eux perçoivent les couleurs. L’implant de l’œil ne peut toutefois être réalisé que sur des non-voyants qui ne sont pas aveugles de naissance ou dont le cortex visuel n’est pas endommagé. En conclusion, on peut dire que l’homme s’est inspiré du fonctionnement de l’œil afin de mettre au point les appareils photo numériques. Cependant, on peut affirmer qu’il n’a pas réussi à égaler les performances au niveau de la résolution, de la rapidité. Tout de même, ce progrès technologique peut s’appliquer au domaine médical et va permettre, dans les décennies futures, de rendre la vue aux personnes nonvoyantes, même si les problèmes restent nombreux, on peut penser que dans un avenir proche, les ingénieurs vaincront ces contraintes.