Retrouvez Planète Robots en
version numérique sur :

Des LiDAR dans nos smartphones

Des LiDAR dans nos smartphones
0 0
Read Time:3 Minute, 36 Second

Des chercheurs de l’Université de Stanford ont découvert une nouvelle approche qui permet aux capteurs d’image standard de voir la lumière en trois dimensions. Autrement dit, ces caméras courantes pourraient bientôt mesurer les distances et la profondeur, pour un champ d’application allant des smartphones aux voitures autonomes.

Le LiDAR, un outil puissant mais volumineux

Les capteurs d’image standard, dont ceux de nos smartphones, capturent l’intensité et la couleur de la lumière. S’appuyant sur une technologie de capteur courante et prête à l’emploi – connue sous le nom de CMOS – ces caméras sont devenues plus petites et plus puissantes d’année en année et offrent désormais une résolution de dizaines de mégapixels. Mais ils n’ont encore vue qu’en deux dimensions, capturant des images plates, comme un dessin. Du moins, jusqu’à présent.

Mesurer la distance entre les objets avec de la lumière n’est actuellement possible qu’avec des systèmes LiDAR spécialisés et coûteux. Le LiDAR (“light detection and ranging”) est comme un radar, mais se repérant via la lumière au lieu d’ondes radio. En faisant rayonner un laser sur des objets et en mesurant la lumière qui rebondit, il peut détecter à quelle distance se trouve un objet, à quelle vitesse il se déplace, s’il se rapproche ou s’éloigne et, plus important encore, il peut calculer si les trajectoires de deux objets se déplaçant se croiseront à un moment donné dans le futur.

Or, comme indique Okan Atalar, doctorant en génie électrique à Stanford  et premier auteur de l’étude, parue dans Nature Communications, “les systèmes LiDAR existants sont gros et volumineux. Si l’on veut un jour intégrer des capacités LiDAR dans des millions de drones autonomes ou dans des véhicules robotiques légers, il faudra qu’ils soient très petits, très économes en énergie et qu’ils offrent de hautes performances”.

Changer la façon dont les machines voient leur environnement

La solution proposée par l’équipe de Stanford, en collaboration avec le Laboratoire pour les systèmes nano-quantiques intégrés (LINQS) et ArbabianLab, repose sur un phénomène connu sous le nom de résonance acoustique. L’équipe a construit un modulateur acoustique simple à l’aide d’une fine plaquette de niobate de lithium. Ce cristal transparent très recherché pour ses propriétés électriques, acoustiques et optiques étant recouvert de deux électrodes transparentes.

“La géométrie des plaquettes et des électrodes définit la fréquence de modulation de la lumière. Ce qui nous permet d’en affiner la fréquence”, explique Okan Atalar. “Changez la géométrie et vous changez la fréquence de modulation.”

En termes techniques, l’effet piézoélectrique crée une onde acoustique à travers le cristal qui fait tourner la polarisation de la lumière de manière déterminée. C’est cet élément technique clé qui a permis le succès de l’étude. Ensuite, un filtre polarisant est soigneusement placé après le modulateur qui convertit cette rotation en modulation d’intensité. Il rend la lumière plus lumineuse ou plus sombre – allumant puis éteignant celle-ci des millions de fois par seconde.

De la voiture autonome aux smartphones

La conception du modulateur se veut simple et s’intègre dans un système qui utilise des caméras standard. Identiques à celles que l’on trouve dans les téléphones portables et les reflex numériques du quotidien. Okan Atalar indique qu’il pourrait devenir la base d’un nouveau type de LiDAR compact, peu coûteux et économe en énergie. Baptisé “LiDAR CMOS standard”, il pourrait se retrouver dans les drones, les rovers envoyés dans l’espace et d’autres applications.

Pour les ingénieurs, cette avancée offre deux grandes opportunités. Premièrement, elle pourrait activer le LiDAR à résolution mégapixel – un seuil impossible aujourd’hui. Une résolution plus élevée permettrait ainsi au LiDAR d’identifier des cibles à une plus grande distance. Une voiture autonome, par exemple, pourrait être en mesure de distinguer un piéton de plus loin – et donc plus tôt ; ce qui permettrait au véhicule d’éviter plus facilement les accidents. Deuxièmement, n’importe quel capteur d’image disponible aujourd’hui, y compris les smartphones actuels, pourrait capturer des images 3D avec des ajouts matériels minimes.

Mieux encore, avec des améliorations supplémentaires, le professeur Atalar affirme que l’équipe a depuis encore réduit la consommation d’énergie d’au moins 10 fois le seuil déjà bas indiqué dans l’article, et ils pensent qu’une réduction d’énergie plusieurs centaines de fois supérieure est à portée de main. Si cela se produit, un avenir de LiDAR à petite échelle avec des capteurs d’image standard pourrait devenir une réalité.

© Stanford University

Happy
Happy
100 %
Sad
Sad
0 %
Excited
Excited
0 %
Sleepy
Sleepy
0 %
Angry
Angry
0 %
Surprise
Surprise
0 %
Partagez cet article

Antoine Fabre