Read Time:1 Minute, 7 Second

Edgar (Expressions Display and Gesturing Avatar Robot) est un concept de robot intéressant et innovant au niveau des méthodes utilisées pour son mode d’interaction avec son environnement.

En développement depuis plusieurs années à Singapour, il a utilisé une idée qui avait été exploitée une première fois par les jeux vidéo, et vue dans un robot acteur dans une pièce de théâtre Socibot. Pour certains créateurs de robots, les expressions faciales d’un robot doivent s’approcher le plus possible de celles d’un humain, mais avec un inconvénient, comme on a pu le constater à plusieurs reprises, celui de se perdre dans la vallée de l’étrange.

La méthode utilisée par l’équipe du roboticien Wong Choon Yue et de sa femme Pang Wee Ching, a été de projeter la vidéo du visage du sujet de l’avatar robotisé sur la tête du robot au visage neutre en plastique. Ainsi en plus des mouvements des bras, les expressions faciales sont synchronisées et paraissent plus naturelles.

Depuis la première version du robot Edgar, la méthode semble avoir été abandonnée, avec Edgar 2.0 sur lequel on ne retrouve plus cette technologie au profit d’un visage neutre percé simplement à l’emplacement des yeux et de la bouche, cela permettra sans doute des usages plus variés que celui d’avatar robotisé.

Deux concepts de robot avatar
0 0
Happy
Happy
0 %
Sad
Sad
0 %
Excited
Excited
0 %
Sleppy
Sleppy
0 %
Angry
Angry
0 %
Surprise
Surprise
0 %
Partagez cet article

One thought on “Edgar le robot avatar

  1. Bon, comment produisons des expressions faciales? Nous plions ou tendons certaines parties de la peau de notre visage à contractant ou allongeant les muscles faciaux qui y sont fixés, lesquels utilisent comme point d’appui les os du cranes.

    Du point de vue physique, pour permettre à un robot de reproduire une expression humaine, il faut donc:
    -l’équivalent artificiel d’un crane humain
    -des fibres musculaires artificielles
    -de la peau artificielle reproduisant

    Ne disposons-nous pas déjà de ces éléments?

    Un drone humanoïde de téléprésence pourrait reproduire les expressions d’un utilisateur pour peu qu’il soit doté d’un système capable de détecter les mouvements du visage et de le reproduire en temps réel à l’aide du visage artificiel.

    C’est là qu’il faut se souvenir que recherches sont conduites par la DARPA et les géants du numérique en matière d’interface esprit/machine, les interfaces qui détecteront les “pensées” (impulsions nerveuses) et les traduiront en ordre pour les drones. On peut évidemment se demander quelles perspectives ouvriraient une percée technologique dans ce domaine.

    Imaginons que l’on développe un robot humanoïde rigide/mou doté d’une mobilité et de capacité de préhension justifiant leur déploiement. On peut envisager que des robots puissent opérer tantôt de mode autonome, tantôt en mode drone de téléprésence, à la façon des drones militaires télésupervisés. Le robot pourrait être envoyer là où il pourra se rendre utile en mode autonome et servir de drone de téléprésence une fois arrivé à destination. Rien n’interdit non plus qu’il accomplisse certaines tâches en mode autonome.

    Un utilisation parmi d’autre, serait la police de proximité. Les différentes zones à charge d’un commissariat seraient patrouillées en permanence par des robots opérant seul ou en binôme, à pied ou monté sur un EDP (ex: un gyropode portatif sans guidon ou des rollers électriques alimenté(s) par la batterie du robot). Quand le robot perçoit quelque chose de suspect ou quand un système expert policier perçoit quelque chose de suspect à proximité d’un robot, celui-ci contacte un opérateur qui lui donne les instructions appropriés ou en prend le contrôle pour intervenir par son entremise.

    Dans le même ordre d’idée, les pompiers et ambulanciers pourraient envoyer des robots de ce type ratissée une zone dangereuse à la recherche d’individu en difficulté et s’en servir pour secourir les sinistrés sans s’exposer.

    Rien n’interdirait d’employer une même type de robot humanoïde polyvalent pour ces différentes fonctions. On peut s’attendre à ce que dans le futur, l’économie de fonctionnalité connaissent un boom robotique en louant des voitures autonomes et drones humanoïdes. Ceci permettrait, en outre, de prévenir l’application catastrophique de logique d’obsolescence programmée à ces secteurs.

    Il n’est pas impossible que certains gouvernements convertissent les masses désœuvrées par l’automatisation en un “pronétariat” affecté à la vidéo ou robot-surveillance, même de téléopération pour les cas les plus simple, en renfort des travailleurs qualifiés. Ceux-ci, peu nombreux, ne seront pas forcément en mesure de réagir à chaque alerte dans des délais acceptables.

Laisser un commentaire

Votre adresse de messagerie ne sera pas publiée. Les champs obligatoires sont indiqués avec *