Le MIT (Massachussets Institute of Technology) avait déjà en 2018 de quoi nous en mettre plein la vue. Le laboratoire CSAIL (Computer Science and Artificial Intelligence Laboratory) s’était déjà concentré sur l’usage des ondes cérébrales et des mouvements des bras pour contrôler un robot à distance. Les gestes permettaient de diriger les actions et les ondes cérébrales de signaler une erreur au robot. Le système reposait sur un genre de bonnet mesurant l’activité électrique du cerveau appelé EEG cap, EEG pour ElectroEncéphaloGraphie, et un genre de brassard utilisant l’EMG, l’électromyographie, une interface mesurant l’activité musculaire.

Depuis, le CSAIL s’est concentré de façon isolée sur le système reposant sur l’activité musculaire, améliorant l’interaction entre l’humain et le robot, et créant ainsi Conduct-A-Bot.

La télécommande, c’est révolu !

Comme dans leur outil précédent, le CSAIL a mis au point un genre de brassard détectant diverses informations émanant du bras. Il détecte les gestes, allant de droite à gauche, mais aussi les contractions musculaires.

Par exemple, dans la simulation de la vidéo du laboratoire, différentes actions musculaires correspondent à différentes réactions du robot :

  • la contraction du haut du bras, des biceps et des triceps donc, indique au robot de s’arrêter ;
  • un geste vers la gauche ou la droite, vers le bas ou le haut, mesuré par un accéléromètre, indique au robot la direction à prendre ;
  • serrer le poing, en contractant l’avant-bras, permet de faire avancer le robot ;
  • une rotation du bras dans le sens des aiguilles d’une montre permet de faire tourner le robot.

Le robot détecte les mouvements musculaires grâce à des capteurs intégrés au brassard et sur le bras de l’utilisateur.

Pour l’équipe de scientifiques, il y a la volonté de faciliter l’usage des robots pour l’Humain et le quidam. « We envision a world in which machines […] adapt to people rather than the other way around » (« nous imaginons un monde où les machines s’adaptent aux gens et non le contraire »), explique la professeure Daniela Rus, directrice du CSAIL. Le Conduct-A-Bot n’est constitué que de deux ou trois capteurs, ne nécessitant pas de la part de l’utilisateur une quelconque prise en main ou programmation, ni une infrastructure volumineuse ou compliquée. À travers le développement de cet outil, c’est la volonté de rendre l’usage des robots plus intuitif.

Chef d’orchestre robotique

En observant la scène, on imagine aisément les usages possibles d’un tel outil. Dans le domaine du travail, les possibilités sont multiples. Cela permettrait de naviguer dans des menus sur des appareils électriques. On pourrait soulever des charges à distance ou dans un environnement dangereux en toute sécurité. Il serait ainsi possible de superviser les robots de façon plus intuitive ; on imagine un enchaînement chorégraphique exécuté par un superviseur dans un entrepôt suivi du balai des robots appliquant les ordres reçus.

Et dans le contexte actuel de l’épidémie de Covid-19, difficile de ne pas voir le potentiel d’un tel processus dans la sécurité et la santé. La possibilité de ne pas toucher un collègue ni un objet directement, réduisant la possibilité de le contaminer. Il serait aussi possible de détecter des problèmes potentiels musculaires selon les métiers, et de prévenir des blessures lors du port de charges trop conséquentes, une donnée qu’il était difficile d’acquérir jusque-là uniquement par l’analyse visuelle.

Lire aussi : Intelligence Artificielle, cet abus de langage ?

Outre une amélioration dans le domaine de l’IHM (Interaction Humain-Machine), permettant une meilleure compréhension des commandes données par l’humain, elle ouvre un champ d’interprétation plus poussé de l’humain lui-même, et notamment la communication non verbale, qui comprend généralement les réactions de nos visages, ainsi que notre langage corporel. En améliorant ainsi l’analyse et l’identification des gestes humains, on fournit des clés plus précises aux robots pour nous comprendre.

On peut aussi imaginer que cela permette à des personnes ayant des difficultés à appréhender le langage non verbal de pouvoir l’apprendre. Cela pourrait servir à des personnes neuro-atypiques, ou encore lors de l’acquisition de soft skills dans le domaine professionnel ou relationnel.

Vers l’émancipation des robots ?

Pas de panique, le soulèvement des machines n’est pas pour maintenant. Même si de tels outils soulèvent nécessairement des questions d’éthique. En effet, comme pour l’affective computing, on peut se demander si un outil permettant d’analyser le langage non verbal ne serait pas une atteinte à nos libertés.

Lire aussi : Affectif computing, quand l’intelligence artificielle devient émotionnelle

Dans un premier temps, il serait donc difficile, voire impossible de cacher des choses. Le langage corporel est, en effet, souvent non conscient, allocutions politiques non comprises, il va sans dire. Dans un deuxième temps, couplé à un usage de caméra ou de surveillance, il pourrait former un outil de contrôle, voire de répression. Il pourrait même poser la question des intentions de chacun, façon Minority Report.

Parallèlement, nul doute qu’un pareil outil a un potentiel pour un usage militaire. Plus de distanciation permettrait plus de sécurité dans certaines opérations, mais aussi plus de distanciation psychologique. Quid donc d’une déshumanisation de cibles humaines ?

On est loin de la révolte de Skynet, le robot n’étant qu’un catalyseur. Comme dans Le Magicien d’Oz, c’est de l’homme derrière le rideau qu’il faut avoir peur, car c’est l’Homme derrière le robot qui est aux commandes. « l’Homme reste un loup pour l’Homme », l’adage est toujours d’actualité.

 

L’usage de la technologie se complexifie toujours plus. Elle file, souvent plus vite que nos capacités cognitives. Alors que l’obsolescence des connaissances semble annoncer une vie d’apprentissage constant, le cerveau humain sera-t-il à la hauteur ? L’équipe du laboratoire du CSAIL souhaite aplanir les obstacles entre l’humain et le robot. Elle veut créer une interaction plus intuitive et, qui sait, plus ludique. À l’heure où la pandémie sévit, difficile de ne pas voir une bénédiction dans un outil simplifié et permettant le respect des distances. La créativité humaine redonne donc de l’espoir. Mais, attention, comme pour tout outil, la responsabilité est dans les mains de celui qui le tient.

Gwendoline WEBER
Gwendoline WEBER
Ménestrelle numérique
Oscillant entre galéjades giffesques, modération bienveillante, veille im-pertinente, haikus récréatifs et designs amuse-oeil. VENI VIDI SHARED