21 Déc Des robots capables de lire nos émotions : menace ou révolution ?
« Pepper comprend nos principales émotions : la joie, la tristesse, l’énervement, la surprise, la neutralité. Il peut déterminer le sexe et l’âge d’une personne […] et suivre 70 % d’une conversation. En analysant nos expressions faciales, notre vocabulaire et notre langage corporel, il devine dans quelle humeur vous êtes pour adapter son comportement » annonce Bruno Maisonnier, président de la start-up française Aldebaran à l’origine de ce robot intelligent.
Semblant tout droit sorti d’un film de science-fiction, Pepper serait ainsi capable de lire et d’interpréter en temps réel nos émotions pour mieux interagir avec ses utilisateurs. A la façon d’un humain.
« Si vous froncez vos sourcils, il comprend que quelque chose vous tracasse et peut par exemple vous remonter le moral en jouant un morceau que vous aimez » ajoute le président d’Aldebaran.
Assistons-nous au début d’une véritable révolution technologique comparable à la naissance du PC ? C’est en tout cas ce que pense Masayoshi Son, PDG de Softbank, opérateur mobile japonais et principal actionnaire d’Aldebaran depuis 2012. Pour encourager la diffusion de Pepper dans les foyers, SoftBank prévoit d’ailleurs une commercialisation de Pepper au prix de seulement 1400 euros. Les premiers exemplaires seront mis en vente dès fin février au Japon.
Surpasser les capacités humaines ?
Conçu avec un visage, une taille et une force d’enfant pour paraître le plus bienveillant possible, Pepper (et ses concurrents à venir) soulèvent malgré tout certaines interrogations.
S’il est aujourd’hui, d’après ces concepteurs mêmes, loin d’être parfait, Pepper va progressivement améliorer sa capacité à détecter nos émotions. Même les plus intimes.
Depuis les années 1970 et notamment les travaux du psychologue Paul Ekman, on sait en effet « coder » toutes les expressions du visage humain grâce à un système appelé le « Facial Action Coding System » (ou F.A.C.S). Othello fait d’ailleurs partie des rares groupes ayant des experts certifiés au codage F.A.C.S (pour voir un exemple de codage F.A.C.S de Martin Luther King, cliquez sur ce lien).
Ce système a ainsi permis de déterminer le nombre de mimiques différentes que sont capables de produire nos 43 muscles faciaux. Il y en a 10 000, et si la plupart sont des grimaces, 3000 combinaisons ont en revanche un sens. Et la plupart des gens ne sont capables d’en distinguer qu’une infime partie.
Les logiciels et robots du futur feront-ils mieux ? Si la poignée d’entreprises qui se sont lancées dans la reconnaissance automatique des émotions savent toutes plus ou moins bien identifier les principales expressions faciales, leurs performances sont encore loin d’égaler celle des experts humains. Les machines font souvent preuve d’une incapacité à détecter les émotions sur des visages ne leur faisant pas directement face, ou sur des visages mal éclairés. Il peut aussi s’agir tout simplement d’une divergence entre codages automatiques et codages manuels de référence. Autant d’exemples d’imperfections que nombre de logiciels récents possèdent encore. A ce stade.
Qu’en sera-t-il lorsque ces logiciels atteindront – voire surpasseront – les capacités humaines ?
Certains logiciels proposent déjà des analyses des « micro-expressions » d’émotions, qui sont des expressions de moins d’une seconde sur le visage. Et certains marketeurs se voient déjà sonder dans les rayons des magasins l’appétence des consommateurs pour tel ou tel produit…sans même avoir à les interroger.
Crédit photo : Jill Giardino