Jeudi 12 septembre a été l’occasion d’assister à un séminaire du LPNC, Laboratoire de Psychologie et Neurocognition de Grenoble, sur le sujet passionnant des robots sociaux et de l’apprentissage développemental.

Le rapport avec AMASAI ? Il s’agit d’une application innovante de l’intelligence artificielle et du machine learning, qui peut être utile au grand public comme aux entreprises, notamment dans les domaines de la communication et du marketing. En revanche, il n’est pas vraiment question de data science ici, et vous allez comprendre pourquoi (un indice : apprentissage développemental).

Que sont les robots sociaux ?

Un robot est dit “social” lorsqu’il est capable d’interagir avec un utilisateur, dans un environnement non contrôlé, de la façon la plus naturelle possible. 

Du point de vue de la recherche, une petite vidéo du CNRS pour se mettre dans le bain : 

(Notez que cette vidéo a été tournée au GIPSA Lab de Grenoble !)

L’intervenante du jour, Amélie Cordier, a certes été chercheuse pendant 13 ans au LIRIS, Laboratoire d’Informatique en Image et Systèmes d’Information, au CNRS. Mais aujourd’hui, c’est en tant que Chief Scientific Officer de la société Hoomano qu’elle s’adresse à nous.

Hoomano est une entreprise qui développe des solutions logicielles pour les robots sociaux. Les objectifs de ces robots sont généralement d’informer et de divertir le public. Par exemple, le robot Pepper de SoftBank Robotics, que l’on retrouve fréquemment sur les Salons ou dans des magasins, sert à orienter le public, tout en contribuant à l’image de l’entreprise qui l’emploie. C’est Hoomano qui en développe les solutions logicielles. 

Plutôt que de vous partager une vidéo de présentation de l’entreprise, j’ai préféré cette “interview” de Pepper par le magazine TechInsider, qui rend mieux compte de “l’expérience” de s’adresser à un robot social :

Les robots sociaux sont donc, dès à présent, utilisés dans le domaine de la communication et du marketing B2C, à la pointe de l’innovation. Vendu au prix de 20 000 € pour les entreprises, Pepper a déjà été adopté par de nombreuses enseignes au Japon, en Europe, aux États-Unis… On a aussi vu Pepper aux Electric Days2018, l’événement dédié à l’innovation du groupe EDF.  Et ce n’est que le début ! 

Comme le dit Pepper : “La seule chose que je ne suis pas, c’est un produit fini”

On le voit bien dans la vidéo TechInsider : la conversation avec un robot humanoïde est encore loin d’être totalement fluide et la recherche est en ébullition… Ce qui explique la présence d’une scientifique comme A. Cordier chez une startup. 

Afin de réaliser des interfaces plus “naturelles” avec l’humain, la recherche porte sur les nouvelles interfaces (hors clavier : interface vocale, display intelligent…), l’intelligence émotionnelle, l’évaluation de l’empathie perçue du robot, les interactions long terme, la perception multimodale. Mais on peut aussi se poser la question suivante qui est plus fondamentale : pour être la plus naturelle possible, l’interaction avec un robot social doit-elle se calquer sur l’interaction entre humains, ou au contraire, doit-on imaginer de nouvelles formes d’interaction ? L’utilisation de robots sociaux permet de recueillir les impressions des utilisateurs afin d’imaginer ces nouvelles interactions avec les robots de demain. 

Robots sociaux et Intelligence Artificielle Développementale

Plus particulièrement, la recherche s’intéresse aux algorithmes d’IA dans lequel la motivation première est d’apprendre à partir des interactions avec l’environnement (et non à partir de jeux de données). On parle alors d’IAD, pour IA développementale. Elle se calque sur le développement du nourrisson qui, en interagissant avec son environnement, en apprend progressivement les règles de fonctionnement. L’algorithme, le robot sont donc dotés de capacités d’interaction qui lui permettent de faire des hypothèses, puis de les mettre à l’épreuve dans leur environnement afin de les valider ou de les amender. 

Une vidéo pour mieux se rendre compte : 

L’IAD se différencie de l’apprentissage par renforcement en raison de la représentation de la valence (1), qui n’est pas prédéterminée : à quel moment et sur quelle durée la mesure-t-on ? comment récupérer une valence pertinente sur l’interaction que l’on vient d’effectuer ? La détermination de la valence est un des enjeux de la recherche sur l’IAD. 

Cette approche IAD présente l’intérêt d’être frugale en data : contrairement à un algorithme de machine learning classique, il n’y a pas de data set à fournir. Il faut mettre le robot en situation. Néanmoins, elle présente l’inconvénient d’être difficilement évaluable. En effet, l’efficacité d’un algorithme peut en principe être jaugée par sa capacité à atteindre un objectif. Or, dans le cas d’IAD, il n’y a pas d’objectif à l’apprentissage, autre que l’apprentissage lui-même. 

Pour ces raisons, un usage intéressant de l’IAD serait de contribuer à un algorithme constitué de différentes fonctions, pour la fonction apprentissage. 

Ça vous a plus ? Vous souhaitez creuser le sujet de l’apprentissage développemental ? A. Cordier a mis sur son site LIRIS un support de cours en accès libre (licence CreativeCommons). 

(1) On parle ici de valence au sens psychologique du terme : il s’agit de déterminer comment on peut savoir qu’une expérience réalisée a un résultat positif ou négatif. Pour le robot social : l’interaction robot-humain a-t-elle été agréable à ce dernier ? Que mesurer ? Pendant combien de temps avant/après l’interaction ? etc. 

About Author

Related posts

Laisser un commentaire