dans

[Vidéo] Interaction homme-machine : Google développe un nouveau langage non verbal

Google développe un nouveau langage d'interaction non verbal

Des chercheurs de Google présentent leur nouveau langage d’interaction homme-machine non verbal.

Déjà présente dans certains produits de Google, cette technologie pourrait rendre les machines plus intuitives. Entre autres, elle leur permet de comprendre les signaux non verbaux pour identifier les intentions des utilisateurs. Par ailleurs, cela se présente comme un pas en avant pour la transition vers une ambient intelligence.

« Dans le laboratoire avec Google ATAP »

Dans une nouvelle série de vidéos intitulée In the lab with Google ATAP, une équipe de chercheurs de Google présente un aperçu de leur nouveau langage d’interaction. Cette initiative de recherche consiste à rendre les machines plus intuitives et perceptives des intentions de ses utilisateurs en tenant compte des signaux non verbaux. Pour cela, les chercheurs utilisent le capteur radar Soli de l’entreprise.

Comme exemple d’utilisation de Soli, nous pouvons citer la fonctionnalité Motion Sense du Pixel 4. Elle permet de répéter une alarme ou de sauter une chanson par un simple mouvement de main.

Le projet ATAP (Advanced Technology and Projects) vise donc à développer cette approche basée sur le langage d’interaction non verbal pour d’autres appareils d’ambient computing.

Plus de détails sur le nouveau langage d’interaction de Google

L’utilisation de Soli a donc permis de détecter la proximité, la direction et les trajectoires des gens autour de l’appareil. Le système analyse un ensemble de mouvements qui permettront par la suite de déclencher les commandes sur les appareils intelligents. Les chercheurs de Google appellent ces mouvements « Approach », « Glance », « Turn » et « Pass ».

Pour le premier point, le fait de se rapprocher d’un appareil permet donc de faire apparaître les informations. La proximité fera également apparaître des commandes tactiles avec une police qui grandira à mesure que l’utilisateur s’éloigne. Le second mouvement correspond au regard et permet, selon les chercheurs, de comprendre où se trouve l’attention d’une personne qui utilise plusieurs appareils.

La troisième fonction signifie tourner. Pour faire simple, le fait de se tourner vers l’appareil ou de s’éloigner lui permet d’automatiser les tâches répétitives. Enfin, l’action de passer (pass) indique à l’appareil que l’utilisateur n’est pas prêt à s’engager.

Les chercheurs de Google ont aussi combiné quelques-uns de ces mouvements pour former un autre type de langage d’interaction. Ils soulignent que les travaux ne se concentrent pas sur l’intégration dans des produits en particulier. En d’autres termes, la série de vidéo a pour principal objectif de donner un aperçu de leurs travaux.

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée.