Efficient hand gesture recognition for human-robot interaction
Títol de la revista
ISSN de la revista
Títol del volum
Col·laborador
Tribunal avaluador
Realitzat a/amb
Tipus de document
Data publicació
Editor
Condicions d'accés
item.page.rightslicense
Publicacions relacionades
Datasets relacionats
Projecte CCD
Abstract
In this paper, we present an efficient and reliable deep-learning approach that allows users to communicate with robots via hand gesture recognition. Contrary to other works which use external devices such as gloves [1] or joysticks [2] to tele-operate robots, the proposed approach uses only visual information to recognize user's instructions that are encoded in a set of pre-defined hand gestures. Particularly, the method consists of two modules which work sequentially to extract 2D landmarks of hands –ie. joints positions– and to predict the hand gesture based on a temporal representation of them. The approach has been validated in a recent state-of-the-art dataset where it outperformed other methods that use multiple pre-processing steps such as optical flow and semantic segmentation. Our method achieves an accuracy of 87.5% and runs at 10 frames per second. Finally, we conducted real-life experiments with our IVO robot to validate the framework during the interaction process.
Descripció
Persones/entitats
Document relacionat
item.page.versionof
Citació
Ajut
Forma part
Dipòsit legal
ISBN
ISSN
Versió de l'editor
Altres identificadors
Referències
Col·leccions
ROBiri - Grup de Percepció i Manipulació Robotitzada de l'IRI - Articles de revista
Departament d'Enginyeria de Sistemes, Automàtica i Informàtica Industrial - Articles de revista
Doctorat en Automàtica, Robòtica i Visió - Articles de revista
VIS - Visió Artificial i Sistemes Intel·ligents - Articles de revista
RAIG - Mobile Robotics and Artificial Intelligence Group - Articles de revista