Elaborer des commandes gestuelles interactives produites au doigt ou à l’aide d’un stylo numérique sur des écrans sensitifs de tous types.

L’objectif de ce projet est d’élaborer des commandes gestuelles interactives produites au doigt ou à l’aide d’un stylo numérique sur des écrans sensitifs de tous types. Ce nouveau mode d’interaction a pour objectif d’offrir à l’utilisateur la possibilité de définir par un geste graphique à la fois, le type de commande qu’il veut faire, la zone ciblée par la commande et ses paramètres. La définition, la modélisation et l’interprétation de ces gestes graphiques manuscrits est aujourd’hui un véritable challenge si l’on vise les objectifs suivants : intégrer une grande famille de geste au sein d’une même application, permettre à l’utilisateur de choisir et configurer ses gestes de commandes, rendre le moteur de reconnaissance de geste auto-évolutif pour s’adapter à l’utilisateur courant (notion d’apprentissage incrémental). Pour aboutir à l’élaboration de ces commandes gestuelles interactives, il est nécessaire de placer l’utilisateur au centre du processus de développement en mettant en œuvre une série de tests d’usage au sein de l’appartement LOUSTIC.

Partenaires académiques