IHM multimodales au sein des voitures connectées


Projet en partenariat avec le groupe Visteon.

Demain, les véhicules connectés induirons de nouveaux usages. Ces usages doivent être formalisés, afin que le conducteur puisse mieux les comprendre.

Avec un ADAS (Systèmes d’assistance au conducteur avancée), les voitures seront équipées de capacités d’analyse avancées de l’environnement extérieur et de la communication ce qui conduira à de nouveaux types d’interactions. Ces interactions étant plus nombreuses, la transmission d’informations ne se fera pas uniquement via des écrans, mais seront optimisées par la prolifération des modalités sensorielles. Pour aider à une compréhension plus rapide – afin de fournir plus de sécurité – de nouvelles informations transmises par le véhicule seront utilisées : sons spatialisés et icônes graphiques.

Les sons, après une courte période d’apprentissage, auront un impact sur le temps de réponse de la part du conducteur. Cela se fait en touchant le cerveau primitif et à sa capacité intrinsèque à avoir une réponse plus rapide par un stimulus sonore.

Pour fournir des informations complexes, le son, par sa qualité et sa texture, fournit un premier niveau d’information fondée sur le sens de l’alerte. Le mouvement du son dans l’espace permet une information « de localisation ». Ainsi, un «avertissement des piétons» ou un «l’angle mort » sera facilement reconnaissable et pertinent si le son a un déplacement lié à la nature du danger potentiel.

En outre, en travaillant sur un vocabulaire sonore simplifié basé sur les sons élémentaires (un géon sonore), nous pouvons déterminer un langage compréhensible. Ce langage peut ensuite être personnalisé – en particulier en terme de textures – corréler les aspects ergonomiques (de direction et la nature de l’alerte), les aspects du design et de la marque.