Retour à l'accueil
   
 
General presentation
 
 
Scientific Committee
 
 
Credits
 
 
Conference proceedings
 
 
Conference archives
 

74 - Haciahmetoglu, Y, Quek, F (Blacksburg)

Session : Prosody 2

74 - Haciahmetoglu, Y, Quek, F (Blacksburg) : “Repackaging Multimodal Communicative Behavior Across Multiple Discourse Configurations”

jeudi 16 juin- 18h00-18h30
(Salle F08)


-  Haciahmetoglu, Yonca
-  Quek, Francis

Virginia Polytechnic Institute and State University, Blacksburg

Repackaging Multimodal Communicative Behavior Across Multiple Discourse Configurations

The synchrony of gesture strokes and speech intonational phrases is a cornerstone to most models of multimodal communicative behavior. We present an animated avatar that tests the proposition that this temporal multimodal packaging is preserved across communication confi gurations (speaking while pointing into a tablet computer or speaking in front of a projection screen). We show that we can repackage the communication streams to produce believable embodied multimodal behavior using tablet-based behavior and speech as the input package. Our system is a distance tutoring/ presentation avatar. In the highly spatial and contextually rich tutor-student interaction, a key to facilitating learning is to provide a sense of situatedness between tutor and student. We employ a strategy of spatial and temporal binding where elements of space and time are attached to generate behavior. Behavior specifi cation is produced by interpreting pen gestures into a tablet-based poster. By binding gestural intent with appropriate template, the system generates multimodal behavior. Temporal situatedness is preserved by binding the execution time activity with the relative timing of the pen activity, whereas spatial situatedness is preserved by binding gestural behavior trajectories/locations with interlocutor behavior detected by a camera and the spatial con- fi guration of the avatar space. We present results of our usability experiments to show the effi cacy and applicability of this system.


La synchronisation de la gestuelle et de l’intonation orale est un aspect essentiel de la plupart des modèles du comportement multi mode de la communication. Nous vous présentons un avatar (humain virtuel) animé, qui examine la proposition que cette relation multimode temporelle est préservée à travers des confi gurations de communication (parlant tout en se dirigeant vers un tablette PC ou parlant devant un écran de projection). Nous illustrons que nous pouvons réorganiser les attitudes de la communication pour produire un comportement exprimé en plusieurs modes qui est crédible, en utilisant le comportement vis-à-vis de la tablette et le discours comme données initiales. Notre système est un avatar sur la distance du tutorat/présentation. Dans les interactions grassement riches en espaces et en contextes entre le tuteur et l’étudiant, une solution pour faciliter l’apprentissage est de fournir un sens à la situation entre les deux patries. Nous utilisons une stratégie reliant l’espace et le temps où leurs éléments respectifs sont unis pour générer le comportement. L’exactitude du comportement est fournie en interprétant l’écriture sur une affi che de la tablette de base. En reliant l’intention gestuelle avec le modèle approprié, le système produit un comportement multi mode. L’attitude temporelle est préservée en reliant l’activité du temps d’exécution avec la synchronisation relative de l’activité de stylo, tandis que l’attitude spatiale est préservée en reliant les trajectoires/localisations du comportement gestuel avec le comportement de l’interlocuteur, détecté par un appareil photo, et la confi guration spatiale de l’espace de l’avatar. Nous présentons ainsi les résultats de nos expériences pour montrer l’effi cacité et l’applicabilité de ce système.