TRR 318 - Verstehensprozess einer Erklärung beobachten und auswerten (Teilprojekt A02)

Überblick

Der Vorstellung von Interaktion als zwischenmenschliche Verhaltensmuster folgend, liegt der Fokus des Projekts A02 auf dem Prozess des Verstehens. Durch das Zusammenführen von Expertise aus Bereichen, die sich mit Multimodalität befassen, ist der Ansatz dieses Projekts, verschiedene Ebenen des (Nicht-)Verstehens zu identifizieren und damit zur Implementierung eines engmaschigen „Monitoring“-Prozesses beizutragen. Diese Implementierung wird ein System hervorbringen, das in der Lage ist, reichhaltige multimodale Signale zu nutzen, um das Verständnis des Benutzers innerhalb eines Erklärprozesses zu unterstützen.

Wenn Menschen etwas erklärt bekommen, signalisieren sie ihr Verstehen oder Nicht-Verstehen zum einen mit verbalen Äußerungen und zum anderen mit nichtverbalen Kommunikationsmitteln, wie beispielsweise Gestik und Mimik. Wer nickt, kann der erklärenden Person verdeutlichen, dass er*sie verstanden hat. Das Nicken kann aber ebenfalls als Aufforderung gemeint sein, mit einer Erklärung fortzufahren, und ist im Kontext des Gesprächs einzuschätzen. Die Linguist*innen und Computerlinguist*innen untersuchen im Projekt A02, wie Personen – und zukünftig Maschinen – beim Erklären erkennen, dass ihre Gesprächspartner*innen sie verstehen oder nicht verstehen. Dafür betrachtet das Forschungsteam 80 Dialoge, in denen eine Person einer anderen ein Gesellschaftsspiel erklärt. Diese untersuchen die Wissenschaftler*innen auf kommunikative Feedbacksignale, die auf verschiedene Grade des Verstehensprozesses hindeuten. Die Ergebnisse aus den Analysen fließen in ein intelligentes System ein, das in der Lage sein soll, Feedbacksignale wie Kopfnicken zu erfassen und bezüglich des signalisierten Verstehens zu interpretieren.

Key Facts

Grant Number:
438445824
Art des Projektes:
Forschung
Laufzeit:
07/2021 - 06/2025
Gefördert durch:
DFG
Website:
Homepage

Detailinformationen

Projektleitung

contact-box image

Dr. Angela Grimminger

Germanistische und Allgemeine Sprachwissenschaft

Zur Person
contact-box image

Hendrik Buschmeier

Universität Bielefeld

Zur Person (Orcid.org)
contact-box image

Petra Wagner

Universität Bielefeld

Zur Person (Orcid.org)

Projektmitglieder

contact-box image

Stefan Lazarov, M.A.

Sonderforschungsbereich Transregio 318

Zur Person
contact-box image

Olcay Türk

Universität Bielefeld

Zur Person (Orcid.org)
contact-box image

Yu Wang

Universität Bielefeld

Kooperationspartner

Universität Bielefeld

Kooperationspartner

Publikationen

How much does nonverbal communication conform to entropy rate constancy?: A case study on listener gaze in interaction
Y. Wang, Y. Xu, G. Skantze, H. Buschmeier, in: Findings of the Association for Computational Linguistics ACL 2024, Bangkok, Thailand, 2024, pp. 3533–3545.
Turn-taking dynamics across different phases of explanatory dialogues
P. Wagner, M. Włodarczak, H. Buschmeier, O. Türk, E. Gilmartin, in: Proceedings of the 28th Workshop on the Semantics and Pragmatics of Dialogue, Trento, Italy, 2024, pp. 6–14.
Conversational feedback in scripted versus spontaneous dialogues: A comparative analysis
I. Pilán, L. Prévot, H. Buschmeier, P. Lison, in: Proceedings of the 25th Meeting of the Special Interest Group on Discourse and Dialogue, Kyoto, Japan, 2024, pp. 440–457.
Towards a Computational Architecture for Co-Constructive Explainable Systems
M. Booshehri, H. Buschmeier, P. Cimiano, S. Kopp, J. Kornowicz, O. Lammert, M. Matarese, D. Mindlin, A.S. Robrecht, A.-L. Vollmer, P. Wagner, B. Wrede, in: Proceedings of the 2024 Workshop on Explainability Engineering, ACM, 2024, pp. 20–25.
Automatic reconstruction of dialogue participants’ coordinating gaze behavior from multiple camera perspectives
A.N. Riechmann, H. Buschmeier, in: Book of Abstracts of the 2nd International Multimodal Communication Symposium, Frankfurt am Main, Germany, 2024, pp. 38–39.
Alle Publikationen anzeigen