Datenbestand vom 10. Dezember 2024
Verlag Dr. Hut GmbH Sternstr. 18 80538 München Tel: 0175 / 9263392 Mo - Fr, 9 - 12 Uhr
aktualisiert am 10. Dezember 2024
978-3-8439-0851-1, Reihe Informatik
Johannes Strassner Parametrisierbare Menschmodelle für Dialogumgebungen
171 Seiten, Dissertation Universität Koblenz-Landau (2012), Softcover, A5
Parametrisierbare Menschmodelle sollen in Form und Funktion an verschiedene Persönlichkeiten und Dialogsituationen angepasst werden können. In diesem Ansatz bestehen Menschmodelle aus verschiedenen Modellen, einer Parametrisierung und einem persönlichen Kern.
Sie sind Bestandteil von Dialoganwendungen, in denen ein Dialog als parametrisierter und annotierter Text vorliegen kann. Der Kern speichert Informationen über eine Person in verschiedenen Modalitäten. Die Modelle produzieren menschliche Eigenschaften in der Dialogumgebung, die in Aussagen integriert werden. Verhalten entsteht durch Beobachtung, wird implementiert mit heuristischen Methoden, verwendet die Modalitäten und bezieht den Effekt einer simulierten Umgebung mit ein. Die Parametrisierung ermöglicht die Übertragung von Daten, die Beschreibung von Eigenschaften und die Integration in kontinuierliche Animationen.
Im Gegensatz zu bestehenden Ansätzen, die eine Parametrisierung von Gesichtern oder menschlicher Gestalt einsetzen, liegt hier der Schwerpunkt auf der Integration und Parametriserung von Verhaltensmodellen, so daß personalisierte Menschmodelle mit ihrer Umgebung interagieren und multimodalen Dialog direkt aus Text erzeugen können.
Für die Simulation von Wahrnehmung erzeugen Visualisierungstechniken dynamische Interpretationen einer virtuellen Welt, die anschließend von einem Zonensystem gefiltert werden. Das aktuelle Wissen über ein Objekt wird durch seine Position auf einem mentalen Kontinuum beschrieben und ermöglicht schrittweises Wahrnehmen und Vergessen mit verschiedenen Formen.
Emotionen entstehen in einer Umgebung mit einer Vielzahl von Ereignissen, Aktionen von Dialogpartnern, sowie Erwartungen des Menschmodells. Das Menschmodell verfügt über ein Repertoire von Gesichtsausdrücken aus verschiedenen Quellen. Es kann mehrere Emotionen gleichzeitig empfinden, aber nur eine darstellen, die es mit dem arithmetischen Modell MEMO berechnet. Emotionen mischen sich im morphbaren Gesichtsmodell mit Visemen. Constraints kontrollieren das Resultat.
Die Gestenerzeugung eines Menschen wird an Hand von realen Beispielen mit dem MPF-Modell in Muster, Phasen und Fragmente zerlegt und annotiert. Das Menschmodell imitiert Zeigegesten und unterstützende Gesten in ähnlichen Situationen mit einer Heuristik und einem Repertoire von wahrnehmungsmäßig wichtigen Körperstellungen. Es verwendet dabei Gestenklassen, Schlüsselwörter, zeitliche Referenzen und einen inneren Zustand.