{"id":85023,"date":"2025-08-13T10:00:00","date_gmt":"2025-08-13T08:00:00","guid":{"rendered":"https:\/\/aktuelles.uni-frankfurt.de\/?p=85023"},"modified":"2025-07-30T12:13:56","modified_gmt":"2025-07-30T10:13:56","slug":"wenn-die-ki-mit-gestik-trainiert-wird","status":"publish","type":"post","link":"https:\/\/aktuelles.uni-frankfurt.de\/en\/forschung\/wenn-die-ki-mit-gestik-trainiert-wird\/","title":{"rendered":"Wenn die KI mit Gestik trainiert wird"},"content":{"rendered":"<h2 class=\"wp-block-heading\">Ein Teilprojekt im Schwerpunktprogramm \u00bbVisuelle Kommunikation\u00ab versucht, K\u00f6rpersprache analysierbar zu machen<\/h2>\n\n\n\n<div style=\"height:20px\" aria-hidden=\"true\" class=\"wp-block-spacer\"><\/div>\n\n\n\n<figure class=\"wp-block-gallery has-nested-images columns-default is-cropped wp-block-gallery-1 is-layout-flex wp-block-gallery-is-layout-flex\">\n<figure class=\"wp-block-image size-large\"><img fetchpriority=\"high\" decoding=\"async\" width=\"500\" height=\"333\" data-id=\"85027\" src=\"https:\/\/aktuelles.uni-frankfurt.de\/wp-content\/uploads\/2025\/07\/4.2_M1B0656-2-Avatare-500x333.jpg\" alt=\"\" class=\"wp-image-85027\" srcset=\"https:\/\/aktuelles.uni-frankfurt.de\/wp-content\/uploads\/2025\/07\/4.2_M1B0656-2-Avatare-500x333.jpg 500w, https:\/\/aktuelles.uni-frankfurt.de\/wp-content\/uploads\/2025\/07\/4.2_M1B0656-2-Avatare-300x200.jpg 300w, https:\/\/aktuelles.uni-frankfurt.de\/wp-content\/uploads\/2025\/07\/4.2_M1B0656-2-Avatare-18x12.jpg 18w, https:\/\/aktuelles.uni-frankfurt.de\/wp-content\/uploads\/2025\/07\/4.2_M1B0656-2-Avatare.jpg 650w\" sizes=\"(max-width: 500px) 100vw, 500px\" \/><\/figure>\n\n\n\n<figure class=\"wp-block-image size-large\"><img decoding=\"async\" width=\"500\" height=\"346\" data-id=\"85028\" src=\"https:\/\/aktuelles.uni-frankfurt.de\/wp-content\/uploads\/2025\/07\/4.2_VR3-2Avatare-500x346.png\" alt=\"\" class=\"wp-image-85028\" srcset=\"https:\/\/aktuelles.uni-frankfurt.de\/wp-content\/uploads\/2025\/07\/4.2_VR3-2Avatare-500x346.png 500w, https:\/\/aktuelles.uni-frankfurt.de\/wp-content\/uploads\/2025\/07\/4.2_VR3-2Avatare-300x208.png 300w, https:\/\/aktuelles.uni-frankfurt.de\/wp-content\/uploads\/2025\/07\/4.2_VR3-2Avatare-18x12.png 18w, https:\/\/aktuelles.uni-frankfurt.de\/wp-content\/uploads\/2025\/07\/4.2_VR3-2Avatare.png 650w\" sizes=\"(max-width: 500px) 100vw, 500px\" \/><\/figure>\n<\/figure>\n\n\n\n<p><em>Gestik hilft den Menschen, einander besser zu verstehen. Auch f\u00fcr die Verst\u00e4ndigung zwischen Mensch und Maschine wird sie immer wichtiger. <\/em><br><em>Alle Fotos: Uwe Dettmar; alle anderen Bilder: Technology Lab<\/em><\/p>\n\n\n\n<div style=\"height:20px\" aria-hidden=\"true\" class=\"wp-block-spacer\"><\/div>\n\n\n\n<p><strong>Visuelle Kommunikationsmittel wie Gestik und Mimik sind uralte Formen menschlicher Verst\u00e4ndigung. Wer spricht, reiht nicht nur W\u00f6rter oder S\u00e4tze aneinander, sondern nutzt daf\u00fcr auch H\u00e4nde, Arme, Kopf und Gesicht. Seit 2021 erforscht das DFG-Schwerpunktprogramm ViCom an der Goethe-Universit\u00e4t diese nonverbalen Kan\u00e4le. Ein Teilprojekt untersucht die Bedeutung von K\u00f6rpersprache mithilfe von Aufzeichnungsmethoden der Virtuellen Realit\u00e4t (VR).<\/strong><\/p>\n\n\n\n<p>Der Sprung vom B\u00fcro im Fachbereich Informatik in die virtuelle Welt dauert nur wenige Sekunden: VR-Brille auf und schon steht die Probandin (in diesem Fall die Autorin) als Avatar auf der Stra\u00dfe, die durch eine kleine Stadt f\u00fchrt \u2013 vorbei an einer Kapelle, durch den Park, hin zur Kirche und dann bis zum Rathaus. Danach soll sie einem anderen Probanden diesen Weg beschreiben, damit er ihn problemlos findet.<\/p>\n\n\n\n<p>F\u00fcr den Frankfurter Computerlinguisten und Informatiker Prof. Alexander Mehler, den Linguisten Dr. Andy L\u00fccking und den Informatiker Dr. Alexander Henlein k\u00f6nnen die Dialoge im VR-Labor wertvolle Erkenntnisse liefern: Welche Rolle spielen Gestik und Mimik bei der Wegbeschreibung? Wie wird gesprochene Sprache mit Zeigebewegungen, Gesichtsaus\u00addr\u00fccken oder anderen nonverbalen Hinweisen kombiniert? Welche Route nimmt der zweite Proband, und was hilft ihm, ans Ziel zu kommen? Diese Fragen wollen die Forscher im Projekt GeMDiS (Virtual Reality Sustained Multimodul Distributional Semantics for Gestures in Dialogue) beantworten.<\/p>\n\n\n\n<div style=\"height:20px\" aria-hidden=\"true\" class=\"wp-block-spacer\"><\/div>\n\n\n\n<div class=\"wp-block-group is-nowrap is-layout-flex wp-container-core-group-is-layout-6c531013 wp-block-group-is-layout-flex\">\n<figure class=\"wp-block-image alignleft size-large is-resized\"><img decoding=\"async\" width=\"500\" height=\"333\" src=\"https:\/\/aktuelles.uni-frankfurt.de\/wp-content\/uploads\/2025\/07\/4.2_M1B0633-linke-Hand-zeigt-500x333.jpg\" alt=\"\" class=\"wp-image-85029\" style=\"width:600px\" srcset=\"https:\/\/aktuelles.uni-frankfurt.de\/wp-content\/uploads\/2025\/07\/4.2_M1B0633-linke-Hand-zeigt-500x333.jpg 500w, https:\/\/aktuelles.uni-frankfurt.de\/wp-content\/uploads\/2025\/07\/4.2_M1B0633-linke-Hand-zeigt-300x200.jpg 300w, https:\/\/aktuelles.uni-frankfurt.de\/wp-content\/uploads\/2025\/07\/4.2_M1B0633-linke-Hand-zeigt-18x12.jpg 18w, https:\/\/aktuelles.uni-frankfurt.de\/wp-content\/uploads\/2025\/07\/4.2_M1B0633-linke-Hand-zeigt.jpg 650w\" sizes=\"(max-width: 500px) 100vw, 500px\" \/><\/figure>\n\n\n\n<figure class=\"wp-block-image alignright size-large is-resized\"><img loading=\"lazy\" decoding=\"async\" width=\"500\" height=\"346\" src=\"https:\/\/aktuelles.uni-frankfurt.de\/wp-content\/uploads\/2025\/07\/4.2_VR1-Linke-Hand-500x346.png\" alt=\"\" class=\"wp-image-85030\" style=\"width:578px\" srcset=\"https:\/\/aktuelles.uni-frankfurt.de\/wp-content\/uploads\/2025\/07\/4.2_VR1-Linke-Hand-500x346.png 500w, https:\/\/aktuelles.uni-frankfurt.de\/wp-content\/uploads\/2025\/07\/4.2_VR1-Linke-Hand-300x208.png 300w, https:\/\/aktuelles.uni-frankfurt.de\/wp-content\/uploads\/2025\/07\/4.2_VR1-Linke-Hand-18x12.png 18w, https:\/\/aktuelles.uni-frankfurt.de\/wp-content\/uploads\/2025\/07\/4.2_VR1-Linke-Hand.png 650w\" sizes=\"(max-width: 500px) 100vw, 500px\" \/><\/figure>\n<\/div>\n\n\n\n<p class=\"has-text-align-center\"><em>Zeigen \u2013 schon in fr\u00fcher Kindheit eine eindeutige Geste, die der Computer mithilfe von VR-Technologie erst lernen muss.<\/em><\/p>\n\n\n\n<div style=\"height:20px\" aria-hidden=\"true\" class=\"wp-block-spacer\"><\/div>\n\n\n\n<h3 class=\"wp-block-heading\">Gesten: lange Zeit kein Thema in der Linguistik<\/h3>\n\n\n\n<p>Galten Gesten in der Sprachforschung lange Zeit als reines Beiwerk verbaler \u00c4u\u00dferungen, wei\u00df man heute, dass sie sehr viel mehr sind als das. Es ist ein Unterschied, ob ein Gast im Restaurant ruft, \u203adas Essen ist versalzen\u2039, oder ob er dazu mit der Faust auf den Tisch schl\u00e4gt. \u00bbWir nutzen Gestik und Mimik, weil wir damit mehr Informationen vermitteln k\u00f6nnen und Kommunikation effizienter wird\u00ab, sagt Alexander Mehler und nennt ein weiteres Beispiel: \u00bbWenn ich mit meinem Gespr\u00e4chspartner \u00fcber eine bestimmte Pflanze reden will, dann blicke oder zeige ich automatisch in die entsprechende Richtung. So erleichtere ich die Identifikation des Objekts, ohne viele Worte zu verlieren.\u00ab<\/p>\n\n\n\n<p>Genau das machen auch die meisten Probanden und Probandinnen bei ihren Weg\u00adbeschreibungen in den VR-Versuchen. Das GeMDiS-\u00adTeam hat in zahlreichen Experimenten beobachtet, dass etwa beim Wort \u203aKirche\u2039 die H\u00e4nde h\u00e4ufig einen spitzen Winkel formen, um so das Dach n\u00e4her zu beschreiben. Ein Teich in der virtuellen Landschaft kann gestisch mit einem kreisenden Finger gekoppelt werden. Die These des Projekts: Je h\u00e4ufiger Proband A gesprochene Sprache mit Gestik und Mimik koppelt, desto besser findet Proband B seinen Weg.<\/p>\n\n\n\n<div style=\"height:20px\" aria-hidden=\"true\" class=\"wp-block-spacer\"><\/div>\n\n\n\n<h3 class=\"wp-block-heading\">Eingeschr\u00e4nkte Gestik \u2013 weniger Verst\u00e4ndigung<\/h3>\n\n\n\n<p>Mittels Virtual-Reality-Technologie kann das GeMDiS-Team auch untersuchen, was geschieht, wenn K\u00f6rpersprache nur eingeschr\u00e4nkt m\u00f6glich ist. So kann beispielsweise durch Manipulation der Audio- und Videoausg\u00e4nge der VR-Brille die H\u00f6r- beziehungsweise Sehf\u00e4higkeit von Probanden und Probandinnen beeinflusst werden. Innerhalb der VR-Umgebung kann zudem darauf Einfluss genommen werden, inwieweit sie Objekte virtuell greifen und verwenden k\u00f6nnen: In einem der Experimente war es zum Beispiel nicht mehr m\u00f6glich, eine virtuelle Tasse vom Tisch zu nehmen. Die Forscher fanden heraus, dass solche Einschr\u00e4nkungen der Handlungsf\u00e4higkeit starke Effekte auf die Kommunikation haben, die sich bei technischen Einschr\u00e4nkungen der H\u00f6r- und Sehqualit\u00e4t hingegen gerade nicht zeigen: Probandinnen und Probanden, deren Interaktionsm\u00f6glichkeiten beschnitten sind, bewegen sich deutlich weniger in der virtuellen Welt, sie reden mehr \u00fcber ihre&nbsp;Erfahrungen&nbsp;dort und bewerten ihr Erlebnis mit dem Experiment insgesamt negativer.<br><br>Jeweils etwa 25 Minuten dauert ein Versuchsdurchgang in Experimenten dieser Art. Anschlie\u00dfend schaut sich das GeMDiS-Team die Bildfolgen genau an und analysiert sie. Der Computer liefert Daten von Hand- und Gesichtsbewegungen aus dem dreidimensionalen Raum. Damit werden im Verlauf des Projekts Modelle f\u00fcr K\u00fcnstliche Intelligenz (KI) trainiert. Die KI erkennt, wenn sich Beispiele h\u00e4ufen \u2013 wenn also bei der Wegbeschreibung ein Wort wie \u203aBaum\u2039 oder \u203aKreuzung\u2039 h\u00e4ufig mit einer bestimmten Geste kombiniert wird.<\/p>\n\n\n\n<div style=\"height:20px\" aria-hidden=\"true\" class=\"wp-block-spacer\"><\/div>\n\n\n\n<div class=\"wp-block-group is-layout-constrained wp-block-group-is-layout-constrained\">\n<div class=\"wp-block-group has-background is-layout-constrained wp-block-group-is-layout-constrained\" style=\"background-color:#eeeeee\">\n<p class=\"has-text-align-center\">AUF DEN PUNKT GEBRACHT<\/p>\n\n\n\n<ul style=\"background-color:#eeeeee\" class=\"wp-block-list has-background\">\n<li>In Experimenten mit Virtual Reality (VR) wurde festgestellt, dass die Kombination von verbaler Sprache und K\u00f6rpersprache (zum Beispiel Gesten) die Verst\u00e4ndlichkeit und Orientierung, zum Beispiel bei Wegbeschreibungen, erheblich verbessert.<br><\/li>\n\n\n\n<li>In Folgeexperimenten wurde unter anderem die M\u00f6glichkeit zur Wahr\u00adnehmung von Gestik oder Mimik in der VR technisch eingeschr\u00e4nkt, mit dem Ergebnis, dass die Effektivit\u00e4t der Kommunikation sinkt und dass das Kommunikationserlebnis insgesamt negativer wahrgenommen wird. \u2022 Das Projekt GeMDiS nutzt KI, um Muster in der Kombination von verbaler und nonverbaler Sprache zu erkennen. Die unterschiedlichen Kommunikations\u00adsignale werden dabei in einem gemeinsamen, multimodalen semantischen Raum abgebildet.<br><\/li>\n\n\n\n<li>Ziel ist es, eine multimodale Korpus\u00adlinguistik zu etablieren, um gesprochene und nonverbale Sprache gemeinsam zu analysieren und mit dem multimodalen semantischen Raum eine Grundlage f\u00fcr multimodale KI zu schaffen, die zum Beispiel zu einer verbesserten Mensch-Maschine-Interaktion oder einem multimodalen Sprache-Gesten-Lexikon f\u00fchren kann.<\/li>\n<\/ul>\n<\/div>\n\n\n\n<div style=\"height:20px\" aria-hidden=\"true\" class=\"wp-block-spacer\"><\/div>\n<\/div>\n\n\n\n<figure class=\"wp-block-image alignleft size-large\"><img loading=\"lazy\" decoding=\"async\" width=\"500\" height=\"333\" src=\"https:\/\/aktuelles.uni-frankfurt.de\/wp-content\/uploads\/2025\/07\/4.2_M1B0668-500x333.jpg\" alt=\"\" class=\"wp-image-85024\" srcset=\"https:\/\/aktuelles.uni-frankfurt.de\/wp-content\/uploads\/2025\/07\/4.2_M1B0668-500x333.jpg 500w, https:\/\/aktuelles.uni-frankfurt.de\/wp-content\/uploads\/2025\/07\/4.2_M1B0668-300x200.jpg 300w, https:\/\/aktuelles.uni-frankfurt.de\/wp-content\/uploads\/2025\/07\/4.2_M1B0668-18x12.jpg 18w, https:\/\/aktuelles.uni-frankfurt.de\/wp-content\/uploads\/2025\/07\/4.2_M1B0668.jpg 650w\" sizes=\"(max-width: 500px) 100vw, 500px\" \/><\/figure>\n\n\n\n<figure class=\"wp-block-image alignleft size-large\"><img loading=\"lazy\" decoding=\"async\" width=\"500\" height=\"333\" src=\"https:\/\/aktuelles.uni-frankfurt.de\/wp-content\/uploads\/2025\/07\/4.2_M1B0670-500x333.jpg\" alt=\"\" class=\"wp-image-85025\" srcset=\"https:\/\/aktuelles.uni-frankfurt.de\/wp-content\/uploads\/2025\/07\/4.2_M1B0670-500x333.jpg 500w, https:\/\/aktuelles.uni-frankfurt.de\/wp-content\/uploads\/2025\/07\/4.2_M1B0670-300x200.jpg 300w, https:\/\/aktuelles.uni-frankfurt.de\/wp-content\/uploads\/2025\/07\/4.2_M1B0670-18x12.jpg 18w, https:\/\/aktuelles.uni-frankfurt.de\/wp-content\/uploads\/2025\/07\/4.2_M1B0670.jpg 650w\" sizes=\"(max-width: 500px) 100vw, 500px\" \/><\/figure>\n\n\n\n<figure class=\"wp-block-image alignleft size-large\"><img loading=\"lazy\" decoding=\"async\" width=\"500\" height=\"333\" src=\"https:\/\/aktuelles.uni-frankfurt.de\/wp-content\/uploads\/2025\/07\/4.2_M1B0677-500x333.jpg\" alt=\"\" class=\"wp-image-85026\" srcset=\"https:\/\/aktuelles.uni-frankfurt.de\/wp-content\/uploads\/2025\/07\/4.2_M1B0677-500x333.jpg 500w, https:\/\/aktuelles.uni-frankfurt.de\/wp-content\/uploads\/2025\/07\/4.2_M1B0677-300x200.jpg 300w, https:\/\/aktuelles.uni-frankfurt.de\/wp-content\/uploads\/2025\/07\/4.2_M1B0677-18x12.jpg 18w, https:\/\/aktuelles.uni-frankfurt.de\/wp-content\/uploads\/2025\/07\/4.2_M1B0677.jpg 650w\" sizes=\"(max-width: 500px) 100vw, 500px\" \/><figcaption class=\"wp-element-caption\">Auch in der Kommunikation \u00fcber Computerlinguistik f\u00fchrt die visuelle Kommunikation manchmal schneller zum Ziel: Andy L\u00fccking beim Erkl\u00e4ren des ViCom-Forschungsprojekts, das er mit Alexander Henlein und Alexander Mehler betreibt.<\/figcaption><\/figure>\n\n\n\n<h3 class=\"wp-block-heading\">Trainierte KI soll Muster erkennen<\/h3>\n\n\n\n<p>Dazu generiert die KI einen sogenannten multimodalen \u00c4hnlichkeitsraum, eine Art mathematische beziehungsweise geometrische Darstellung von gesammelten Daten. Damit k\u00f6nnen unterschiedliche sprachliche Zeichen wie W\u00f6rter, S\u00e4tze oder Grammatik sowie nonverbale Zeichen wie Gestik, Mimik oder K\u00f6rperhaltung vergleichbar gemacht werden. \u00bbDer Vorteil ist, dass dieser \u00c4hnlichkeitsraum auch Stellen f\u00fcr Nichtgesagtes und Nichtgestikuliertes bereit-h\u00e4lt. Diese Stellen m\u00fcssen nicht von der KI beobachtet werden, erleichtern aber das Erkennen von immer neuen Gesten oder Sprach\u00addaten\u00ab, erl\u00e4utern die Wissenschaftler. So k\u00f6nne, was zuvor beim Training der Algorithmen nicht gesehen worden sei, dennoch sp\u00e4ter \u203aerkannt\u2039 werden.<\/p>\n\n\n\n<p>Die Frankfurter Informatiker und Linguisten nutzen somit eine Methode, die bei der gesprochenen und geschriebenen Sprache schon l\u00e4nger \u00fcblich ist. Bei der sogenannten korpus\u00adbasierten Linguistik geht es um die Analyse von Sprachdaten aus gro\u00dfen Textsammlungen, sogenannten Korpora. Ziel ist es, Muster zu erkennen \u2013 zum Beispiel auf der Ebene grammatischer Strukturen oder von Worth\u00e4ufig\u00adkeiten. Au\u00dferdem wird analysiert, wie sich sprachliche und nichtsprachliche Einheiten aufeinander beziehen, um daraus Vorhersagen abzuleiten. Diese Methode erlaubt es, Ver\u00e4nderungen von Sprache sehr feingliedrig zu dokumentieren oder zu visualisieren, wie Ausdr\u00fccke in unterschiedlichen Kontexten verwendet werden. Das ist keine reine Spielwiese f\u00fcr Theoretiker, sondern kann in der Praxis helfen, die Verst\u00e4ndigung zwischen Mensch und Maschine zu verbessern \u2013 etwa bei Spracherkennungs\u00adsystemen oder bei Systemen, die auf gestischer Steuerung basieren.<\/p>\n\n\n\n<div style=\"height:20px\" aria-hidden=\"true\" class=\"wp-block-spacer\"><\/div>\n\n\n\n<h3 class=\"wp-block-heading\">Gesten haben eine gro\u00dfe Bandbreite<\/h3>\n\n\n\n<p>Mit der Analyse von nonverbaler Sprache wie Gestik oder Mimik hat sich die Korpuslinguistik bisher deutlich weniger besch\u00e4ftigt; ent\u00adsprechende Korpora fehlen. Deshalb will das \u00adGeMDiS-Team dazu beitragen, die Datenl\u00fccke mithilfe multimodaler Korpuslinguistik zu schlie\u00dfen, indem also gesprochene und non-verbale Sprache in Kombination analysiert wird. Methodisch ist das eine Herausforderung. W\u00e4hrend es bei gesprochener und geschriebener Sprache darum geht, W\u00f6rter jeweils mit ihrer zugeordneten Bedeutung zu erfassen, ist visuelle Kommunikation deutlich komplexer. \u00bbDie redebegleitende Gestik ist nicht festgelegt, nicht kodifiziert \u2013 anders als etwa die Geb\u00e4rdensprache. Zeige-Gesten zum Beispiel haben je nach Kontext ganz unterschiedliche Bedeutungen\u00ab, erl\u00e4utert Prof. Mehler. \u00bbAuch die Form-Varianz ist anders als bei der gesprochenen Sprache sehr gro\u00df. Gesten sind nicht immer gleich. Wenn zum Beispiel meine Hand verletzt ist, dann mache ich andere Zeigebewegung als ohne die Einschr\u00e4nkung.\u00ab Hinzu kommt, dass die Bedeutung von Gesten variieren kann \u2013 je nachdem, wo und von wem sie benutzt werden. Wer mit dem Kopf nickt, stimmt zu? Nicht immer. In Griechenland etwa bedeutet die Geste nicht \u203aja\u2039, sondern \u203anein\u2039.<\/p>\n\n\n\n<p>Zur\u00fcck zur Gestenforschung im VR-Labor an der Frankfurter Robert-Mayer-Stra\u00dfe. Das GeMDiS-Team muss noch viele Dialoge in der virtuellen Welt beobachten, multimodale Informationen sammeln und auswerten, damit sp\u00e4ter auch andere Wissenschaftlerinnen und Wissenschaftler mit dem Datenschatz arbeiten k\u00f6nnen. Die Ergebnisse des ViCom-Teilprojekts d\u00fcrften langfristig dazu beitragen, die Interaktion von Mensch und Maschine zu erleichtern. Aus dem Forschungsprojekt k\u00f6nnte aber auch ein multimodales Gesten-Lexikon entstehen \u2013 analog zu W\u00f6rterb\u00fcchern f\u00fcr Fremdsprachen. Die Idee ist, zum Beispiel Begr\u00fc\u00dfungsformeln mit Bildern wie Handschlag, Verbeugung oder \u00e4hnlichen Symbolen darzustellen. Interessante Erkenntnisse k\u00f6nnte die VR-basierte Aufzeichnungstechnologie an der Goethe-Universit\u00e4t au\u00dferdem f\u00fcr die Geb\u00e4rdensprache bringen. In Kooperation mit der Universit\u00e4t K\u00f6ln will das GeMDiS-Team herausfinden, welche Rolle Mundbewegungen bei Wegbeschreibungen spielen. Denn f\u00fcr Geh\u00f6rlose sind solche Gesten sehr wichtig, um Aussagen zu verstehen. Mundbilder und Mundformen sind fester Bestandteil der Geb\u00e4rdensprache.<\/p>\n\n\n\n<div style=\"height:20px\" aria-hidden=\"true\" class=\"wp-block-spacer\"><\/div>\n\n\n\n<p class=\"has-background\" style=\"background-color:#eeeeee\"><strong>Visuelle Kommunikation<\/strong><br><br>\u00bbMan kann nicht nicht kommunizieren\u00ab, hat der Philosoph und Kommunikationswissenschaftler Paul Watzlawick gesagt. Selbst wenn Worte fehlen, \u00fcbermitteln Menschen mit ihrem K\u00f6rper Botschaften. Das DFG-Schwerpunktprogramm \u00bbVisuelle Kommunikation\u00ab (<a href=\"https:\/\/vicom.info\/\">ViCom<\/a>) nimmt diese au\u00dfersprach\u00adliche \u00adVerst\u00e4ndigung genauer in den Blick. Im Verbundprojekt zwischen der Frankfurter Goethe-Universit\u00e4t und der Universit\u00e4t G\u00f6ttingen untersuchen Wissenschaftlerinnen und Wissenschaftler unterschiedlicher Fachrichtungen zum Beispiel, was Gesten und Geb\u00e4rden gemeinsam haben, was Gesten in der Didaktik oder in therapeutischen Kontexten bewirken, wie Tiere kommunizieren und wie die Interaktion zwischen Mensch und Computer funktioniert. ViCom hat das Ziel, ein neues Kommunikations\u00admodell zu entwickeln, das die Vielschichtigkeit von Verst\u00e4ndigung erfasst.<br><\/p>\n\n\n\n<div style=\"height:20px\" aria-hidden=\"true\" class=\"wp-block-spacer\"><\/div>\n\n\n\n<p class=\"has-background\" style=\"background-color:#eeeeee\"><strong>Zu den Personen<\/strong><\/p>\n\n\n\n<figure class=\"wp-block-image aligncenter size-large\"><img loading=\"lazy\" decoding=\"async\" width=\"500\" height=\"500\" src=\"https:\/\/aktuelles.uni-frankfurt.de\/wp-content\/uploads\/2025\/07\/AndyLueckig_AlexanderMehler_AlexanderHenlein._Dettmar-500x500.jpg\" alt=\"\" class=\"wp-image-85031\" srcset=\"https:\/\/aktuelles.uni-frankfurt.de\/wp-content\/uploads\/2025\/07\/AndyLueckig_AlexanderMehler_AlexanderHenlein._Dettmar-500x500.jpg 500w, https:\/\/aktuelles.uni-frankfurt.de\/wp-content\/uploads\/2025\/07\/AndyLueckig_AlexanderMehler_AlexanderHenlein._Dettmar-300x300.jpg 300w, https:\/\/aktuelles.uni-frankfurt.de\/wp-content\/uploads\/2025\/07\/AndyLueckig_AlexanderMehler_AlexanderHenlein._Dettmar-150x150.jpg 150w, https:\/\/aktuelles.uni-frankfurt.de\/wp-content\/uploads\/2025\/07\/AndyLueckig_AlexanderMehler_AlexanderHenlein._Dettmar-12x12.jpg 12w, https:\/\/aktuelles.uni-frankfurt.de\/wp-content\/uploads\/2025\/07\/AndyLueckig_AlexanderMehler_AlexanderHenlein._Dettmar.jpg 650w\" sizes=\"(max-width: 500px) 100vw, 500px\" \/><figcaption class=\"wp-element-caption\">Von links: Dr. Andy L\u00fccking, Dr. Alexander Henlein, Prof. Dr. Alexander Mehler<\/figcaption><\/figure>\n\n\n\n<p class=\"has-background\" style=\"background-color:#eeeeee\"><strong>Prof. Dr. Alexander Mehler<\/strong> hat seit 2013 den Lehrstuhl f\u00fcr Compu\u00adtational Humanities\/Text Technology im Fachbereich f\u00fcr Informatik und Mathematik der Goethe-Universit\u00e4t inne. Er wurde an der Universit\u00e4t Trier im Fach Computerlinguistik promoviert. Seine Forschungsinteressen umfassen die quantitative Analyse, simulative Synthese und formale Modellierung von Texteinheiten in der gesprochenen und schriftlichen Kommunikation. Zu diesem Zweck untersucht er linguistische Netzwerke auf der Grundlage zeitgen\u00f6ssischer und historischer Sprachen (unter Verwendung von Modellen der Sprachevolution). Ein aktuelles Forschungsinteresse betrifft 4D-Texttechnologien, die auf Virtual Reality (VR), Augmented Reality (AR) und Augmented Virtuality (AV) basieren.<br><a href=\"mailto:mehler@em.uni-frankfurt.de\">mehler@em.uni-frankfurt.d<\/a><\/p>\n\n\n\n<p class=\"has-background\" style=\"background-color:#eeeeee\"><strong>Dr. habil Andy L\u00fccking<\/strong> ist Privatdozent und Principal Investigator im Text Technology Lab an der Goethe-Universit\u00e4t. Er hat Linguistik, Philosophie und Germanistik an der Universit\u00e4t Bielefeld studiert und wurde dort mit einer Arbeit zur multimodalen Grammatikerweiterung promoviert. Als Postdoc arbeitete er in der Computerlinguistik\/Texttechnologie, mit einer Arbeit \u00fcber multimodale Dialogtheorie, insbesondere eine \u00bbgestenfreund\u00adliche\u00ab semantische Theorie von Pluralausdr\u00fccken und Quantifikation, hat er sich an der Universit\u00e9 Paris Cit\u00e9 habilitiert. Besonders interessiert er sich f\u00fcr die lingui\u00adstische Theorie der menschlichen Kommunikation, das hei\u00dft die Interaktion von Angesicht zu Angesicht innerhalb und jenseits einzelner S\u00e4tze. Dabei gilt sein besonderes Augenmerk den verschiedenen Arten von Gesten und kognitiver Modellierung.<br><a href=\"mailto:luecking@em.uni-frankfurt.de\">luecking@em.uni-frankfurt.de<\/a><\/p>\n\n\n\n<p class=\"has-background\" style=\"background-color:#eeeeee\"><strong>Dr. Alexander Henlein<\/strong> ist Postdoc am Text Technology Lab der Goethe-Universit\u00e4t. Im Studium der Informatik an der Goethe-Uni\u00adversit\u00e4t lag sein Hauptinteresse auf dem automatisierten Sprach\u00adverst\u00e4ndnis von Computern. In seiner Dissertation hat er zu Text-to-3D Scene Generation geforscht und sich der Frage gewidmet, wie aus Sprache dreidimensionale Welten entstehen k\u00f6nnen. Aktuell besch\u00e4ftigt er sich mit multimodaler Sprache und Kommunikation, insbesondere im Zusammenhang mit modernen Sprachmodellen. Er arbeitet an der Entwicklung eines VR-basierten Systems zur Sammlung und Analyse multimodaler Daten.<br><a href=\"mailto:henlein@em.uni-frankfurt.de\">henlein@em.uni-frankfurt.de<\/a><\/p>\n\n\n\n<div style=\"height:20px\" aria-hidden=\"true\" class=\"wp-block-spacer\"><\/div>\n\n\n\n<figure class=\"wp-block-image size-large\"><img loading=\"lazy\" decoding=\"async\" width=\"500\" height=\"333\" src=\"https:\/\/aktuelles.uni-frankfurt.de\/wp-content\/uploads\/2025\/07\/4.2_M1B0633-linke-Hand-zeigt-500x333.jpg\" alt=\"\" class=\"wp-image-85029\" srcset=\"https:\/\/aktuelles.uni-frankfurt.de\/wp-content\/uploads\/2025\/07\/4.2_M1B0633-linke-Hand-zeigt-500x333.jpg 500w, https:\/\/aktuelles.uni-frankfurt.de\/wp-content\/uploads\/2025\/07\/4.2_M1B0633-linke-Hand-zeigt-300x200.jpg 300w, https:\/\/aktuelles.uni-frankfurt.de\/wp-content\/uploads\/2025\/07\/4.2_M1B0633-linke-Hand-zeigt-18x12.jpg 18w, https:\/\/aktuelles.uni-frankfurt.de\/wp-content\/uploads\/2025\/07\/4.2_M1B0633-linke-Hand-zeigt.jpg 650w\" sizes=\"(max-width: 500px) 100vw, 500px\" \/><\/figure>\n\n\n\n<p class=\"has-background\" style=\"background-color:#eeeeee\"><strong>Die Autorin<\/strong><br><br>Katja Irle,<br>Jahrgang 1971, ist Bildungs- und Wissenschaftsjournalistin, Autorin und Moderatorin.<br><a href=\"mailto:irle@schreibenundsprechen.eu\">irle@schreibenundsprechen.eu<\/a><\/p>\n\n\n\n<div style=\"height:20px\" aria-hidden=\"true\" class=\"wp-block-spacer\"><\/div>\n\n\n\n<p class=\"has-background\" style=\"background-color:#eeeeee\"><a href=\"https:\/\/www.forschung-frankfurt.uni-frankfurt.de\/34831594\/aktuelle_Ausgabe\" target=\"_blank\" rel=\"noreferrer noopener\">Zur gesamten Ausgabe von Forschung Frankfurt 1\/2025: Sprache, wir verstehen uns!<\/a><\/p>\n\n\n\n<p><\/p>","protected":false},"excerpt":{"rendered":"<p>Ein Teilprojekt im Schwerpunktprogramm \u00bbVisuelle Kommunikation\u00ab versucht, K\u00f6rpersprache analysierbar zu machen Gestik hilft den Menschen, einander besser zu verstehen. Auch f\u00fcr die Verst\u00e4ndigung zwischen Mensch und Maschine wird sie immer [&hellip;]<\/p>\n","protected":false},"author":8,"featured_media":85029,"comment_status":"closed","ping_status":"closed","sticky":false,"template":"","format":"standard","meta":{"_eb_attr":"","_price":"","_stock":"","_tribe_ticket_header":"","_tribe_default_ticket_provider":"","_ticket_start_date":"","_ticket_end_date":"","_tribe_ticket_show_description":"","_tribe_ticket_show_not_going":false,"_tribe_ticket_use_global_stock":"","_tribe_ticket_global_stock_level":"","_global_stock_mode":"","_global_stock_cap":"","_tribe_rsvp_for_event":"","_tribe_ticket_going_count":"","_tribe_ticket_not_going_count":"","_tribe_tickets_list":"[]","_tribe_ticket_has_attendee_info_fields":false,"footnotes":""},"categories":[3],"tags":[412,78],"post_folder":[],"class_list":["post-85023","post","type-post","status-publish","format-standard","has-post-thumbnail","hentry","category-forschung","tag-forschung-frankfurt-1-25","tag-informatik"],"yoast_head":"<!-- This site is optimized with the Yoast SEO plugin v27.3 - https:\/\/yoast.com\/product\/yoast-seo-wordpress\/ -->\n<title>Wenn die KI mit Gestik trainiert wird | Aktuelles aus der Goethe-Universit\u00e4t Frankfurt<\/title>\n<meta name=\"robots\" content=\"index, follow, max-snippet:-1, max-image-preview:large, max-video-preview:-1\" \/>\n<link rel=\"canonical\" href=\"https:\/\/aktuelles.uni-frankfurt.de\/en\/forschung\/wenn-die-ki-mit-gestik-trainiert-wird\/\" \/>\n<meta property=\"og:locale\" content=\"en_GB\" \/>\n<meta property=\"og:type\" content=\"article\" \/>\n<meta property=\"og:title\" content=\"Wenn die KI mit Gestik trainiert wird | Aktuelles aus der Goethe-Universit\u00e4t Frankfurt\" \/>\n<meta property=\"og:description\" content=\"Ein Teilprojekt im Schwerpunktprogramm \u00bbVisuelle Kommunikation\u00ab versucht, K\u00f6rpersprache analysierbar zu machen Gestik hilft den Menschen, einander besser zu verstehen. Auch f\u00fcr die Verst\u00e4ndigung zwischen Mensch und Maschine wird sie immer [&hellip;]\" \/>\n<meta property=\"og:url\" content=\"https:\/\/aktuelles.uni-frankfurt.de\/en\/forschung\/wenn-die-ki-mit-gestik-trainiert-wird\/\" \/>\n<meta property=\"og:site_name\" content=\"Aktuelles aus der Goethe-Universit\u00e4t Frankfurt\" \/>\n<meta property=\"article:published_time\" content=\"2025-08-13T08:00:00+00:00\" \/>\n<meta property=\"og:image\" content=\"https:\/\/aktuelles.uni-frankfurt.de\/wp-content\/uploads\/2025\/07\/4.2_M1B0633-linke-Hand-zeigt.jpg\" \/>\n\t<meta property=\"og:image:width\" content=\"650\" \/>\n\t<meta property=\"og:image:height\" content=\"433\" \/>\n\t<meta property=\"og:image:type\" content=\"image\/jpeg\" \/>\n<meta name=\"author\" content=\"-\" \/>\n<meta name=\"twitter:card\" content=\"summary_large_image\" \/>\n<meta name=\"twitter:label1\" content=\"Written by\" \/>\n\t<meta name=\"twitter:data1\" content=\"-\" \/>\n\t<meta name=\"twitter:label2\" content=\"Estimated reading time\" \/>\n\t<meta name=\"twitter:data2\" content=\"10 minutes\" \/>\n<script type=\"application\/ld+json\" class=\"yoast-schema-graph\">{\"@context\":\"https:\\\/\\\/schema.org\",\"@graph\":[{\"@type\":\"Article\",\"@id\":\"https:\\\/\\\/aktuelles.uni-frankfurt.de\\\/forschung\\\/wenn-die-ki-mit-gestik-trainiert-wird\\\/#article\",\"isPartOf\":{\"@id\":\"https:\\\/\\\/aktuelles.uni-frankfurt.de\\\/forschung\\\/wenn-die-ki-mit-gestik-trainiert-wird\\\/\"},\"author\":{\"name\":\"-\",\"@id\":\"https:\\\/\\\/aktuelles.uni-frankfurt.de\\\/#\\\/schema\\\/person\\\/8e55ea338fb65d1ce87a91565d1f1739\"},\"headline\":\"Wenn die KI mit Gestik trainiert wird\",\"datePublished\":\"2025-08-13T08:00:00+00:00\",\"mainEntityOfPage\":{\"@id\":\"https:\\\/\\\/aktuelles.uni-frankfurt.de\\\/forschung\\\/wenn-die-ki-mit-gestik-trainiert-wird\\\/\"},\"wordCount\":1927,\"publisher\":{\"@id\":\"https:\\\/\\\/aktuelles.uni-frankfurt.de\\\/#organization\"},\"image\":{\"@id\":\"https:\\\/\\\/aktuelles.uni-frankfurt.de\\\/forschung\\\/wenn-die-ki-mit-gestik-trainiert-wird\\\/#primaryimage\"},\"thumbnailUrl\":\"https:\\\/\\\/aktuelles.uni-frankfurt.de\\\/wp-content\\\/uploads\\\/2025\\\/07\\\/4.2_M1B0633-linke-Hand-zeigt.jpg\",\"keywords\":[\"Forschung Frankfurt 1.25\",\"Informatik\"],\"articleSection\":[\"Forschung\"],\"inLanguage\":\"en-GB\"},{\"@type\":\"WebPage\",\"@id\":\"https:\\\/\\\/aktuelles.uni-frankfurt.de\\\/forschung\\\/wenn-die-ki-mit-gestik-trainiert-wird\\\/\",\"url\":\"https:\\\/\\\/aktuelles.uni-frankfurt.de\\\/forschung\\\/wenn-die-ki-mit-gestik-trainiert-wird\\\/\",\"name\":\"Wenn die KI mit Gestik trainiert wird | Aktuelles aus der Goethe-Universit\u00e4t Frankfurt\",\"isPartOf\":{\"@id\":\"https:\\\/\\\/aktuelles.uni-frankfurt.de\\\/#website\"},\"primaryImageOfPage\":{\"@id\":\"https:\\\/\\\/aktuelles.uni-frankfurt.de\\\/forschung\\\/wenn-die-ki-mit-gestik-trainiert-wird\\\/#primaryimage\"},\"image\":{\"@id\":\"https:\\\/\\\/aktuelles.uni-frankfurt.de\\\/forschung\\\/wenn-die-ki-mit-gestik-trainiert-wird\\\/#primaryimage\"},\"thumbnailUrl\":\"https:\\\/\\\/aktuelles.uni-frankfurt.de\\\/wp-content\\\/uploads\\\/2025\\\/07\\\/4.2_M1B0633-linke-Hand-zeigt.jpg\",\"datePublished\":\"2025-08-13T08:00:00+00:00\",\"breadcrumb\":{\"@id\":\"https:\\\/\\\/aktuelles.uni-frankfurt.de\\\/forschung\\\/wenn-die-ki-mit-gestik-trainiert-wird\\\/#breadcrumb\"},\"inLanguage\":\"en-GB\",\"potentialAction\":[{\"@type\":\"ReadAction\",\"target\":[\"https:\\\/\\\/aktuelles.uni-frankfurt.de\\\/forschung\\\/wenn-die-ki-mit-gestik-trainiert-wird\\\/\"]}]},{\"@type\":\"ImageObject\",\"inLanguage\":\"en-GB\",\"@id\":\"https:\\\/\\\/aktuelles.uni-frankfurt.de\\\/forschung\\\/wenn-die-ki-mit-gestik-trainiert-wird\\\/#primaryimage\",\"url\":\"https:\\\/\\\/aktuelles.uni-frankfurt.de\\\/wp-content\\\/uploads\\\/2025\\\/07\\\/4.2_M1B0633-linke-Hand-zeigt.jpg\",\"contentUrl\":\"https:\\\/\\\/aktuelles.uni-frankfurt.de\\\/wp-content\\\/uploads\\\/2025\\\/07\\\/4.2_M1B0633-linke-Hand-zeigt.jpg\",\"width\":650,\"height\":433,\"caption\":\"Foto: Uwe Dettmar\"},{\"@type\":\"BreadcrumbList\",\"@id\":\"https:\\\/\\\/aktuelles.uni-frankfurt.de\\\/forschung\\\/wenn-die-ki-mit-gestik-trainiert-wird\\\/#breadcrumb\",\"itemListElement\":[{\"@type\":\"ListItem\",\"position\":1,\"name\":\"Startseite\",\"item\":\"https:\\\/\\\/aktuelles.uni-frankfurt.de\\\/\"},{\"@type\":\"ListItem\",\"position\":2,\"name\":\"Wenn die KI mit Gestik trainiert wird\"}]},{\"@type\":\"WebSite\",\"@id\":\"https:\\\/\\\/aktuelles.uni-frankfurt.de\\\/#website\",\"url\":\"https:\\\/\\\/aktuelles.uni-frankfurt.de\\\/\",\"name\":\"Aktuelles aus der Goethe-Universit\u00e4t Frankfurt\",\"description\":\"Aktuelles aus der Goethe-Universit\u00e4t | Neues aus Forschung, Lehre, Studium\",\"publisher\":{\"@id\":\"https:\\\/\\\/aktuelles.uni-frankfurt.de\\\/#organization\"},\"potentialAction\":[{\"@type\":\"SearchAction\",\"target\":{\"@type\":\"EntryPoint\",\"urlTemplate\":\"https:\\\/\\\/aktuelles.uni-frankfurt.de\\\/?s={search_term_string}\"},\"query-input\":{\"@type\":\"PropertyValueSpecification\",\"valueRequired\":true,\"valueName\":\"search_term_string\"}}],\"inLanguage\":\"en-GB\"},{\"@type\":\"Organization\",\"@id\":\"https:\\\/\\\/aktuelles.uni-frankfurt.de\\\/#organization\",\"name\":\"Goethe-Universit\u00e4t\",\"url\":\"https:\\\/\\\/aktuelles.uni-frankfurt.de\\\/\",\"logo\":{\"@type\":\"ImageObject\",\"inLanguage\":\"en-GB\",\"@id\":\"https:\\\/\\\/aktuelles.uni-frankfurt.de\\\/#\\\/schema\\\/logo\\\/image\\\/\",\"url\":\"https:\\\/\\\/aktuelles.uni-frankfurt.de\\\/wp-content\\\/uploads\\\/2022\\\/03\\\/800px-Goethe-Logo.png\",\"contentUrl\":\"https:\\\/\\\/aktuelles.uni-frankfurt.de\\\/wp-content\\\/uploads\\\/2022\\\/03\\\/800px-Goethe-Logo.png\",\"width\":800,\"height\":436,\"caption\":\"Goethe-Universit\u00e4t\"},\"image\":{\"@id\":\"https:\\\/\\\/aktuelles.uni-frankfurt.de\\\/#\\\/schema\\\/logo\\\/image\\\/\"}},{\"@type\":\"Person\",\"@id\":\"https:\\\/\\\/aktuelles.uni-frankfurt.de\\\/#\\\/schema\\\/person\\\/8e55ea338fb65d1ce87a91565d1f1739\",\"name\":\"-\",\"description\":\"Dieser Beitrag wurde von der Online-Redaktion ver\u00f6ffentlicht. Wenn der Beitrag von einem Gastautoren verfasst wurde, findet sich dieser Hinweis am Ende des jeweiligen Artikels.\",\"sameAs\":[\"http:\\\/\\\/aktuelles.uni-frankfurt.de\\\/autoren\"],\"url\":\"https:\\\/\\\/aktuelles.uni-frankfurt.de\\\/en\\\/author\\\/redaktion\\\/\"}]}<\/script>\n<!-- \/ Yoast SEO plugin. -->","yoast_head_json":{"title":"Wenn die KI mit Gestik trainiert wird | Aktuelles aus der Goethe-Universit\u00e4t Frankfurt","robots":{"index":"index","follow":"follow","max-snippet":"max-snippet:-1","max-image-preview":"max-image-preview:large","max-video-preview":"max-video-preview:-1"},"canonical":"https:\/\/aktuelles.uni-frankfurt.de\/en\/forschung\/wenn-die-ki-mit-gestik-trainiert-wird\/","og_locale":"en_GB","og_type":"article","og_title":"Wenn die KI mit Gestik trainiert wird | Aktuelles aus der Goethe-Universit\u00e4t Frankfurt","og_description":"Ein Teilprojekt im Schwerpunktprogramm \u00bbVisuelle Kommunikation\u00ab versucht, K\u00f6rpersprache analysierbar zu machen Gestik hilft den Menschen, einander besser zu verstehen. Auch f\u00fcr die Verst\u00e4ndigung zwischen Mensch und Maschine wird sie immer [&hellip;]","og_url":"https:\/\/aktuelles.uni-frankfurt.de\/en\/forschung\/wenn-die-ki-mit-gestik-trainiert-wird\/","og_site_name":"Aktuelles aus der Goethe-Universit\u00e4t Frankfurt","article_published_time":"2025-08-13T08:00:00+00:00","og_image":[{"width":650,"height":433,"url":"https:\/\/aktuelles.uni-frankfurt.de\/wp-content\/uploads\/2025\/07\/4.2_M1B0633-linke-Hand-zeigt.jpg","type":"image\/jpeg"}],"author":"-","twitter_card":"summary_large_image","twitter_misc":{"Written by":"-","Estimated reading time":"10 minutes"},"schema":{"@context":"https:\/\/schema.org","@graph":[{"@type":"Article","@id":"https:\/\/aktuelles.uni-frankfurt.de\/forschung\/wenn-die-ki-mit-gestik-trainiert-wird\/#article","isPartOf":{"@id":"https:\/\/aktuelles.uni-frankfurt.de\/forschung\/wenn-die-ki-mit-gestik-trainiert-wird\/"},"author":{"name":"-","@id":"https:\/\/aktuelles.uni-frankfurt.de\/#\/schema\/person\/8e55ea338fb65d1ce87a91565d1f1739"},"headline":"Wenn die KI mit Gestik trainiert wird","datePublished":"2025-08-13T08:00:00+00:00","mainEntityOfPage":{"@id":"https:\/\/aktuelles.uni-frankfurt.de\/forschung\/wenn-die-ki-mit-gestik-trainiert-wird\/"},"wordCount":1927,"publisher":{"@id":"https:\/\/aktuelles.uni-frankfurt.de\/#organization"},"image":{"@id":"https:\/\/aktuelles.uni-frankfurt.de\/forschung\/wenn-die-ki-mit-gestik-trainiert-wird\/#primaryimage"},"thumbnailUrl":"https:\/\/aktuelles.uni-frankfurt.de\/wp-content\/uploads\/2025\/07\/4.2_M1B0633-linke-Hand-zeigt.jpg","keywords":["Forschung Frankfurt 1.25","Informatik"],"articleSection":["Forschung"],"inLanguage":"en-GB"},{"@type":"WebPage","@id":"https:\/\/aktuelles.uni-frankfurt.de\/forschung\/wenn-die-ki-mit-gestik-trainiert-wird\/","url":"https:\/\/aktuelles.uni-frankfurt.de\/forschung\/wenn-die-ki-mit-gestik-trainiert-wird\/","name":"Wenn die KI mit Gestik trainiert wird | Aktuelles aus der Goethe-Universit\u00e4t Frankfurt","isPartOf":{"@id":"https:\/\/aktuelles.uni-frankfurt.de\/#website"},"primaryImageOfPage":{"@id":"https:\/\/aktuelles.uni-frankfurt.de\/forschung\/wenn-die-ki-mit-gestik-trainiert-wird\/#primaryimage"},"image":{"@id":"https:\/\/aktuelles.uni-frankfurt.de\/forschung\/wenn-die-ki-mit-gestik-trainiert-wird\/#primaryimage"},"thumbnailUrl":"https:\/\/aktuelles.uni-frankfurt.de\/wp-content\/uploads\/2025\/07\/4.2_M1B0633-linke-Hand-zeigt.jpg","datePublished":"2025-08-13T08:00:00+00:00","breadcrumb":{"@id":"https:\/\/aktuelles.uni-frankfurt.de\/forschung\/wenn-die-ki-mit-gestik-trainiert-wird\/#breadcrumb"},"inLanguage":"en-GB","potentialAction":[{"@type":"ReadAction","target":["https:\/\/aktuelles.uni-frankfurt.de\/forschung\/wenn-die-ki-mit-gestik-trainiert-wird\/"]}]},{"@type":"ImageObject","inLanguage":"en-GB","@id":"https:\/\/aktuelles.uni-frankfurt.de\/forschung\/wenn-die-ki-mit-gestik-trainiert-wird\/#primaryimage","url":"https:\/\/aktuelles.uni-frankfurt.de\/wp-content\/uploads\/2025\/07\/4.2_M1B0633-linke-Hand-zeigt.jpg","contentUrl":"https:\/\/aktuelles.uni-frankfurt.de\/wp-content\/uploads\/2025\/07\/4.2_M1B0633-linke-Hand-zeigt.jpg","width":650,"height":433,"caption":"Foto: Uwe Dettmar"},{"@type":"BreadcrumbList","@id":"https:\/\/aktuelles.uni-frankfurt.de\/forschung\/wenn-die-ki-mit-gestik-trainiert-wird\/#breadcrumb","itemListElement":[{"@type":"ListItem","position":1,"name":"Startseite","item":"https:\/\/aktuelles.uni-frankfurt.de\/"},{"@type":"ListItem","position":2,"name":"Wenn die KI mit Gestik trainiert wird"}]},{"@type":"WebSite","@id":"https:\/\/aktuelles.uni-frankfurt.de\/#website","url":"https:\/\/aktuelles.uni-frankfurt.de\/","name":"Aktuelles aus der Goethe-Universit\u00e4t Frankfurt","description":"Aktuelles aus der Goethe-Universit\u00e4t | Neues aus Forschung, Lehre, Studium","publisher":{"@id":"https:\/\/aktuelles.uni-frankfurt.de\/#organization"},"potentialAction":[{"@type":"SearchAction","target":{"@type":"EntryPoint","urlTemplate":"https:\/\/aktuelles.uni-frankfurt.de\/?s={search_term_string}"},"query-input":{"@type":"PropertyValueSpecification","valueRequired":true,"valueName":"search_term_string"}}],"inLanguage":"en-GB"},{"@type":"Organization","@id":"https:\/\/aktuelles.uni-frankfurt.de\/#organization","name":"Goethe University Frankfurt","url":"https:\/\/aktuelles.uni-frankfurt.de\/","logo":{"@type":"ImageObject","inLanguage":"en-GB","@id":"https:\/\/aktuelles.uni-frankfurt.de\/#\/schema\/logo\/image\/","url":"https:\/\/aktuelles.uni-frankfurt.de\/wp-content\/uploads\/2022\/03\/800px-Goethe-Logo.png","contentUrl":"https:\/\/aktuelles.uni-frankfurt.de\/wp-content\/uploads\/2022\/03\/800px-Goethe-Logo.png","width":800,"height":436,"caption":"Goethe-Universit\u00e4t"},"image":{"@id":"https:\/\/aktuelles.uni-frankfurt.de\/#\/schema\/logo\/image\/"}},{"@type":"Person","@id":"https:\/\/aktuelles.uni-frankfurt.de\/#\/schema\/person\/8e55ea338fb65d1ce87a91565d1f1739","name":"-","description":"Dieser Beitrag wurde von der Online-Redaktion ver\u00f6ffentlicht. Wenn der Beitrag von einem Gastautoren verfasst wurde, findet sich dieser Hinweis am Ende des jeweiligen Artikels.","sameAs":["http:\/\/aktuelles.uni-frankfurt.de\/autoren"],"url":"https:\/\/aktuelles.uni-frankfurt.de\/en\/author\/redaktion\/"}]}},"_links":{"self":[{"href":"https:\/\/aktuelles.uni-frankfurt.de\/en\/wp-json\/wp\/v2\/posts\/85023","targetHints":{"allow":["GET"]}}],"collection":[{"href":"https:\/\/aktuelles.uni-frankfurt.de\/en\/wp-json\/wp\/v2\/posts"}],"about":[{"href":"https:\/\/aktuelles.uni-frankfurt.de\/en\/wp-json\/wp\/v2\/types\/post"}],"author":[{"embeddable":true,"href":"https:\/\/aktuelles.uni-frankfurt.de\/en\/wp-json\/wp\/v2\/users\/8"}],"replies":[{"embeddable":true,"href":"https:\/\/aktuelles.uni-frankfurt.de\/en\/wp-json\/wp\/v2\/comments?post=85023"}],"version-history":[{"count":0,"href":"https:\/\/aktuelles.uni-frankfurt.de\/en\/wp-json\/wp\/v2\/posts\/85023\/revisions"}],"wp:featuredmedia":[{"embeddable":true,"href":"https:\/\/aktuelles.uni-frankfurt.de\/en\/wp-json\/wp\/v2\/media\/85029"}],"wp:attachment":[{"href":"https:\/\/aktuelles.uni-frankfurt.de\/en\/wp-json\/wp\/v2\/media?parent=85023"}],"wp:term":[{"taxonomy":"category","embeddable":true,"href":"https:\/\/aktuelles.uni-frankfurt.de\/en\/wp-json\/wp\/v2\/categories?post=85023"},{"taxonomy":"post_tag","embeddable":true,"href":"https:\/\/aktuelles.uni-frankfurt.de\/en\/wp-json\/wp\/v2\/tags?post=85023"},{"taxonomy":"post_folder","embeddable":true,"href":"https:\/\/aktuelles.uni-frankfurt.de\/en\/wp-json\/wp\/v2\/post_folder?post=85023"}],"curies":[{"name":"wp","href":"https:\/\/api.w.org\/{rel}","templated":true}]}}