Mund, Ohren, Augen, Hirn: Wie wir sprechen und uns verstehen

Sprechen und Verstehen ist der Kern menschlicher Kommunikation. Doch wie entstehen eigentlich Sprachlaute und was passiert im Hirn, wenn wir hören? Welchen Anteil haben die Augen beim Sprachverständnis? Modernste Technologien helfen, diesen Fragen auf den Grund zu gehen.

Unsere Fähigkeit, miteinander zu sprechen, ist der Kitt, der die Gesellschaft zusammenhält. Wir tun dies mit einer solchen Leichtigkeit, dass wir uns kaum bewusst sind, was es eigentlich alles zum Sprechen und Zuhören braucht.

 

Die Linguistische Technologieplattform LiRI der UZH stellt verschiedene Methoden zur experimentellen Erforschung von Sprache vor, von der instrumentellen Untersuchung der Sprachproduktion bis hin zu Neuroimaging-Techniken, die eingesetzt werden, um die komplexe Beziehung zwischen Hören und Verstehen zu analysieren. An der Scientifica werden Sie die Möglichkeit haben, mit Forschenden zu sprechen, die computergestützte und maschinelle Methoden anwenden, um die Sprache und den Sprechvorgang zu analysieren. Unsere Forschenden werden abwechselnd Technologien und Forschungsprojekte in drei Hauptbereichen vorstellen.

 

Phonetik und Stimmanalyse

Samstag: 16.00 – 19.00 Uhr, und Sonntag: 14.00 – 17.00 Uhr

Eine Stimme ist mehr als nur die Worte, die wir sprechen. Sie hat viele Eigenschaften und verrät viel mehr, als uns im Allgemeinen bewusst ist. Sie verortet uns geografisch, sozial und zeitlich. Unsere Stimmen haben individuelle Merkmale, die sich zum Beispiel die forensische Phonetik zunutze macht. Sie erfahren, wie Stimmen identifiziert werden, ob unsere Stimmen so einzigartig sind, wie Fingerabdrücke und wie die computergestützte Analyse in der Stimmerkennung und forensischen Phonetik funktioniert.

Mit Hilfe eines Ultraschallsystems werden wir zudem einen Blick in den Vokaltrakt werfen, um zu sehen, wie die Bewegungen der Zunge verschiedene Sprachlaute erzeugen.

 

Gehörforschung

Samstag: 14.00 – 16.00 Uhr, und Sonntag: 11.00 – 14.00 Uhr

Um kommunizieren zu können, müssen wir uns gegenseitig hören können. Für Menschen mit Hörverlust oder Tinnitus ist es oft schwierig, Sprache selbst bei mässigen Hintergrundgeräuschen zu verstehen. Infolgedessen laufen sie Gefahr, den Zugang zu sozialen Kontakten zu verlieren, da sie die Teilnahme an sozialen Aktivitäten als schwierig und oft ermüdend empfinden. Am Ausstellungsstand stellen wir ein neuronales Aufmerksamkeitstraining vor. Die Besucherinnen und Besucher werden lernen, ihre Gehirnaktivität zu regulieren, während sie ein Computerspiel spielen. Sie trainieren dabei Gehirnmuster, die förderlich für die Aufmerksamkeitssteuerung sind.

 

Sprachtechnologie

Samstag: 11 Uhr – 14 Uhr

Sprache und Kommunikation sind mehr als nur Wörter. Wichtige Informationen werden auch über den visuellen Sinn übermittelt. Experten aus dem LiRI-Sprachtechnologie-Team geben einen Einblick in die Entwicklung der automatischen Bilderkennung zur Analyse visueller Kommunikation wie Gesten, und wie diese Technologie für die Erforschung von Sprache genutzt werden kann. Eine weitere Entwicklung, die vorgestellt wird, betrifft die Verwaltung von Interaktionen in Zoom, um die Online-Kommunikation zu erleichtern und effizienter zu gestalten.