Im Rahmen unserer Websites setzen wir Cookies ein. Informationen zu den Cookies und wie Ihr der Verwendung von Cookies jederzeit widersprechen bzw. deren Nutzung beenden könnt, findet Ihr in unserer Datenschutzerklärung.
Google eröffnet Menschen mit Beeinträchtigung neue Kommunikationswege
AI Google Google IO 2 Min Lesezeit 3 Kommentare

Google eröffnet Menschen mit Beeinträchtigung neue Kommunikationswege

Die Spracherkennung hat sich in den vergangenen Jahren schnell weiter entwickelt. Doch für Menschen mit Sprach-Beeinträchtigung bleibt es weiter schwer, sich zu verständigen. Das will Google mit Project Euphonia ändern.

Wer von Euch bereits Sprachassistenten wie den Google Assistant benutzt - egal ob ständig oder nur ab und zu, hat sich bestimmt schon mehr als einmal darüber geärgert, dass der einfach nicht verstanden hat, was man von ihm will. Und dabei würde ich einfach mal behaupten, dass der Großteil von Euch keine Sprach-Beeinträchtigung hat.

Doch wie sieht es mit Menschen aus, die aufgrund eines Schlaganfalls, Multiple Sklerose, ALS, Parkinson oder irgendeiner anderen neurologischen oder motorischen Störungen nicht so kommunizieren können wie viel andere? Immerhin macht Kommunikation, vor allem die verbale, einen nicht geringen Teil unseres Lebens aus. Um dieses Problem von der Tech-Seite anzugehen, hat Google das Project Euphonia als Teil des Social KI-Teams geschaffen.

Project Euphonia

Das Ziel von Project Euphonia ist es, mit Hilfe von KI die Spracherkennung sowie die Erkennung von Mimik und Gestik zu verbessern. So hat man sich zum Beispiel mit dem ALS Therapy Development Institute (ALS TDI) und der ALS Residence Initiative (ALSRI) zusammengetan, um zahlreiche Aufnahmen von an ALS erkrankten Menschen aufzunehmen und diese als Basis für die Verbesserung der Spracherkennung zu nutzen.

Euphonia Waveform example sentences 01
Einige der Sätze, die von den ans ALS erkrankten Menschen zum KI-Training vorgelesen wurden. / © Google

Bei der Erkennung wandelt Googles Software die aufgenommenen Sprachproben in ein Spektrogramm oder eine visuelle Darstellung der Töne um. Anschließend wird das Ganze in das übliche Spektrogramme umgewandelt, um das System zu "trainieren", das anschließend diese weniger verbreitete Art von Sprache besser erkennen soll.

Im folgenden Video seht Ihr unter anderem Dimitri Kanevsky, einen Sprachwissenschaftler, der von dieser Basis aus Englisch lernte, nachdem er als Kind in Russland taub wurde. Er benutzt bereits ein Live-Übersetzung-Programm, das mit Hilfe von Project Euphonia trainiert wurde und ihm bei der Verständigung hilft. 

Wie in dem Video zu sehen, ist es auch wichtig, die Mimik, Gestik und selbst Töne wie ein Brummen oder Schnalzen mit der Zunge erkennen zu können, um zum Beispiel bei fortgeschrittener MS Menschen weiterhin eine Möglichkeit zur Kommunikation zu geben. Der an ALS erkrankte Steve Saling nutzt zum Beispiel die Geräusch-Erkennung zur Steuerung verschiedener Smart-Home-Geräte.

Quelle: Google

Dank ist diese Seite frei von Werbebannern

3 Kommentare

Neuen Kommentar schreiben:
Alle Änderungen werden gespeichert. Änderungen werden nicht gespeichert!
Dank ist diese Seite frei von Werbebannern