KIs erste Gebärde
Sarah Ebling entwickelt ein automatisches Übersetzungssystem für Gebärdensprachen. Dabei legt sie Wert darauf, die Nutzer*innen in die Forschung einzubeziehen.
Als ich vor über zehn Jahren im Bereich Sprachtechnologie und Barrierefreiheit zu forschen begann, war das Thema wie ein Elefant im Raum: Kaum jemand wollte sich damit beschäftigen – obwohl das Potenzial von sprachbasierter unterstützender Technologie damals schon offensichtlich war. Das hat mich über mein linguistisches Interesse hinaus motiviert, an einem automatischen Übersetzungssystem für Gebärdensprachen zu forschen. Seither hat sich vieles getan, KI-Ansätze sind „sexy“ geworden. Das hat aber nicht nur Vorteile: Es kommt vor, dass Forschungsgruppen aus lauter Technologiebegeisterung nicht mit den Nutzer*innen zusammenarbeiten und Technologien entwickeln, die ihnen gar nichts bringen.
So haben Forscher*innen beispielsweise einen Handschuh erfunden, der die Signale der Handbewegungen beim Gebärden zum Übersetzen an ein Smartphone schickt. Aber Gebärdensprache funktioniert nicht nur über die Hände, sondern auch über andere Körperteile, zum Beispiel Gesichts-ausdrücke. Zudem ist so ein Handschuh nicht gerade alltagstauglich. Doch wenn diese Forschungsergebnisse in den Nachrichten stehen, werden Entscheidungsträger*innen darauf aufmerksam und glauben, dass sie menschliche Übersetzer*innen und Dolmetscher*innen durch Computersysteme ersetzen können.
Auch ich erhalte wöchentlich verzweifelte E-Mails und Anrufe von Behörden, die Informationen in Gebärdensprache verfügbar machen wollen und dafür eine automatisierte Lösung suchen. Daran sehe ich, dass ein politischer Wandel stattfindet. Dieser wurde angeregt, als die Schweiz 2014 die UNO-Behindertenrechtskonvention unterschrieben hat und 2022 ein vernichtendes Urteil einkassieren musste, weil sie die Richtlinien kaum eingehalten hat.
Dem System fehlen die Daten
Doch leider muss ich die hilfesuchenden Behörden enttäuschen, da unsere Technologie noch lange nicht breit einsatzbereit ist. Im Vergleich zu den Lautsprachtechnologien liegen die Gebärdensprachtechnologien sicher fünf Jahre zurück. Ein Problem sind die fehlenden Daten: Wir haben wesentlich weniger Aufzeichnungen von Gebärdensprachen als von Lautsprachen. Wir bräuchten aber besonders viele Daten, um die KI-Systeme richtig trainieren zu können, weil Gebärdensprachen so variantenreich sind. Das zweite Problem ist natürlich, dass bisher weit weniger Gelder in deren Technologie-Forschung geflossen sind.
Einen ersten Erfolg konnten wir schon mit von KI übersetzten
Wetterberichten verbuchen. Diese sind einfacher für die KI, weil sie syntaktisch und lexikalisch relativ restringiert sind. Allerdings ist das für die meisten Gehörlosen keine grosse Hilfe – Untertitel und Bilder reichen bei einem Wetterbericht meistens aus – doch es ist definitiv ein Schritt in die richtige Richtung.
Soeben haben wir den neuen Imagefilm der Philosophischen Fakultät von einer Dolmetscherin in Gebärdensprache übersetzen und mit Audio-deskription und Untertiteln versehen lassen. Aber sämtliche Informationen durchgehend durch menschliche Dolmetschende zugänglich zu machen, ist schlicht unmöglich. Deshalb forsche ich an Technologien, die dort eingesetzt werden können, wo menschliche Dienstleistungen nicht vorhanden sind. Mein Ziel ist, dass wir mit Technologie mehr gesellschaftliche Partizipation ermöglichen können.