Sa., 23.05.20 | 16:00 Uhr
Das Erste
Spracherkennung: Smarte Assistenten - Freund oder Feind?
Sprachassistenten reagieren auf Befehle, um uns im Alltag zu helfen. Doch in Zukunft sollen sie an unserer Stimme Krankheiten, Wünsche und Emotionen erkennen. Der Beginn einer wunderbaren Freundschaft?
Sprachassistent der perfekte Begleiter?
Wer wünscht sich das nicht? Jemanden an seiner Seite zu wissen, der immer für einen da ist. Der weiß, was uns bewegt und was wir gerade am dringendsten brauchen. Jemanden, der ein angenehmer Gesprächspartner ist, der auf unsere Gesundheit achtet, der uns quasi in- und auswendig kennt. Noch ist das Zukunftsmusik: Der Sprachassistent als vielleicht bester Freund des Menschen. Die heutigen Sprachassistenzsysteme stellen zwar eine Vielzahl an Funktionen bereit, die ihren Benutzern das Leben leichter machen – von der Terminplanung über Navigation, Smart-Home- und Gerätesteuerung und vieles mehr. Andererseits fungieren sie bisher lediglich als Befehlsempfänger und Antwortgeber, die in ihrer Kommunikationsfähigkeit stark limitiert sind. Erwartbare Fragen und Befehle, wie nach dem Wetter fragen, die Order das Licht ein- und auszuschalten, können sehr gut bearbeitet werden. Was die Sprachsysteme nicht gut können, ist locker zu plaudern und damit in eine natürliche verbale Interaktion mit dem Benutzer zu treten. Doch trotz dieser Einschränkungen beobachten Wissenschaftler bereits jetzt, dass es menschelt zwischen Benutzer und Maschine.
Sprachassistenten beeinflussen unsere Emotionen
Prof. Nicole Krämer untersucht an der Universität Duisburg-Essen, wie Sprachassistenten unsere Emotionen beeinflussen: "Dass wir sozial reagieren, wird eigentlich relativ einfach ausgelöst", erklärt sie. "Ein ganz wichtiges Element, haben verschiedene Studien gezeigt, ist die Sprache. Dann wird automatisch das wachgerufen, was wir in uns haben, nämlich diese natürliche Fähigkeit zur Kommunikation und sozial mit anderen zu interagieren", so die Sozialpsychologin. Testpersonen zeigten beispielsweise Höflichkeitsverhalten gegenüber den sprechenden Maschinen oder sie versuchten den Maschinen gegenüber, einen guten Eindruck zu machen. Ganz so wie das in der Interaktion mit anderen Menschen vorkommt.
Kennzeichnend dabei war, dass den Versuchspersonen ihr eigenes Verhalten nicht bewusst war und es sogar von ihnen geleugnet wurde. Sind wir beeinflussbar, ohne es zu merken? Und könnte dieser Umstand ausgenutzt werden? Besonders unter der Annahme, dass sich mit zunehmender Interaktionsfähigkeit der Sprachassistenten, auch die Bindung vom Menschen zur Maschine intensivieren wird?
Machine Learning: besseres Funktionieren des Sprachassistenten
Eine entscheidende Rolle bei der Weiterentwicklung der modernen Sprachassistenten ist der Einsatz von Künstlicher Intelligenz. Mittels sogenanntem Machine Learning wird dabei versucht, aus großen Datenmengen Muster herauszulesen, die dann ein besseres Funktionieren des Sprachassistenten ermöglichen sollen. Die Daten gewinnen Unternehmen wie Google, Apple, Microsoft und Amazon dadurch, dass die Benutzer ihre Maschinen mit Sprachbefehlen füttern. Es wird dann, zum Teil auch mit menschlicher Hilfe, analysiert, welche Anfragen die Benutzer stellen. So können die Sprachassistenten darauf trainiert werden, diese Anfragen besser zu verstehen und darauf zielgerichtet zu antworten.
Ein Problem, das sich beim Sammeln von Daten ergibt, ist, dass die Benutzer keinen Einfluss darauf haben, wie ihre Daten verwendet und wie lange sie gespeichert werden. "Daten, die irgendwo gespeichert sein können, wecken immer Begehrlichkeiten. Auch Krankenkassen könnten sich natürlich für Daten darüber, in wie weit der Sprachassistent Depressionsneigungen bei jemandem anscheinend erkannt hat, interessieren", erklärt Prof. Nicole Krämer. Tarife könnten dann angepasst werden. Aber auch eine Änderung von politischen Systemen könnte zu einem Missbrauch der Daten führen.
Krankheiten und Stimmung der Nutzer erkennen
Wohin also geht die Reise in Zukunft? Eine Patentbewilligung in den USA, ausgestellt im Jahr 2018 an Amazon, könnte ein Fingerzeig sein. Dort wird beschrieben, wie mittels Spracherkennung Krankheiten und die Stimmung der Nutzer erkannt werden können. Alexa erkennt also körperliche und seelische Zustände von Menschen anhand von Stimmanalyse und der Erfassung von Umgebungsgeräuschen wie Husten, Schnupfen oder Schluchzen. Ist Alexa der Meinung, dass ihr Benutzer, krank, verstimmt oder depressiv ist, kümmert sie sich. Dem Nutzer werden dann beiläufig Produktvorschläge unterbreitet und bei Zustimmung über Amazon geliefert. Amazon ließ offen, ob das Patent jemals in eine konkrete Anwendung umgesetzt wird. "Die Chancen in der Entwicklung von Sprachassistenten sind die Services, die es heutzutage schon bietet zu verbessern. Aber aus ethischer Sicht muss man sich fragen, können diese unbewussten sozialen Reaktionen, die wir beobachten, ausgenutzt werden", sagt Prof. Nicole Krämer.
Aufgrund der noch sehr jungen und sich in ständiger Weiterentwicklung befindlichen Technologie fehlen bisher Langzeitstudien. Ob Alexa und Co Assistenten bleiben oder doch irgendwann wie Freunde wahrgenommen werden, wird erst die Zukunft zeigen.
Autor: Markus Plawszewski (SWR)
Stand: 25.09.2020 18:26 Uhr