Stimm-Management

Rebecca Ciesielski, Sammy Khamis, Simon Wörz: Abgehört – Über das Geschäft mit der KI-Stimmanalyse

BR für das ARD-Radiofeature, zwischen dem 4. und dem 8. Oktober 2023 auf den Kulturwellen der ARD

Seit Formen der Künstlichen Intelligenz die Bild- und Textproduktion revolutionieren, sind KI-gestützte Verfahren von Mustererkennung aus dem Fokus geraten. Doch die Maschinen lernen immer besser zuzuhören, und das Geschäft mit der KI-Stimmanalyse boomt.

Bonn (KNA) Wer bei seinem Laptop die Kamera abklebt, zeigt in der Regel eine gewisse Sensibilität gegenüber einer möglichen Videoüberwachung. Dass Mikrofone in Computern, Mobiltelefonen und sogenannten Smart Speakern wie Amazons „Alexa“, die eigentlich Smart Listener sind, ähnliche Überwachungsfunktionen erfüllen können, haben die meisten nicht auf dem Schirm. Doch mit Sprachdaten kann man oft viel mehr anfangen als mit dem, was gesprochen wird. Ein dreiköpfiges Autorenteam des Bayerischen Rundfunks – Rebecca Ciesielski, Sammy Khamis und Simon Wörz – hat für sein 51-minütiges Radiofeature „Abgehört“ (Regie: Ron Schickler) das Geschäft mit der KI-Stimmanalyse nachrecherchiert.

Amazon hat sich schon 2017 ein Verfahren zur Krankheitserkennung über Smart Speaker patentieren lassen. Doch es sind nicht nur Gesundheitsapps, die beispielsweise anhand verlangsamter Sprache neben psychischen Erkrankungen auch Alzheimer, Parkinson oder Aids diagnostizieren können sollen, für die Stimmanalysen mittels KI eingesetzt werden können. Dass totalitäre Regime diese Technik auch zur Erkennung von Homosexualität benutzen wollen, ist nur eine der dystopischen Einsatzmöglichkeiten dieser Techniken. Noch kommen verschiedene Apps zu verschiedenen Ergebnissen, und alle Einwände gegenüber einem diskriminierenden Bias der KI-Systeme durch unzureichende oder selektive Trainingsdatensätze treffen natürlich auch auf deren Stimmanalysefähigkeiten zu.

Doch die Art der Orte, an denen diese Art von KI bereits eingesetzt wird, trägt nicht zur Beruhigung bei. Die Firma 11880 Solutions, die in den 1990er Jahren durch Werbung als Telefonauskunft bekanntgeworden ist („Da werden Sie geholfen“), betreibt heute Callcenter und setzt KI-basierte Stimmanalyse-Software auch von der Firma AudEERING ein, die von Björn Schuller, Professor für Informatik in Augsburg und London, gegründet wurde.
Ziel der Analyse von 11880 Solutions sind laut der Doku nicht nur die Kunden, sondern vor allem die eigenen Mitarbeiter in den Callcentern, die das Beschwerdemanagement für andere Unternehmen übernehmen. Permanent werde überwacht, mit welcher Stimme auf die Kundenanliegen reagiert wird. Ob Mitarbeiter da in den grünen Bereich der positiven Emotionen kommen, auch wenn der Kunde im roten Bereich ist, lasse sich am Bildschirm in Echtzeit verfolgen. Im Prozentzahlen werde daraus ein Freundlichkeitsindex angezeigt. Bei einem Wert von 29 Prozent ist das Gespräch wohl eher nicht so gut gelaufen.

Der Arbeitsrechtler Peter Wedde hält eine solche Emotionsanalyse in Callcentern sowohl zulasten von Beschäftigen wie von Kunden für datenschutzrechtlich unzulässig. Weil aber bei 11880 Solutions diese Daten nicht permanent gespeichert werden, wähnt man sich dort laut der Doku auf der sicheren Seite und geht offen mit der eigenen Arbeit um. Die Mitarbeiter der Callcenter sind hingegen weniger auskunftsfreudig und reden bestenfalls vertraulich mit den Journalisten.

Andere Firmen sind noch weniger transparent. Der weltweit größte Callcenterbetreiber Teleperformance mit allein in Deutschland 2.000 Mitarbeitenden betreibt laut dem Rechercheteam zugespielten Dokumenten eine sehr engmaschige Überwachung der Kommunikation seiner Belegschaft – von der Sprechgeschwindigkeit bis zur Häufigkeit von Komplimenten. Hier geht es also neben der Leistungskontrolle nicht nur um Stimm-, sondern auch um Inhaltsanalyse. Teleperformance hat nach mehrfachen Anfragen seitens der Journalisten abgelehnt, dazu Stellung zu nehmen.

Biometrische Profile – und dazu gehören auch Stimmprofile – für Marketingzwecke werden in den USA bereits offensiv beworben. Die Techniken dahinter stammen unter anderem aus den Arsenalen der Geheimdienste. Die Kunden der Callcenter wissen nicht, dass ihre Emotionen erfasst werden, die Mitarbeitenden schon. Die Konsequenz ist, das letztere sich bemühen, ihre Stimme auf die Funktionsweise ihrer Überwachungsmaschinen abzustimmen.

Es geht also zunächst darum, die Algorithmen glücklich zu machen, nicht die Kunden. Doch es gibt nicht nur diese individuelle Ebene des Problems. Wenn sich Unternehmen das Recht herausnehmen, nicht nur die Arbeitskraft einzukaufen, sondern auch sich in der Arbeitszeit das in der Stimme hörbare Selbst anzueignen, dann ist das eine Entwicklung, die mit „Verletzung von Persönlichkeitsrechten“ nur milde beschrieben ist.

Jochen Meißner – KNA Mediendienst 12.10.2023

Sendetermine:
MDR Kultur – Mittwoch, 04. Oktober 2023, 22:00 Uhr
SWR – Freitag, 06. Oktober 2023, 15:05 Uhr
BR 2 – Samstag, 07. Oktober 2023, 13:05 Uhr
SR 2 – Samstag, 07. Oktober 2023, 09:05 Uhr
Bremen Zwei (RB) – Samstag, 07. Oktober 2023, 18:05 Uhr
NDR Info – Sonntag, 08. Oktober 2023, 11:05 Uhr
WDR 5 – Sonntag, 08. Oktober 2023, 13:04 Uhr
hr2-kultur – Sonntag, 08. Oktober 2023, 18:04 Uhr

Abgehört – Rebecca Ciesielski und Simon Wörz im Gespräch

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert

Diese Website verwendet Akismet, um Spam zu reduzieren. Erfahre mehr darüber, wie deine Kommentardaten verarbeitet werden.