Verzerrungen in der Sprache: Gibt es Gender Bias in der industriellen Sprachverarbeitung?

Gender Bias und Bias im Allgemeinen spielen eine zunehmende Rolle in der Sprachverarbeitung. KIs lernen mit riesigen Datenmengen Assoziationen über die verschiedensten Dinge – und übernehmen damit auch bestehende Vorurteile und Rollenklischees. Dr. Alessandra Zarcone erklärt im Interview, ob es Gender Bias auch in der industriellen Sprachverarbeitung gibt, inwiefern sie sich selbst mit der Thematik beschäftigt und ob sich das Fraunhofer IIS mit diesem Problem auseinandersetzt.

Als Senior Scientist sind Sie in der Maschinellen Sprachverarbeitung tätig. Woran arbeiten Sie dort genau?

Ich bin für Data Acquisition Management zuständig. Im Team kümmern wir uns darum, dass die KI-Module der Sprachassistenten aus qualitativ guten, hochwertigen Daten lernen können. Typischerweise geht es dabei um Sprachassistenten für industrielle Anwendungsfälle im deutschsprachigen Raum.

Die Sprachassistenten müssen die Anliegen der Anwender korrekt verarbeiten. Und dazu brauchen sie sogenannte Trainingsdaten. Die Trainingsdaten zeigen dem Sprachassistenten, welche Sätze, Befehle oder Fragen er erwarten kann. Ein Modul der Sprachassistenz, oder allgemein ein Modul der maschinellen Sprachverarbeitung – das kann auch eine automatische Übersetzung sein – kann Sprache nur so gut verstehen und verarbeiten, wie die Beispiele, die es schon gesehen hat.

Wie sind Sie auf das Thema Gender Bias in der Sprachverarbeitung gekommen?

Gender Bias in der maschinellen Sprachverarbeitung ist schon seit einigen Jahren ein Thema. Es geht dabei nicht nur um Unterschiede zwischen Frauen und Männern, sondern um die Vielfalt allgemein. Für mich persönlich hat Vielfalt eine sehr starke Bedeutung. In der täglichen Arbeitspraxis finde ich es wichtig, dass wir eine diverse Arbeitsumgebung haben. Wenn man beispielsweise nur eine Perspektive zur Verfügung hat, kann man vielleicht nicht merken, dass ein Sprachassistent biased ist.

Ist Gender Bias überhaupt relevant in der industriellen Sprachverarbeitung?

Die Sprache ist natürlich ein Produkt der Kultur. Wenn man ungefiltert eine riesige Menge Daten z.B. aus Internetforen oder sozialen Medien sammeln und für die Sprachverarbeitung benutzen würde, dann würden die Modelle aus diesen Daten auch Rollenklischees übernehmen. Das könnte also beispielsweise zu Gender Bias in der maschinellen Sprachverarbeitung führen.

In industriellen Anwendungsfällen geht es allerdings typischerweise eher um Gegenstände, Prozesse, Kundenrollen. Unsere Herausforderung ist es, eine gute Sprachassistenten-Technologie zu entwickeln, bei der man nicht so viele Daten braucht. Gender Bias kann man finden, wenn man mit riesigen Datenmengen arbeitet, die automatisiert und unkontrolliert gesammelt wurden - und wenn die Daten eher domainunspezifisch sind. Aber in spezifischeren Anwendungsfällen ist das eher selten.

In unserer alltäglichen Arbeit geht es also weniger um Gender Bias, aber allgemein möchten wir schon auch unerwünschten Bias vermeiden. Auch wenn wir bei industriellen Anwendungsfällen noch keine Erfahrungen mit Gender Bias gemacht haben, schauen wir doch aufmerksam auf die Daten und achten darauf, dass die Daten qualitativ hochwertig sind – dieses Prinzip kann man für jede Form von Bias nutzen. 

Ist das Fraunhofer IIS also sensibilisiert in diese Richtung?

Ja, auf alle Fälle. Bei Fraunhofer gibt es Richtlinien, z.B. die Kommunikationsrichtlinien für die gendergerechte Sprache. Das ist wichtig, das gehört zur allgemeinen Kultur von Fraunhofer. Wenn man dadurch schon sensibilisiert ist, kann man Problemfälle im Voraus ausmachen und in Zukunft einfacher erkennen und schließlich vermeiden. 

Allgemein macht man sich in der Sprachverarbeitung aber schon Gedanken darüber?

Bei der Sprachverarbeitung legen wir immer mehr Wert darauf, dass die KI für unseren Sprachassistenten mit gendergerechten Daten trainiert werden. Hier haben die Forschenden also schon ein gutes Bewusstsein und Strategien, mit der Problematik umzugehen. Beispielsweise ist es uns auch bewusst, dass es Studien gibt, die für eine neutrale Stimme in der Sprachverarbeitung plädieren. Letztlich muss allerdings das uns beauftragende Unternehmen entscheiden, ob sie eine weibliche Stimme haben möchten, eine männliche Stimme, beides oder etwas Neutrales. Wir liefern Technologiekomponenten auf Basis der Kundenanforderungen und keine Endprodukte.

Persönlich beschäftige ich mich sehr gerne und oft mit dem Thema. Beim Girls‘Day am Fraunhofer IIS engagieren wir uns für mehr Diversität in den MINT-Fächern. Dort habe ich beispielsweise eine Präsentation über Gender Bias gehalten, bei der ich den Schülerinnen erklärt habe, was es damit auf sich hat. Es ist wichtig, dass man schon früh über solche Dinge Bescheid weiß. Verzerrungen zementieren Vorurteile. Mir ist es ein Anliegen, dass jeder sein Leben nach eigenen Interessen und Fähigkeiten formen kann – und dabei nicht durch falsche Rollenbilder aufgehalten wird.

Infobox Gender Bias

Gender Bias

Als Gender Bias oder geschlechtsbezogenen Verzerrungseffekt bezeichnet man in der wissenschaftlichen Forschung eine Verzerrung der Wirklichkeit durch Formulierungen, gedankliche Annahmen oder statistische Fehler, die zu falschen Darstellungen der tatsächlichen geschlechtsspezifischen Verhältnisse führt. In der Wissenschaft wird das Gender Bias vor allem untersucht, um die ungleiche Behandlung von Mann und Frau offen zu legen, wobei Männer von impliziten Rollenzuschreibungen genauso betroffen sind wie Frauen.

Quelle: https://lexikon.stangl.eu/30369/gender-bias

 

Beispiel Machine Learning

Eine Maschine wird mit tausenden Bildern und ihren zugehörigen Beschreibungen gespeist. Die Maschine lernt die Muster, die in diesen Bildern enthalten sind. Bilder von Köch:innen zum Beispiel zeigen sehr häufig Frauen, die zuhause, und Männer, die in einem Restaurant kochen. Nachdem sie die Bilder ausgewertet hat, geht sie davon aus, dass Kochen im heimischen Kontext eine Tätigkeit ist, die überwiegend von Frauen ausgeführt wird. Zeigt man ihr darauf Bilder von Männern beim heimischen Kochen, geht sie davon aus, dass eine Frau zu sehen ist. Zeigt man ihr aber ein Bild, in dem das Kochen offensichtlich in einem beruflich-professionellen Kontext ausgeführt wird, geht sie von einem Mann aus.

Quelle: Zhao et al. (2017). Men also like Shopping (Proceedings of EMNLP)

Kontakt

Sie haben Fragen, Kommentare oder Anmerkungen zum Fraunhofer IIS Magazin?

Schreiben Sie uns eine E-Mail.

Immer informiert

Der Newsletter zum Magazin

Abonnieren Sie den Newsletter des Fraunhofer IIS Magazins und erhalten Sie alle neuen Themen kompakt per Mail.

Startseite

Zurück zur Startseite des Fraunhofer IIS Magazins