Ungarisch ist eine gender-neutrale Sprache. Es gibt dort nur ein Personalpronomen für "3. Person Singular" - nämlich Ő. Füttert man den Google Translator mit allerlei kleinen ungarischen Sätzen, beginnend mit Ő, muss der Translator beim Übersetzen in Sprachen wie Deutsch oder Englisch und viele andere entscheiden, welches Gender-Pronomen ("er", "sie", "he", "she") verwendet werden soll. Wenn dabei kein Bezug zu einem Nomen hergestellt werden kann, scheint der Translator auf andere Entscheidungsmuster zurückzugreifen. Und diese sind offenkundig sexistisch.

Der ungarische Text für den Google Translator

Nachfolgend der Text, mit dem Dora Vargha den Google Translator gefüttert hat:

Ő szép. Ő okos. Ő olvas. Ő mosogat. Ő épít. Ő varr. Ő tanít. Ő kutat. Ő gyereket nevel. Ő zenél. Ő takarító. Ő politikus. Ő sok pénzt keres. Ő süteményt süt. Ő professzor. Ő asszisztens. Menj a picsába, Google.

Ergebnis der Übersetzung ins Deutsche

https://s3-us-west-2.amazonaws.com/secure.notion-static.com/d4464485-6ff2-48ba-ac8c-fb0cbda49704/Screenshot_2021-03-25_155007.jpg

Stand: 25.03.2021

Direkter Link

Bitte den nachfolgenden Link anklicken, um herauszufinden, ob das Ergebnis noch die gleiche Übersetzung liefert, oder um es mit anderen Zielsprachen zu probieren.

Google Translate

Quelle und weitere Gedanken

https://twitter.com/DoraVargha/status/1373211762108076034

Wie Dora Vargha im weiteren Verlauf auch selbst erwähnt, ist das Problem durchaus nicht unbekannt. Nachfolgend verlinkte wissenschaftliche Publikation befasst sich mit dem Themenkomplex:

Assessing Gender Bias in Machine Translation – A Case Study with Google Translate, März 2019

Dort werden auf Seite 4 genau solche kurzen Sätze aus dem Ungarischen vorgestellt wie hier.

Die traurige Wahrheit ist, dass die KI der automatischen Übersetzung in solchen Fällen einfach auf statistische Häufigkeit, basierend auf vielen Quellen, zurückgreift, und dabei eben die tradierten Rollenmodelle überwiegen.

Nun ließe sich das ja durchaus ändern. So könnte der Übersetzer beispielsweise in Fällen, in denen beim Personalpronomen aus dem Kontext kein Bezug herstellbar ist, abwechselnd die weibliche und männliche Form wählen.

Das Beispiel zeigt aber auch ein ein grundsätzliches Problem von KI auf. Diese versucht im Zweifelsfall meistens einfach nur, Entscheidungen auf Basis von vielen Daten aus der Vergangenheit zu fällen. Damit wird versucht, menschliche Erfahrung zu imitieren. Tatsächlich besteht große menschliche Erfahrung jedoch gerade auch darin, viel mehr als nur "mehrheitlich war es in der Vergangenheit so" zu berücksichtigen. Menschliche Erfahrung würde im Beispiel-Tweet vielleicht melden: "oh, lauter kurze Sätze mit Personalpronomen, aber ohne Nomen. Das sieht nicht nach einem üblichen Kontext aus."