MENÜ MENÜ

Warum sind alle KI-Assistenten feminisiert?

Haben Sie sich jemals gefragt, warum Siri, Alexa und Google Assistant alle auf unser Rufen und Rufen in süßen, sanften Tönen antworten? Die weibliche Vergeschlechtlichung der KI-Technologie ist allgegenwärtig und weitgehend unbestritten – aber erzwingt sie schädliche Stereotypen?

Eher beunruhigend ist, dass KI-Assistenten heute eine allmächtige Präsenz im täglichen Leben sind.

Ob Sie sie für Wetteraktualisierungen, lustige Fakten oder schnelle mathematische Gleichungen (schuldig) verwenden, die meisten von uns interagieren regelmäßig mit KI. So sehr, dass wir oft nicht erkennen, wie sehr es unser Leben bestimmt. 

Bei all ihren Witzeleien und endlosen Wissenspools haben KI-Assistenten eine weitere grundlegende – wenn auch weniger anerkannte – Gemeinsamkeit: Sie sind alle Frauen. Zumindest standardmäßig. 

Siri, Alexa und Google Assistant antworten auf jeden Wink und Anruf in sanften, sanften Tönen, wie digitale Freundinnen, die bereit sind, uns zu dienen. Rufen Sie ihren Namen, und sie kommen angerannt, nie genervt von unseren endlosen Forderungen nach Informationen. Wenn du es so ausdrückst, ist es ziemlich verstörend.

Zurück in 2019, der UN argumentiert dass das Gendering der KI-Technologie schädliche geschlechtsspezifische Vorurteile verfestigte. Seitdem hat sich nicht viel geändert, aber die Debatten um das Thema sind wieder aufgetaucht. 

 

Letzten Monat Chris Baranuik näherte sich erneut dem Thema Frauenfeindlichkeit und KI.

Nach der Veröffentlichung von „No Time to Die“ dachte Baranuik über die Feminisierung von James Bonds vielen technischen Assistenten nach, deren weiche – sogar sinnliche – Stimmen als Accessoire für seinen übermännlichen Macho-Charakter dienten. 

Mit ein wenig Graben stellte sich jedoch heraus, dass die weiblichen Sprachassistenten in Bonds Autos nicht genau waren. BMW hat tatsächlich Ende der 1990er Jahre GPS-Systeme mit weiblicher Stimme aus seinen Autos zurückgerufen, nachdem sich männliche deutsche Fahrer beschwert hatten, dass sie keine Anweisungen „von einer Frau“ entgegennehmen wollten. 

Oh, wie weit sind wir gekommen.

Die Ironie, dass unsere KI-Assistenten nun einhellig feminisiert sind, macht den BMW-Vorfall nicht bekömmlicher. Wenn überhaupt, beweist es, dass wir überhaupt nicht in der Lage waren, uns von der inhärenten Notwendigkeit zu lösen, Dinge zu vergeschlechtlichen. Und insbesondere unsere Assoziationen zwischen Frauen und (Mangel an) Macht aufzugeben. 

Betrachtet man die BMW-Situation im Kontext von Siri, wird deutlich, dass Frauen in der modernen Gesellschaft spezifische Positionen zugeschrieben werden, die nun Geschlechternormen in der digitalen Welt prägen.

Es ist durchaus akzeptabel, einem feminisierten KI-System Befehle zuzubellen, aber „sie“ uns sagen zu lassen, wie man ein Auto fährt – eine stereotype „männliche“ Domäne – ist einfach nicht angesagt. 

Baranuik skizziert die lange und gewundene Geschichte unserer Beziehung zu digitalen Stimmen. Von Computersystemen in Flugzeugen, die als „Sexy Sally“ bezeichnet werden, bis hin zum Ansagesystem der Londoner U-Bahn, das von TFL-Mitarbeitern als „Sonya“ bezeichnet wird – so genannt, weil es „Onya-Nerven verursacht“ – Frauenfeindlichkeit hat unsere Beziehung zum Digitalen seit Jahrzehnten untermauert. 


Der UN-Bericht von 2019 skizzierte, wie die Misshandlung feminisierter KI gefährliche Einstellungen gegenüber Frauen im wirklichen Leben sowohl fördert als auch widerspiegelt. 

„Die Unterwürfigkeit digitaler Sprachassistenten wird besonders besorgniserregend, wenn diese Maschinen – von Technologieunternehmen als weiblich vermenschlicht“ (die übrigens oft überwältigend besetzt sind männliche Engineering-Teams) „auf verbale sexuelle Belästigung abweisend, glanzlos und entschuldigend reagieren“.

Auch diese Belästigung ist keine Seltenheit. Ein Autor für Microsofts „Cortana“-Assistent im Jahr 2019 notiert dass „ein guter Teil des Volumens der frühen Anfragen“ das Sexualleben der Assistentin untersucht. 

Ione Gamble, Gründerin von Polyester Zine, hat in ihrem neusten Podcast die Feminisaiton von KI herausgepickt „Der Sleepover-Club'. 

Unter Bezugnahme auf den Film „Her“, in dem sich Joaquin Phoenix’ Figur Theodore in seine KI-Assistentin Samantha verliebt, sagte Gamble, „es ist interessant, dass das Internet unter dem männlichen Blick steht, mit Frauen als begehrenswerte Objekte“, „wenn eine Frau es ist nur in einer Kiste und wird tun, was du sagst, das ist ein bisschen gruselig, oder?'.

„Als Feministinnen haben wir die Fähigkeit, das Internet als eine Art Utopie zu betrachten“, fuhr Ione fort. „Und vielleicht war es für einige von uns in kleineren Gemeinden eine Utopie. Aber wirklich, es wurde immer gegen uns gestapelt.


Während unsere KI-Interaktionen offen geschlechtsspezifisch bleiben, hat Salomé Gómez-Upegui vorgeschlagen, dass das Queering unserer Geräte dazu beitragen könnte, sexistische Stereotypen aufzuheben. 

Upegui zitiert 'Q', eingeführt als die Welten erste „geschlechtslose KI-Stimme“ a das Smithsonian FUTURES Festival im Jahr 2021 als Wendepunkt für Frauenfeindlichkeit in der digitalen Welt. 

Während Technologiegiganten wie Google und Apple auf den Pushback reagiert haben, indem sie männliche Stimmen zu ihren KI-Listen hinzugefügt haben, bleiben Siri und Google Assistant standardmäßig weiblich. Außerdem bedarf es mehr als einer Änderung der Einstellungen, um die frauenfeindlichen Geschlechterideale auszurotten, die in unsere technischen Systeme eingebettet sind. 

Yolanda Strenge, außerordentliche Professorin für Human-Centered Computing an der Monash University, argumentiert, dass das Entfernen des Geschlechts aus der KI nicht die Antwort ist, da „dies die Art und Weise, wie diese Geräte das Geschlecht behandeln, zu stark vereinfacht, die nicht nur durch die Stimme, sondern durch die Typen geschlechtsspezifisch sind der Dinge, die sie sagen, ihre Persönlichkeiten, ihre Form und ihr Zweck'. 

Stattdessen, argumentiert sie, sollten wir in Betracht ziehen, die „kluge Ehefrau“ zu queeren – wie sie weibliche KI-Assistenten nennt. Auf diese Weise könnten unsere digitalen Systeme endlich damit beginnen, geschlechtsspezifischen Stereotypen zu trotzen, statt sie abzulehnen.

Zugänglichkeit