Suche
  • Anna

Part Two: Auswirkungen künstlicher Intelligenz auf Frauen

Aktualisiert: 20. Dez 2020


Welche Auswirkungen KI auf Wirtschaft und Gesellschaft hat, wurde im ersten Teil dargestellt. Heute wollen wir uns anschauen, welchen Einfluss die fortschreitende Entwicklung von KI auf Frauen hat.





Einer Erhebung von Bitkom zufolge gibt es in Deutschland circa 170 KI-Professuren. Davon sind 23 von Frauen besetzt.[i] Der Anteil an Publikationen, bei denen zumindest eine Frau mitgewirkt hat, liegt bei circa 25 %.[ii] In der Wissenschaft sind Frauen somit deutlich unterrepräsentiert. In der Wirtschaft sieht es nicht viel anders aus. Nur 16 % der KI-Fachkräfte sind in Deutschland weiblich.[iii] Und lediglich 28 % aller Startups weltweit haben zumindest eine Frau im Gründungsteam.[iv]

Politische Entscheidungsträger steuern die Entwicklung von KI, indem sie Anreizsysteme schaffen, Gelder verteilen oder rechtliche Grundlagen schaffen. Aber: nur 24,3% der Parlamentsmandate weltweit sind von Frauen besetzt; es gibt 11 Staaten, in denen eine Frau Staatsoberhaupt ist und 12 Staaten, in denen eine Frau Regierungsoberhaupt ist.[v]

Diese geringe Mitwirkung von Frauen an der Entwicklung von KI hat leider negative Folgen für Frauen, denn ihre Perspektive fehlt bei der Auswahl der Daten, beim Trainieren der künstlichen neuronalen Netze, beim Testen und vor allem beim kritischen Hinterfragen. Ginzinger et al. kommen in ihrer Studie zu dem Ergebnis, dass eine ausgewogene Repräsentation von Frauen und Männern im KI-Bereich zwar kein Allheilmittel ist, aber die Wahrscheinlichkeit von Voreingenommenheit und (un-)bewusster Diskriminierung zumindest reduziert wird.[vi]

Beispiele von diskriminierenden Algorithmen finden sich bei einer Studie von Carsten Orwat. Er listet insgesamt 47 Beispiele auf, darunter die Folgenden:

  • Von 2014 bis 2017 hatte Amazon ein System im Einsatz, welches online zugängliche Lebensläufe bewertete und als Grundlage für Personalentscheidungen diente. Dieses System wertete beispielsweise Notationen wie "women's" herab und wurde insgesamt als nicht geschlechtsneutral eingestuft. Das Netz hatte mit Lebensläufen der Belegschaft trainiert, welche größtenteils von Männern stammten.

  • Das Dänische Institut für Menschenrechte klagt derzeit gegen mehrere Unternehmen, welche die Differenzierungsmöglichkeit von Facebook genutzt haben, um selektive Stellenanzeigen nur für Männer anzuzeigen.

  • Auch in Amerika klagten Kanzleien und Bürgerrechtsorganisationen gegen selektive Stellenanzeigen. Unternehmen nutzten hierbei die "lookalike audience" Funktion von Facebook. Sie übergaben Facebook Listen ihrer besten Mitarbeiter und Facebook wiederum gab den Unternehmen Listen mit Profilen, die ähnliche Eigenschaften aufwiesen, zurück. Facebook hat sich zwischenzeitlich verpflichtet, Stellenanzeigen separat und für alle zugänglich zu schalten.

  • Studien über Bildersuche nach bestimmten Jobs zeigen ebenfalls einen deutlichen Bias: Sucht man beispielsweise nach "Doktor", werden Männer deutlich häufiger angezeigt als Frauen, welches in keiner Weise der tatsächlichen Verteilung entspricht. Dies gilt auch für andere Berufszweige. Es wurde außerdem gezeigt, dass sich nicht nur die Bildhäufigkeit unterscheidet, sondern auch die Qualität, die bei Stereotypen als höher wahrgenommen wurde.

  • Beim Natural Language Processing kommt es regelmäßig zur Bestätigung von Stereotypen und auch zu falschen Übersetzungen.[vii]

Ein weiteres Beispiel, welches ein relativ höheres mediales Echo erfuhr, ist das der Apple Card. Zwei IT-Experten hatten berichtet, dass ihre Ehefrauen bei fast identischen Rahmenbedingungen bei der neuen Kreditkarte von Apple einen bis zu 20 Mal kleineren Kreditrahmen eingeräumt bekamen.[viii]


In der Zusammenfassung bedeutet dies: durch weniger Frauen in der KI-Forschung wird auch weniger über für Frauen relevante Themen geforscht. Dies ist insbesondere im medizinischen Bereich relevant, denn KI kann hier beispielsweise helfen, Krankheiten frühzeitig zu erkennen. Ein geringer Frauenanteil in der freien Wirtschaft führt zu Produkten, die diskriminieren, wie etwa der Lebenslauf-Algorithmus von Amazon oder die Apple Card. Wenige weibliche Politikerinnen (mit Fokus auf KI) führen zu geringerem Support für die Erhöhung des Frauenanteils.

[i] Bitkom (2020): KI-Forschung in Deutschland | Übersicht über KI-Professuren. Online verfügbar unter https://www.bitkom.org/ki/forschung#:~:text=In%20der%20Bundesrepublik%20Deutschland%20sind,festen%20Bestandteilen%20der%20Informatik%20geh%C3%B6rt.


[ii] Yuan, Yuan (2020): Exploring Gender Imbalance in AI: Numbers, Trends, and Discussions. Online verfügbar unter https://syncedreview.com/2020/03/13/exploring-gender-imbalance-in-ai-numbers-trends-and-discussions/.


[iii] World Economic Forum 2018: Assessing Gender Gaps in Artificial Intelligence. URL: http://reports.weforum.org/global-gender-gap-report-2018/assessing-gender-gaps-in-artificial-intelligence/.


[iv] Yuan, Yuan (2020): Exploring Gender Imbalance in AI: Numbers, Trends, and Discussions. Online verfügbar unter https://syncedreview.com/2020/03/13/exploring-gender-imbalance-in-ai-numbers-trends-and-discussions/.


[v] LBBW (2020): Ist Künstliche Intelligenz frauenfeindlich?. Online verfügbar unter https://www.lbbw.de/artikelseite/maerkte-verstehen/frauen-in-der-techbranche_aaffrrrvyd_d.html.


[vi] Ginzinger et al. (2019): Algorithmen: Rassistisch und sexistisch? Online verfügbar unter https://www.lbbw.de/1-perspektiven/2019/maerkte-verstehen/19-11-ki-frauenfeindlich/lbbw-blickpunkt_ist_ki_frauenfeindlich_aagjde7dr9_m.pdf.


[vii] Carsten Orwat (2019): Diskriminierungsrisiken durch Verwendung von Algorithmen. Online verfügbar unter https://www.antidiskriminierungsstelle.de/SharedDocs/Downloads/DE/publikationen/Expertisen/Studie_Diskriminierungsrisiken_durch_Verwendung_von_Algorithmen.pdf?__blob=publicationFile&v=5.


[viii] Alexandra Geese (2019): Wie künstliche Intelligenz die Berufswahl von Frauen beeinflusst. Online verfügbar unter https://equalcareday.de/wie-ki-bewufswahl-von-frauen-beeinflusst/.