Suche
  • Anna & Marlene

Woman of the Month Januar 2021: Timnit Gebru

Aktualisiert: Jan 19

Die Januar-Ausgabe unserer Rubrik "Woman of the Month" haben wir dieses Mal etwas anders gestaltet. Statt eines Interviews haben wir ein Portrait erstellt von einer Frau, deren Name kürzlich durch die Medien ging: Dr. Timnit Gebru. Wir haben uns für Timnit entschieden, weil sie sowohl eine afro-amerikanische Frau ist, die im Bereich KI arbeitet und einen interessanten Werdegang aufweist, als auch weil wir die Hintergründe ihrer Medienpräsenz - ihre überraschende Kündigung bei Google als KI-Ethikforscherin - beleuchten und analysieren möchten.

Eigene Illustration; inspiriert von diesem und diesem Foto.


Erste Schritte: Von Äthiopien nach Stanford


Dr. Timnit Gebru wurde Anfang der 1980er Jahre in Addis Abeba geboren. Ihre Eltern stammen beide aus Eritrea, weshalb sie während des äthiopisch-eritreischen Krieges von Zwangsdeportation bedroht war und mit 15 Jahren aus Äthiopien fliehen musste. Sie erhielt schließlich politisches Asyl in den Vereinigten Staaten. Dort promovierte sie einige Jahre später in Computer Science am Stanford Artificial Intelligence Laboratory bei Professor Fei-Fei Li. Während ihres Studiums arbeitete sie bei Apple und unterstützte bei der Entwicklung von signalverarbeitenden Algorithmen für das erste iPad. In ihrer Promotion kombinierte sie Deep Learning mit Daten von Google Street View, um zu zeigen, dass sozio-ökonomische Attribute wie Wahlverhalten, Einkommen oder Bildung aus Beobachtungen von Autos abgeleitet werden können. Wenn es in einem Stadtvierteil beispielsweise mehr Pick Ups als Limousinen gibt, ist es wahrscheinlicher, dass die republikanische Partei dort die meisten Stimmen erhält. Timnit hat hierzu gemeinsam mit weiteren Autoren auch ein Paper veröffentlicht. Für die Arbeit wurden über 15 Millionen Bilder aus 200 US-amerikanischen Städten analysiert. Über die Ergebnisse wurde unter anderem in der New York Times, der BBC oder The Economist berichtet.


Post-Doc Tätigkeit bei Microsoft und soziales Engagement


Nach ihrer Promotion arbeitete Timnit als Postdoc bei Microsoft Research in New York City. Sie war dort beteiligt an dem Projekt FATE: Fairness Transparency Accountability and Ethics in AI. Ihre Forschung konzentrierte sich auf algorithmische Verzerrungen und deren ethische Implikationen. 2018 publizierte sie gemeinsam mit Joy Buolamwini (Gründerin der Algorithmic Justice League) das Paper Gender Shades: Intersectional Accuracy Disparities in Commercial Gender Classification, in dem die Autorinnen nachweisen, dass kommerzielle Systeme der Gesichtserkennung Menschen mit dunkler Hautfarbe sowie Frauen signifikant schlechter erkennen als männliche Menschen mit heller Haut.

Timnit ist außerdem Mitbegründerin von Black in AI, einer Organisation, die die Zusammenarbeit fördert und Initiativen diskutiert, um die Repräsentanz von Schwarzen im Bereich der künstlichen Intelligenz zu erhöhen.


Timnit bei Google: Der ethisch vertretbare Einsatz von KI


Timnit war seit 2018 als KI-Ethikforscherin Co-Leiterin des Ethical AI Intelligence Teams von Google AI. Diese KI-Abteilung wurde 2017 von Google's CEO Sundar Pichai eingerichtet. Dort werden primär cloud-basierte TPUs (Tensor Processing Units) bereitgestellt, die wiederum als Grundlage für maschinelles Lernen genutzt werden können. Auf der sogenannten TensorFlow Research Cloud werden Forscher:innen Cluster mit 1000 solcher Units zur Verfügung gestellt, mit denen sie arbeiten können. Die einzige Bedingung dabei ist, dass sie ihre Forschungserkenntnisse in einer Fachzeitschrift publizieren müssen, nachdem diese einer Peer-Review unterzogen wurden. Davon abgesehen wird bei Google AI aber noch an unzähligen weiteren Projekten gearbeitet, beispielsweise an speziellen KIs für Musiker und Künstler, neuartigen Prozessoren oder der Weiterentwicklung von Tensorflow.

Timnit hatte nun also eine Forschungsarbeit geschrieben, die sie veröffentlichen wollte. Nachdem ihre Vorgesetzten ablehnten, schickte sie eine Nachricht an eine interne Mailingliste, in der sie ihre Frustration zum Ausdruck brachte.

"There is no way more documents or more conversations will achieve anything. We just had a Black research all hands with such an emotional show of exasperation. Do you know what happened since? Silencing in the most fundamental way possible."
"But now there’s an additional layer saying any privileged person can decide that they don’t want your paper out with zero conversation. So you’re blocked from adding your voice to the research community."

(Die gesamte Email könnt ihr hier nachlesen.)


Ein paar Tage später wurde Timnit gefeuert. Google fand die E-Mail angeblich "unvereinbar mit den Erwartungen an einen Google-Manager". Sie nutzte Twitter, um ihren Unmut über die Entscheidung kundzutun. Offenbar hatte sie dem Management mitgeteilt, dass gewisse Bedingungen erfüllt werden müssen, damit sie weiter an dem Paper arbeiten würde und drohte andernfalls mit einer Kündigung. Die Verantwortlichen nahmen sie beim Wort - und kündigten sie. Jeff Dean, Leiter von Google AI, schickte als Reaktion auf Timnits Nachricht ebenfalls eine interne Rundmail in der er erklärte, dass die Forschungsarbeit diverse Kriterien nicht erfüllt hatte, die üblicherweise bei den oben erwähnten Peer-Reviews entscheidend sind. (Diese Antwort könnt ihr ebenfalls hier lesen.)

Online argumentieren viele führende KI-Ethik-Expertinnen und Experten, dass das Unternehmen sie wegen der unbequemen Wahrheit ihrer Forschungsarbeit entlassen habe. Mehr als 1.400 Google-Mitarbeiter und 1.900 andere Unterstützer haben einen Protestbrief unterzeichnet.


Worum ging es in der Forschungsarbeit?


On the Dangers of Stochastic Parrots: Can Language Models Be Too Big? ist der Titel der Arbeit. Der Text legt die Risiken von großen Sprachmodellen dar - KIs, die auf schwindelerregenden Mengen von Textdaten trainiert werden. Timnit und ihre Co-Autoren bauen dabei auf den Arbeiten anderer Forscher auf, erläutern die Geschichte von Natural-Language Processing, aber zeigen eben vor allem die vier Hauptrisiken großer Sprachmodelle auf. Im Anschluss daran stellen sie verschiedene Änderungsvorschläge vor.


Das erste Risiko ist der CO2-Fußabdruck der großen Sprachmodelle, der seit 2017 konstant wächst: Mittlerweile wird mehr CO2 ausgestoßen für die Computer der Sprachmodelle als beispielsweise von allen US-amerikanischen Autos pro Jahr. Das Training einer Version des Google-Sprachmodells BERT, das der Suchmaschine des Unternehmens zugrunde liegt, verursachte nach Schätzung der zitierten Forschung 1438 Pfund CO2 - fast so viel wie ein Hin- und Rückflug zwischen New York City und San Francisco - und das pro Durchlauf! Diese Modelle werden jedoch in der Realität unzählige Male durchgespielt. Auch die finanziellen Kosten sind immens. Timnit weist daher in ihrem Paper darauf hin, dass das Bauen und Trainieren großer KI-Modelle so aufwendig und teuer ist, dass sie tendenziell eher wohlhabenden Organisationen zugute kommen, während der Klimawandel marginalisierte Gemeinschaften am härtesten trifft. Sie fordert einen leichteren Zugang für finanziell Schwächere sowie eine wesentlich stärkere Berücksichtigung von Umweltfaktoren.


Das zweite benannte Risiko sind die Daten, mit denen diese Modelle gefüttert werden. Zum einen sei es nahezu unmöglich, die Modelle ohne jegliche Vorurteile zu füllen, da sie mit einer unendlichen Menge an Texten aus dem Internet trainiert werden, die - natürlich - sehr oft rassistischer oder sexistischer Natur sind. Bewegungen wie MeToo und Black Lives Matter versuchten einen neuen Umgang mit diesen Themen (nicht nur linguistisch) zu etablieren. Die großen Datenmengen, die die Modelle bekommen, können allerdings kaum repräsentativ diesen sozialen Wandel unterstützen. Und natürlich ist auch hier der Zugang problematisch, in dem Sinne, dass Länder und Gebiete, in denen die Menschen weniger Internetverfügbarkeit besitzen, weniger in den Datenmengen repräsentiert werden können - sodass auch hier erneut die Sprachmodelle eigentlich primär wohlhabenden und überrepräsentierten Gruppen zugute kommen. Die Größe der Datenmengen ist auch deswegen problematisch, weil diese so groß sind, dass sie kaum in ihrer Gänze überwacht und dokumentiert werden können - sodass die Modelle häufig mit nicht überprüften Daten ausgestattet sind.


Das dritte Risiko besteht in der Herangehensweise an die Modelle. Allgemeinhin ist bekannt, dass Sprachmodelle Sprache nicht verstehen können, sondern sie lediglich manipulieren bzw. nachahmen. Das Paper fordert mehr Einsatz der Forschung dafür, die Modelle verständnisvoller zu machen und sie mit weniger, dafür jedoch präziseren Daten auszustatten - das würde ja auch den hohen Kosten sowie CO2-Emissionen entgegen wirken.


Das letzte Risiko ist die gesellschaftliche Gefahr der Sprachmodelle. Sie können missbraucht werden und falsche Informationen verbreiten; seien es falsche Tatsachen über COVID-19 oder politische Wahlen. Auch Übersetzungen bergen Gefahren, beispielsweise als Facebook einen Post eines palästinensischen Mannes fälschlicherweise mit "Attackiert sie" ins Hebräische übersetzte, obwohl er auf Arabisch lediglich "Guten Morgen" geschrieben hatte. Es endete mit seiner Verhaftung.


Was also deutlich wird: Die Größenordnung nimmt Ausmaße an, in der die Daten kaum mehr kontrolliert werden können. Natürlich bringen Sprachmodelle unendlich viele Vorteile mit sich - damit diese aber auch in Zukunft gewissenhaft genutzt werden können, sollte eben auch über die möglichen Nachteile gesprochen werden, um sämtliche Risikofaktoren nachhaltig gering zu halten.


Und jetzt?


Timnit hat seither nicht viele Interviews gegeben, aber eins immer wieder deutlich gemacht: Der Kampf ist nicht vorbei, allerdings ist ihr Bestreben, wieder für ein so großes Unternehmen zu arbeiten, mittlerweile sehr geschrumpft. Hier sind zwei gute, relativ aktuelle Interviews mit ihr: Klick & Klick. Außerdem wird das Paper wohl doch noch veröffentlicht.

Der öffentliche Aufschrei nach ihrer Kündigung war groß. Timnits Entlassung verursachte unter anderem auch, dass Google-Mitarbeiter nun ihre eigene Gewerkschaft gründeten, die Alphabet Workers Union (AWU). Das ist die erste Gewerkschaft einer großen TechFirma! Ihnen geht es zwar nicht klassisch um Lohnerhöhungen oder Urlaubstage, jedoch um etwas mindestens gleichermaßen Bedeutsames, nämlich das moralisch korrekte Handeln des TechGiganten. Sie waren es auch, die die Unterschriftenliste für Timnit organisiert haben.


Bedeutung der Debatte um eine ethische Nutzung von KI


Was die ganze Debatte deutlich macht, ist: Das jetzige System - wenngleich so viele davon auf viele verschiedene Arten profitieren - hat so viele Gefahrenquellen inhärent, dass der damit generierte Fortschritt nicht der beste für die weltweite Wissenschaft ist.

Was passiert ist, verdeutlicht die immense einseitige Macht von TechUnternehmen, die unsere Welt und unser Leben so maßgeblich gestalten, ohne auch nur das Geringste an Kritik berücksichtigen zu müssen.


Dr. Timnit Gebru wurde eingestellt, um GoogleAI ethischer zu machen. Jetzt musste sie gehen, weil sie darauf hinwies, was dafür passieren muss. Das letzte "Wort" hat sie: schaut euch gerne nachfolgend ihren supertollen Ted Talk von 2018 an, in dem sie u.a. auf das Gender Shades Paper eingeht.