Suche
  • Anna

Book Review: An Artificial Revolution von Ivana Bartoletti



Wer ist Ivana Bartoletti?


Motiviert durch ihre Mutter, die eine überzeugte Feministin war, wuchs Ivana als "political animal" auf. Mit 19 Jahren war sie bereits Vorsitzende der größten Studierendengewerkschaft Italiens. Danach arbeitete sie unter anderem in der Regierung Romano Prodi in Italien als politische Beraterin des Menschenrechtsministers. Nachdem sie für eine längere Zeit in der Politik gearbeitet hatte, beschloss sie im Jahr 2008 nach London zu migrieren:


"If we are gonna change the way we are in the world, and to have more respect towards each other, I always thought this country [the UK] is at the forefront for change. [In Italy] people stay in politics for decades. [But in Britain,] things change very quickly. The country’s dynamic is fast and is upbeat. That's why I thought this is the place to be if you want to make a difference but also to contribute intellectual thinking because this is the place can absorb that kind of contribution." [1]

In London war sie in den folgenden Jahren in den Bereichen Data Protection und Privacy für England's National Health Service (NHS), SKY, Barclays und Gemserv tätig. Seit 2020 ist sie technische Direktorin im Bereich Privacy und Digital Ethics bei Deloitte. Sie ist außerdem Visiting Policy Fellow am Oxford Internet Institute und eine anerkannte Vordenkerin auf dem Gebiet der verantwortungsvollen Technologie. Sie unterstützt Organisationen und Unternehmen bei den datenschutzrechtlichen und ethischen Herausforderungen im Zusammenhang mit künstlicher Intelligenz und Big Data. Im Mai 2018 gründete sie das internationale Netzwerk Women Leading in AI, im Rahmen dessen setzen sich einflussreiche Frauen der Branche für einen verantwortungsvollen Umgang mit KI ein. Im Jahr 2019 erhielt sie den Cyber Security Award als "Frau des Jahres" als Anerkennung für ihren Einsatz für Gleichberechtigung, Datenschutz und Ethik von Technologien und speziell von KI. Ivana wird außerdem häufig als Expertin und Konferenzrednerin von britischen und europäischen Medien eingeladen. Ihr aktuelles Buch "An Artificial Revolution: on Power, Politics and AI" möchte ich euch hier kurz vorstellen.


Die fünf Kernaussagen des Buches


  1. Technik und Daten sind nicht neutral. In ihnen spiegelt sich die Wahrnehmung der verantwortlichen Menschen wider.

  2. Algorithmen agieren als Filter der Realität. Sie entscheiden darüber, was wir sehen bzw. was wir nicht sehen sollen. Es ist entscheidend, dass wir die Kontrolle über unsere Gedanken und Entscheidungen zurückgewinnen.

  3. Privatsphäre ist kein individuelles, sondern ein kollektives Gut. Sie sollte definiert werden als das Recht, den eigenen Lebensweg zu verfolgen ohne die Einmischung von Algorithmen.

  4. Technologie muss für alle von Nutzen sein und darf nicht die Diskriminierung bestimmter Gruppen in der Gesellschaft verstärken.

  5. Es ist an der Zeit, das Vertrauen in neue Technologien wiederherzustellen, indem Transparenz und Rechenschaftsmechanismen geschaffen werden. [2]


Die Kosten von KI


Ivana beschreibt in ihrem Buch ausführlich, dass Daten nicht neutral sind, sondern intrinsisch politisch. Welche Daten gesammelt und welche ignoriert werden ist immer eine politische Entscheidung. Somit sind auch alle auf KI basierenden Produkte Ergebnis dieser politischen Entscheidungen. Daten würden außerdem nicht nur soziale Hierarchien reflektieren, vielmehr führt sie aus:


"Data does not simply reflect society as it is, it also embeds those power structures into every corner of our lives by coding them into machines. These machines are increasingly 'softwaring' us out: they make decisions for us, shaping our lives and defining what we can and cannot see. They might determine whether we can be hired, whether we can secure a loan from a bank or receive government benefits, or if we should be placed on an at-risk register, with all that that might entail."

Ivana erwähnt einige Male, dass sie nicht per se gegen künstliche Intelligenz sei. Sie sieht in der Technologie auch viel Potenzial für eine positive Entwicklung. Allerdings sei diese momentan weniger zu beobachten. Sie stellt hier einen Vergleich zur Atomenergie an, welche der Gesellschaft zwar hohe Mengen an Strom liefert, aber gleichzeitig immense Gefahren in sich birgt, welche es abzuwägen gilt.


Als eine der Kosten und Gefahren durch KI beschreibt sie beispielsweise die sogenannten Klickarbeiter. Um Maschinen trainieren zu können, müssen in der Regel zunächst Daten von Menschen entsprechend vorbereitet werden. Im medizinischen Bereich gibt es etwa Arbeiter, die sich den ganzen Tag Videos von Darmspiegelungen anschauen und falls in den Bildaufnahmen Polypen zu erkennen sind, diese mit einem Lasso markieren. Dadurch versteht die Maschine später, nach was sie suchen muss. Um Medien mit gewaltsamen und/oder pornographischen Inhalten aus den großen sozialen Medien herauszufiltern, muss eine KI auch diese als solche identifizieren können. Hierfür sind weltweit Klickarbeiter im Einsatz, die für einen geringen Lohn täglich Videos und Bilder mit extremer Gewalt und/oder gewaltsamer Pornographie anschauen und bewerten. Viele dieser Arbeiter berichten über posttraumatische Belastungsstörungen, chronische Schlaflosigkeit, Panikattacken und Angstzustände. Diese Mitarbeiter werden teilweise auch als "Ghost Worker"bezeichnet, weil die großen Tech Konzerne nur ungern über diese Arbeiter sprechen und keine Informationen bereitstellen.


Voreingenomme Daten


Natürlich erwähnt Ivana auch das Problem der Verzerrung, besser bekannt als Bias. Sie unterscheidet in Anlehnung an Evanna Hu drei Typen von Bias:


  1. Pre-existing Bias: Ein Bias, der direkt durch existierende Daten entsteht und zurückzuführen ist auf soziale Institutionen, kulturelle Praktiken und persönliche Einstellungen. Als Beispiel erwähnt sie ein neuronales Netz, welches auf Grundlage von Google News trainiert wurde und auf folgende Frage: "man = computer programmer, woman = x" das Ergebnis "x = homemaker" lieferte.

  2. Technical Bias: Dieser Bias ergibt sich aus der Art und Weise, wie sowohl Hardware als auch Software oder IT-Systeme konzipiert sind. Als Beispiel führt sie eine KI auf, welche vorhersagen soll, welche Eltern ihre Kinder in Zukunft wahrscheinlich misshandeln werden. Hierbei wurden jedoch nur Daten von Eltern genutzt, welche an staatlichen Förderprogrammen teilgenommen hatten. Die KI verwechselte daher "parenting while poor" mit "poor parenting".

  3. Emerging Bias: Dieser Bias entsteht entweder durch die Art und Weise, wie Menschen ein technologisches Produkt nutzen, oder es entsteht im Laufe der Zeit nach der Einführung des Produkts. Sie führt hier als Beispiel den Chatbot Tay von Microsoft auf, welcher durch Konversationen in sozialen Medien lernen sollte und daraufhin innerhalb kürzester Zeit rassistische und sexistische Aussagen machte.


Feminismus und Technologien


In einer weiteren Analyse führt sie aus, welche Zusammenhänge zwischen Populismus, Anti-Feminismus und Technologien vorhanden sind. Sie erinnert daran, dass männliche Gewalt eine ebenso schwerwiegende Ursache für Tod und Arbeitsunfähigkeit von Frauen weltweit ist wie Krebs, noch vor Malaria, Verkehrsunfällen und Krieg. Sie erwähnt die (leider) allseits bekannten Aussagen von Trump ("grab 'em by the pussy" etc.) oder die Aussage von Brasiliens Präsident Bolsonaro zu einer Abgeordneten: "I would never rape you because you do not deserve it". Ivana führt aus, dass soziale Medien zwar nicht die Ursache für dieses Problem seien, jedoch ein wirksames und hilfreiches Tool um Hass, Fake News und Desinformation in die Welt zu bringen. Insbesondere Populisten verbreiten hierdurch die Ansicht, die Entwicklung der Geschlechter zurückzuführen zu einem Zustand der (absoluten) Patriarchie, in der sich das Leben der Frauen ausschließlich im Haushalt abspielt und in der Frauen wenig bis keine Kontrolle über ihre eigene Sexualität und Fruchtbarkeit haben. KI-gesteuerte Werbung auf Facebook leistet einen Beitrag in der Verbreitung dieser Ansichten: 63% der Werbe-Links in Bezug zu Abtreibungsnachrichten stammen von rechtsradikalen Quellen und führen zu Fake News über Abtreibungen.


Existieren noch klare Fakten?


Ein weiterer Punkt, den sie analysiert, ist die Personalisierung und wie durch diese demokratische Prozesse gefährdet sind:


"Democratic viability requires the ability, the obligation, to discuss what is a shared truth around facts - but does that still exist?!"

Sie führt aus, dass Netflix 13 unterschiedliche Profile entwickelt hat, um personalisierte Empfehlungen abzugeben. Dies erscheint einerseits wenig, wenn man bedenkt wie hoch die Nutzerzahlen von Netflix sind. Anderseits wirkt die Zahl aber auch niedrig, wenn man sie mit anderen Anwendungsszenarien vergleicht. Das kanadische Unternehmen AggregateIQ hat 1.433 Profile entwickelt, um Bürger:Innen im Rahmen des Brexit Votums zu beeinflussen, beauftragt von der Vote Leave Kampagne. Die ausgewählten Nachrichten wurden passend zugeschnitten auf die Vorstellungen und Sorgen der Facebook Nutzer. AggregateIQ ist außerdem verbunden mit Cambridge Analytica in Form von Service Agreements und Intellectual Property Agreements.


Insgesamt lässt sich das Buch mit seinen knapp 80 Seiten gut und schnell lesen. Es regt zum Nachdenken an und analysiert vor allem die Aspekte von künstlicher Intelligenz, die im öffentlichen Diskurs häufig nicht angesprochen werden.

 
  • LinkedIn - Schwarzer Kreis
  • Twitter

©2020 Neurona.