Suche
  • Anna

Künstliche Intelligenz im Justizwesen: Wie ein Algorithmus versucht Rückfälligkeit vorherzusagen

Aktualisiert: 20. Dez 2020




Prognosen sind in der KI-Welt sehr beliebt: Unternehmen möchten beispielsweise vorab wissen, welches Produkt wie häufig verkauft wird; in der Filmwelt wird vorhergesagt, welches Drehbuch viele Menschen in die Kinos locken wird und derzeit versucht man mittels KI den weiteren Verlauf der Covid-19 Pandemie zu prognostizieren.[i] In vielen Bereichen können solche Informationen eine enorme Hilfe sein. Aber kann ein Algorithmus kriminelles Verhalten voraussagen? Ich möchte euch eine KI-basierte Lösung namens COMPAS vorstellen, welche die Wahrscheinlichkeit für Rückfälligkeit bei Straftätern einschätzt.

COMPAS - Künstliche neuronale Netze im richterlichen Einsatz

Die Bezeichnung COMPAS ist ein Akronym und steht für „Correctional Offender Management Profiling for Alternative Sanctions“. Die Firma Equivant (zuvor Northpointe) vertreibt COMPAS als Entscheidungsunterstützungstool im Justizwesen. Es liefert Angaben zum Rückfall-Risiko von Straftätern: auf einer Skala von eins bis zehn wird bewertet, ob die oder der Angeklagte innerhalb von 24 Monaten nach Verbüßung der Strafe wieder kriminell auffällig wird. Es gibt drei Arten von Skalen: eine für das Risiko die Angekagte bzw. den Angeklagten vor Prozessbeginn auf freien Fuß zu lassen (Pretrial Release Risk Scale), eine für die allgemeine Rückfälligkeit (General Recidivism Scale) und eine für die Rückfälligkeit, bei der Gewalttaten erwartet werden (Violent Recidivism Scale). Die Richterin oder der Richter erhält vor einer Entscheidung die Information, ob die oder der Angeklagte vom Algorithmus mit einer zehn (hohes Risiko der Rückfälligkeit) oder einer eins (geringes Risiko) oder einem Wert dazwischen bewertet wird und bezieht diesen „Risk Score“ in dem Urteil mit ein. Auf der Website von Equivant findet man keinerlei Angaben darüber wie der Algorithmus aufgebaut ist.[ii] In der Sekundärliteratur ist man sich hingegen sicher, dass es sich nicht um statistische Prognose-Modelle handelt, sondern Machine Learning eingesetzt wird.[iii] COMPAS wird in einigen Staaten der USA eingesetzt, beispielsweise in Kalifornien, Wisconsin und Florida. Es ist nicht der einzige Algorithmus zur Beurteilung der Rückfälligkeit, in den USA gibt es mehrere Anbieter und akademische Eigenentwicklungen.[iv]

Datengrundlage

Wie kommt der Algorithmus nun zu seinem Ergebnis bzw. mit welchen Daten lernt COMPAS? Grundlage ist der „CORE“ Survey, der aus 137 Fragen besteht. Teilweise werden diese Fragen mittels automatisierten Datenbankabfragen beantwortet. Der größte Teil der Daten wird allerdings durch Justizbeamte während der Untersuchungshaft im Rahmen der sogenannten „Pre-Sentence Investigation“ (PSI) generiert. Die Fragen untergliedern sich in die Bereiche:

Current Charges

Criminal History

Non-Compliance

Family Criminality

Peers

Substance Abuse

Residence/Stability

Social Environment

Education

Vocation (Work)

Leisure/Recreation

Social Isolation

Criminal Personality

Anger

Criminal Attitudes

Schauen wir uns ein paar Fragen einmal konkret an. Frage 4 zielt darauf ab, ob der Angeklagte Mitglied einer Gang ist:

Based on the screener’s observations, is this person a suspected or admitted gang member?
Y / N

Der Beamte wird hier nach seiner eigenen Einschätzung gefragt, ob der Angeklagte Mitglied einer Gang ist. Das stelle ich mir, ehrlich gesagt, gar nicht so einfach vor. Wie wäre die Einschätzung von beispielsweise diesem Herrn hier, Gangmitglied oder nicht?



Es handelt sich hier um einen fiktiven Charakter, Tony Soprano, Mafiaboss in der absolut sehenswerten Serie "The Sopranos". Würde man nun erwarten, Tony sei Mitglied einer Gang, wenn er vor einem sitzen würde? Durch dieses Beispiel deutlich, dass diese Frage viele weitere Fragen aufwirft: Wie definiert man „Gang“? Gilt die Mafia als „Gang“? Was sind konkrete Merkmale, nach denen der Beamte entscheiden soll, ob die Person Gangmitglied ist oder nicht? Was konstituiert den Verdacht einer Gangmitgliedschaft?

Kann man nicht auch Gangmitglied sein, ohne kriminell zu werden? Ich denke da beispielsweise an den Koch bei den Sopranos, er hat meines Wissens lediglich ein Restaurant betrieben, in dem die Sopranos Stammgast waren. Außerdem wurden er und seine Familie gelegentlich zu Familienfeiern eingeladen oder stellen dort das Catering. Irgendwie war er verbunden mit den Sopranos (wenn auch gezwungenermaßen), aber war er tatsächlich Mitglied und war er dadurch kriminell?

Bleiben wir noch einmal bei der Mafia, nehmen wir an, diese wird als Gang angesehen. Wenn der Beamte weiß, dass es sich bei der Person um ein Mafia-Mitglied handelt, würde er sich überhaupt trauen, diese Einschätzung im Fragebogen wahrheitsgemäß anzugeben? Denn häufig sind Polizei- und Justizorgane im Machteinfluss der Mafia, belastende Angaben Einzelner können daher für diese gefährlich werden

Hier noch ein anderes Beispiel, wer kennt diese Dame?



Erneut ein fiktiver Charakter, aber das veranschaulicht die Problematik: Skyler White, Ehefrau von Walter White in der Serie "Breaking Bad". Sie ahnt zunächst nichts vom Meth-Business ihres Mannes, als sie davon erfährt fängt sie nach einer Weile an ihn zu unterstützen und übernimmt beispielsweise die Geldwäsche. Handelt es sich bei einer Familie um eine Gang? Würde die Frage für Skyler mit ja beantwortet werden?

Neben diesen Schwierigkeiten eine Gang zu definieren und eine Mitgliedschaft einzuschätzen, kommt hinzu, dass die oder der Angeklagte selbst in Frage 44 gefragt wird, ob sie oder er ein Gangmitglied ist:

Are you now a gang member?
Y / N

Hier ist nun die Frage, ob der Fragebogen vom Angeklagten im gleichen Level wahrheitsgemäß beantwortet werden muss wie eine Befragung unter Eid vor Gericht. Wenn dies der Fall ist, dann würde durch diese Frage die Mitgliedschaft einer Gang beantwortet werden und Frage 4 wäre hinfällig.

Schauen wir uns nun Frage 7 sowie Frage 33 und 34 an:


How many times has this person been arrested before as an adult or juvenile?

Was your father (or father figure who principally raised you) ever arrested, that you know of?
Y / N
Was your mother (or mother figure who principally raised you) ever arrested, that you know of?
Y / N

Frage 7 wird automatisiert durch eine Datenbankabfrage beantwortet. Frage 33 und 34 wird vom Angeklagten beantwortet. Die Theorie dahinter ist deutlich: je häufiger der Angeklagte oder dessen Eltern verhaftet wurden, desto wahrscheinlicher wird eine Rückfälligkeit. Ein höherer Score ist die Folge. Nun ist es aber insbesondere in den USA so, dass die Wahrscheinlichkeit verhaftet zu werden für bestimmte ethnische Gruppen höher ist. Hierfür gibt es diverse Studien, die dies belegen. Eine davon trägt den Titel „Demographic Patterns of Cumulative Arrest Prevalence by Ages 18 and 23“ von Ray Paternoster et al. aus dem Jahr 2014. Sie belegen, dass die Wahrscheinlichkeit als 23-jähriger Afro-Amerikaner bereits verhaftet worden zu sein signifikant höher ist als die Wahrscheinlichkeit für weiße Gleichaltrige (49% zu 38%).[v] Professor Paternoster sagt hierzu:

“These findings are troublesome because they show that a large proportion of young males, particularly African-American males, will carry the stigma of an arrest. What makes this so problematic is that the repercussions will be manifested throughout their adult years as youth with arrest histories—even if the arrest does not result in a conviction—will find it difficult to find full-time and adequately paying employment, and without adequate employment they do not make attractive marriage partners.”[vi]

Wer also eine Verhaftung im Lebenslauf aufweist, hat neben vielen negativen Folgen auch einen höheren COMPAS-Score und kann dadurch mit einer höheren Haftstrafe rechnen - selbst wenn die Verhaftung nicht zu einer Verurteilung geführt hat.

Ein anderer Report untersuchte einfache Verkehrskontrollen. Zur Vergleichbarkeit wurden gleiche Anteile von weißen, hispanic und schwarzen Verkehrsteilnehmern angehalten. Weiße erhielten deutlich häufiger lediglich eine Warnung als Schwarze oder Hispanic (27% zu jeweils 18%). Gleichzeitig wurden die Autos von Schwarzen und Hispanics beinahe drei Mal häufiger durchsucht. Außerdem wurden Schwarze und Hispanics drei Mal häufiger Handschellen angelegt und ebenfalls wurden sie drei Mal häufiger verhaftet als Weiße.[vii]

Wer möchte kann sich den „CORE“ Survey und die anderen Fragen anschauen, hier der Link.

Wie genau prognostiziert COMPAS Rückfälligkeit?

Fraglich ist nun, mit welcher Genauigkeit der Algorithmus auf Grundlage der Daten des Fragebogens Vorhersagen treffen kann. Hierfür wurden unterschiedliche Studien durchgeführt, darunter die von ProPublica aus dem Jahr 2016. Was an deren Untersuchung positiv hervorzuheben ist, dass alles nachvollziehbar und detailliert auf Github dokumentiert ist. Als Grundlage dienen Daten von knapp 10.000 Angeklagten, die zwei Jahre vor Untersuchungsbeginn in Florida verurteilt wurden und für die ein COMPAS-Score vorliegt. Nach einer ersten Bereinigung bleiben knapp 6100 Datensätze übrig. Ein erster Vergleich der Verteilung des allgemeinen Rückfälligkeits-Score (General Recidivism Scale) zwischen Afro-Amerikanern und weißen Amerikanern zeigt bereits ein interessantes Bild:



Während in ersterer Gruppe eine relative Gleichverteilung der Score-Skalierung vorliegt, erkennt man bei der Gruppe der Weißen schnell, dass diese signifikant häufiger mit dem niedrigsten Score bewertet werden. Die Autoren führen nun eine logistische Regression durch, um zu erfahren, ob COMPAS ethnische Zugehörigkeit tatsächlich unterschiedlich bewertet. Das Ergebnis: Schwarze Angeklagte erhalten mit 45% höherer Wahrscheinlichkeit eine höhere Punktzahl als weiße Angeklagte, wenn es sich um dieselben Straftaten und dieselbe Anzahl vorheriger Verhaftungen handelt. Frauen erhalten außerdem zu knapp 20% einen höheren Score als Männer. Auch bei der Rückfälligkeit, bei der Gewalttaten erwartet werden (Violent Recidivism Scale), kommen die Autoren zu dem Ergebnis, dass der Score bei schwarzen Angeklagten zu 77% überbewertet wird verglichen mit weißen Angeklagten.

Um die Vorhersagegenauigkeit von COMPAS zu beurteilen, führen die Autoren ein Cox Proportional Hazards Model durch, welches auch vom Hersteller Equivant zur Validierung genutzt wurde. In Bezug auf die Violent Recidivism Scale ist es für schwarze Angeklagte doppelt so wahrscheinlich, dass sie inkorrekt einen hohen Score erhalten als für weiße Angeklagte. Gleichzeitig haben weiße Angeklagte eine 63% hohe Wahrscheinlichkeit einen niedrigen Score zu erhalten und dennoch (gewalttätig) rückfällig zu werden als Schwarze. Erstaunlich ist auch der Geschlechterunterschied, den COMPAS macht: bei gleicher Datengrundlage erhalten Frauen signifikant häufiger einen hohen Score als Männer.

Equivant hat die Ergebnisse von ProPublica und deren Methodologie kritisiert. Das Think Tank „Community Resources for Justice“ hat die Untersuchung ebenfalls kritisiert, unter anderem dafür, dass Zusammenhänge zwischen ethnischer Zugehörigkeit und dem COMPAS-Score interpretiert werden, die statistisch nicht nachvollziehbar sind. Es gäbe stattdessen Standardverfahren um zu testen, ob ein Bias vorhanden ist. Zusätzlich hätte es Verzerrungen bei Klassifizierungen gegeben. Ihre eigene Untersuchungen ergeben, dass weder bei dem allgemeinen, noch bei dem Score, der gewaltsame Rückfälligkeit prognostiziert, ein diskriminierender Bias bestehen würde.[viii]

Was man hieran erkennt ist, wie einflussreich Statistik sein kann. Zwei unterschiedliche Studien, zwei unterschiedliche Methoden, eine mit dem Ergebnis, dass der Algorithmus rassistisch und sexistisch ist, und die andere mit dem Ergebnis, dass die Ergebnisse und Prognosen fair sind. Das zeigt wie wichtig es ist, statistische Verfahren verstehen und anwenden zu können und welche Macht hier hinter liegt. Den statistischen Deep Dive in die Verfahren, die in diesen Studien zum Einsatz kamen, sparen wir uns für einen anderen Beitrag und belassen es erst einmal an dieser Stelle mit schlichter Verblüffung.

Es gibt daneben noch weitere Studien über COMPAS, die kurz angesprochen werden sollen. In einer Untersuchung von Julia Dressel und Hany Farid zeigen die Autoren, dass Vorhersagen von Personen, die über keinerlei juristische Fachkenntnisse verfügen, genauso präzise die Rückfälligkeit vorhersagen können wie COMPAS.[ix] Die Autoren zeigen weiterhin, dass dieselbe Vorhersage-Genauigkeit mit nur zwei Features (Alter und Anzahl vorheriger Verhaftungen) erzielt werden kann statt mit der Auswertung der 137 Fragen.[x]

In einer anderen Studie von Tim Brennan, William Dieterich und Beate Ehret wird ebenfalls das Cox Proportional Hazards Model angewendet, das auch bei ProPublica zum Einsatz kam. Sie nutzen knapp 2300 Datensätze und kommen wie die „Community Resources for Justice“ zu dem Ergebnis, dass COMPAS weder gegenüber ethnischer Zugehörigkeit noch gegenüber Geschlecht diskiminiert.[xi]

Christina Wadsworth, Francesca Vera und Chris Piech erkennen eine Diskriminierung gegenüber schwarzen Angeklagten an und zeigen in ihrem Paper, wie man ein künstliches neuronales Netz in einer Art trainieren kann, um diesen Bias zu reduzieren.[xii]

COMPAS und das Recht auf ein faires Verfahren

Sieht die Richterin oder der Richter eine zehn, ist der oder dem Angeklagten nicht nur eine Haftstrafe sicher, sie wird auch einen langen Zeitraum umfassen, denn die Richterin oder der Richter möchte die Gesellschaft vor weiteren Straftaten der / des Angeklagten schützen und laut COMPAS sind diese ja zu erwarten. Eric Loomis wurde deshalb für das Führen eines Fahrzeugs ohne Einwilligung des Besitzers und versuchte Flucht vor der Polizei zu 11 Jahren Haft verurteilt. Für Loomis hatte COMPAS sowohl eine allgemein hohe Rückfallwahrscheinlichkeit als auch eine hohe Gewaltbereitschaft prognostiziert. Daher hat der Richter sich für diese auch in den USA verhältnismäßig hohe Strafe entschieden, obwohl Loomis im Verfahren keine Handlungen nachgewiesen werden konnten.[xiii] Da man keine Einsicht hat, wie COMPAS den Score berechnet, kann man auch das Ergebnis nicht nachvollziehen. Loomis hat vor verschiedenen Gerichtsinstanzen geklagt mit der Begründung, sein Recht auf ein faires Verfahren (Due Process) sei verletzt worden. Der Wisconsin Supreme Court entschied, dass COMPAS eingesetzt werden kann, allerdings mit einer Einschränkung. Wenn der Richter den Score sieht, soll ebenfalls eine Warnung angezeigt werden, die über die mögliche Fehlprognose informiert.[xiv] Der oberste Gerichtshof der USA, der US Supreme Court, lehnte es ab den Fall anzuhören.

Einsatz von KI im Justizwesen in Deutschland

Da die Gerichte in Deutschland, insbesondere im Strafrecht, nicht unerheblich überlastet sind, werden solche Entwicklungen, wie der Einsatz eines Prognose-Tools, genau beobachtet. Komplett automatisierte strafgerichtliche Entscheidungen werden aber kritisch gesehen, denn diese würden höchstwahrscheinlich rechtsstaatliche Prinzipien verletzen.

Professor Christian Djeffal hat einen interessanten Gedankengang bezüglich eines solchen Tools: Man könnte es für die Aus- und Weiterbildung von Richterinnen und Richtern nutzen. Diese könnten mit historischen Datensätzen selbst Aussagen über die Rückfall-Wahrscheinlichkeit treffen und würden vom Algorithmus direkt Feedback erhalten. Er führt weiter aus:


„Ein System, das über die Rückfallwahrscheinlichkeit von Straftätern entscheidet, kann in Ermangelung einer Rechtsgrundlage in Deutschland nicht verwendet werden. Allerdings werden ähnliche Systeme in der Verwaltung bereits eingesetzt: bei der Kasse Hamburg zum Erkennen prüfwürdiger Fälle im Hinblick auf Betrug, beim Zoll zur Ressourcenallokation, in der Polizeiarbeit zur Planung von Streifen wegen der Gefahr von Einbruchsdiebstählen oder in der Finanzverwaltung zur Aussteuerung prüfwürdiger Steuererklärungen.“[xv]

Final Words

Nach Aussage des Herstellers Equivant liegt die sogenannte Accuracy von COMPAS bei 70%. Das heißt, 70% der Personen, die mit einer hohen Wahrscheinlichkeit rückfällig zu werden eingeschätzt werden, tun dies auch tatsächlich. Die Studie von ProPublica ergab einen Wert von 61% und eine andere Studie kam auf 65%.[xv]

Mir stellt sich bei diesen Werten die Frage, inwiefern ein Algorithmus mit einer solch relativ niedrigen Genauigkeit überhaupt eingesetzt werden sollte bei einer Fragestellung, in der es um die Zukunft eines Menschenlebens geht. Eine 70%-ige Genauigkeit bedeutet im Umkehrschluss, dass 30% der Angeklagten einen hohen Score erhalten, obwohl sie nicht rückfällig werden, das ist immerhin fast jede oder jeder Dritte! Die Frage nach der Sinnhaftigkeit eines solchen Algorithmus beantwortet Professor Kristian Kersting wie folgt:


„Das ist die entscheidende Frage. Zum einen wollen wir aus unseren ethischen und moralischen Ansprüchen nicht, dass Maschinen über das Schicksal von Menschen bestimmen. Das ist auch richtig so. Wir wollen aber generell nicht, dass Menschen diskriminiert werden. Auch nicht durch Menschen. Das ist eine Zwickmühle, die nur im interdisziplinären Diskurs gelöst werden kann. [...] Wir müssen vermeiden, dass Diskriminierung fortschreitet. Wenn Maschinen dabei helfen können, ist das ein große Chance für die Gesellschaft. Aber eben kontrolliert. Und die Maschinen sollten aus meiner Sicht deutlich besser sein als der Mensch, gerade in einem so sensiblen Bereich wie der Vorhersage von Rückfallwahrscheinlichkeiten.“[xv]

Beim Einsatz von COMPAS für die Einschätzung der Rückfallwahrscheinlichkeit kann es ganz offensichtlich passieren, dass Menschen fälschlicherweise einen hohen Score erhalten. In der Folge erhalten sie eine höhere Strafe. Die Maschine richtet in dem Moment einen Schaden an, ohne die Einschätzung von COMPAS hätte die Person eine geringere Strafe erhalten. Meiner Meinung nach ist der Einsatz eines solchen Systems gerechtfertigt, wenn ein falsches Ergebnis keinen Schaden anrichtet, aber ein korrektes Ergebnis eine große Hilfestellung für den Entscheidungsprozess ist.

Ein Beispiel hierfür ist die Nutzung von KI um versteckte Gräber aufzudecken: Gewalt im Zusammenhang mit Drogenkartellen hat in Mexiko zu Tausenden von Todesfällen geführt. Im September 2019 gaben mexikanische Regierungsbeamte bekannt, dass sie seit 2006 über 3000 versteckte Gräber und fast 5000 Leichen entdeckt hätten. Die non-profit Organisation Human Rights Data Analysis Group (HRDAG) arbeitet mit mexikanischen Ermittlern zusammen, um mit KI-basierten Algorithmen mit überraschender Genauigkeit vorherzusagen, wo Gräber versteckt sein könnten.[xvi] Das Beispiel zeigt, dass KI eine große Hilfe in strafrechtlichen Verfahren sein kann. In diesem Fall gilt jedoch, dass eine falsche Vorhersage des Algorithmus keinen Schaden anrichtet. Das Grab wird in dem Fall schlicht nicht gefunden.

Der Podcast "Linear Digressions", der leider vor Kurzem eingestellt wurde, geht in einer Folge im Detail auf die Nutzung von COMPAS ein. Wer noch tiefer in das Thema einsteigen möchte, kann dort reinhören.


[i] Mindquare vermarktet beispielsweise ein Produkt zur Vorhersage des Bedarfs in den einzelnen Filialen eines Unternehmens: https://mindsquare.de/ki-use-case-sortimentsplanung-im-lager/; das Entertainment Technology Center, welches mit den großen Hollywood-Studios kooperiert, hat ein KI-basiertes Produkt namens "Corto" entwickelt, welches in der Lage sein soll, den Erfolg eines Films vorherzusagen: https://www.br.de/kuenstliche-intelligenz/so-setzt-hollywood-auf-kuenstliche-intelligenz-machine-learning-100.html; der Europarat hat 2019 ein ad-hoc Komitee mit Fokus auf KI gegründet, welches unter anderem in künstlicher Intelligenz eine Möglichkeit sieht die Covid-19 Pandemie zu kontrollieren und den weiteren Verlauf vorherzusagen: https://www.coe.int/en/web/artificial-intelligence/ai-und-kontrolle-des-covid-19-coronavirus.

[ii] Equivante (2020): Our Products. Northpointe Suite Risk Need Assessments. URL: https://www.equivant.com/northpointe-risk-need-assessments/. [iii] Siehe bspw. Peter-Michael Ziegler (2017): Im Namen des Algorithmus. Wenn Software Haftstrafen verhängt. URL: https://www.heise.de/select/ct/2017/25/1512700333136715 oder Annie Dike (2017): Would you trust an artificially-intelligent expert? URL: https://www.natlawreview.com/article/would-you-trust-artificially-intelligent-expert.

[iv] Jeff Larson, Surya Mattu, Lauren Kirchner and Julia Angwin (2016): How We Analyzed the COMPAS Recidivism Algorithm. URL: https://www.propublica.org/article/how-we-analyzed-the-compas-recidivism-algorithm.

[v] Robert Brame, Shawn D. Bushway, Ray Paternoster, Michael G. Turner (2014): Demographic Patterns of Cumulative Arrest Prevalence by Ages 18 and 23. URL: https://journals.sagepub.com/doi/pdf/10.1177/0011128713514801.

[vi] University of Maryland (2014): Study: Nearly Half of Black Males, 40 Percent of White Males Arrested by 23. URL: https://bsos.umd.edu/featured-content/study-nearly-half-black-males.

[vii] Black Demographics (2017): African Americans & Crime. URL: https://blackdemographics.com/culture/crime/.c

[viii] Anthony W. Flores, Christopher T. Lowenkamp, Kristin Bechtel (2015): False Positives, False Negatives, and False Analyses: A Rejoinder to “Machine Bias: There’s Software Used Across the Country to Predict Future Criminals. And it’s Biased Against Blacks.” URL: http://www.crj.org/assets/2017/07/9_Machine_bias_rejoinder.pdf.

[ix] Ed Yong (2018): A Popular Algorithm Is No Better at Predicting Crimes Than Random People. URL: https://www.theatlantic.com/technology/archive/2018/01/equivant-compas-algorithm/550646/. [x] Julia Dressel, Hany Farid (2018): The accuracy, fairness, and limits of predicting recidivism. URL: https://advances.sciencemag.org/content/4/1/eaao5580. [xi] Tim Brennan, William Dieterich, Beate Ehret (2009): Evaluating the predictive validity of the COMPAS Risk and Needs Assessment System. URL:

https://www.researchgate.net/publication/242249206_Evaluating_the_predictive_validity_of_the_COMPAS_Risk_and_Needs_Assessment_System. [xii] Christina Wadsworth, Francesca Vera, Chris Piech (2018): Achieving Fairness through Adversarial Learning: an Application to Recidivism Prediction. URL: https://arxiv.org/pdf/1807.00199.pdf. [xiii] Peter-Michael Ziegler (2017): Im Namen des Algorithmus. Wenn Software Haftstrafen verhängt. URL: https://www.heise.de/select/ct/2017/25/1512700333136715.


[xiv] Supreme Court of the United States (2017): Loomis v. Wisconsin. URL: https://www.scotusblog.com/case-files/cases/loomis-v-wisconsin/.

[xv] Science Media Center Germany (2020): Genauigkeit von Algorithmen bei Vorhersage für Risiko von Rückfallkriminalität. URL: https://www.sciencemediacenter.de/alle-angebote/research-in-context/details/news/genauigkeit-von-algorithmen-bei-vorhersage-fuer-risiko-von-rueckfallkriminalitaet/. [xvi] Emma Talley (2020): Researcher cautions against use of AI in criminal justice system. URL: https://www.stanforddaily.com/2020/02/25/researcher-cautions-against-use-of-ai-in-criminal-justice-system/#:~:text=A%20researcher%20warned%20against%20the,at%20a%20talk%20on%20Monday.&text=Price%20said%20the%20data%20used,crimes%20the%20police%20know%20about.

 
  • LinkedIn - Schwarzer Kreis
  • Twitter

©2020 Neurona.