Suche
  • Anna

Scientist <-- Male: 95.7%

Aktualisiert: 20. Dez 2020




Genderfy reiht sich ein in die Liste von KI-Anwendungen, die ganz offensichtlich diskriminieren und mit fragwürdigen Daten trainiert wurden. Die Anwendung der Firma sollte anhand des Namens oder der Email-Adresse eines Nutzers das Geschlecht der Person identifizieren. Folgende Ergebnisse lieferte der Algorithmus:


Meghan Smith:

Female: 60.4%, Male: 39.6%


Dr. Meghan Smith

Female: 24.1%, Male: 75.9%


Nurse

Female: 91.7%, Male: 8.3%


Test@test.com

Female: 3.1%, Male: 96.9%


Scientist

Female: 4.3%, Male: 95.7%


Professor

Female: 1.6%, Male: 98.4%


Stupid

Female: 61.7%, Male: 38.3%


Vielen Nutzern fiel der Bias schnell auf und das Echo in den sozialen Medien war derart groß, dass das Unternehmen die Anwendung direkt wieder offline stellte.


Mehr zu dem Thema hier:

https://syncedreview.com/2020/07/30/ai-powered-genderify-platform-shut-down-after-bias-based-backlash/


hier:

https://www.theverge.com/2020/7/29/21346310/ai-service-gender-verification-identification-genderify


und hier eine Reaktion von Emil Hvitfeldt:

https://emilhvitfeldt.github.io/genderify/.


 
  • LinkedIn - Schwarzer Kreis
  • Twitter

©2020 Neurona.