Bei meiner Recherche zu dem Thema Künstliche Intelligenz und Stereotype (Vorurteile) stand die menschliche Sprache als Datenmaterial im Mittelpunkt.
Maschinelles Lernen hat jedoch zwei wichtige Elemente:
- das Datenmaterial (z.B. Sprache)
- die Programmierenden
Und mit beidem befasst sich die Algorithmic Justice League (AJL):
- AJL -ALGORITHMIC JUSTICE LEAGUE (ajlunited.org)
Stichworte des Projektes sind: the coded gaze, algorithmic bias, unfairness, exclusion
Ziel des Projektes ist, den Einzug von Stereotypen und Vorurteilen (Sexismus und Rassismus) in KIs zu vermeiden.
Die Gründerin des Projektes Joy Buolamwini stellt das Projekt und die Hintergründe, die dazu führten, in einem ca. 9-minütigem TED-Video vor (deutsche Untertitel sind zuschaltbar):
Inclusive Coding (inklusives Programmieren) = Incoding
Joy Buolamwini betont bei dem Konzept des Incoding, des Inclusive-Coding, dem Inklusiven Programmieren, drei Dinge:
- Who codes matters
- How we code matters
- Why we code matters
Ich sehe darin die Forderung nach mehr Diversität und Ethik. Transparente Algorithmen gehören für mich dazu!
Auf newscientist.com liest Du von 5 Fällen, die von Diskriminierung durch Algorithmen handeln:
- Discriminating algorithms: 5 times AI showed prejudice (newscientist.com)
Eine Sammlung mit Artikeln mit weiteren Beispielen (auch: age, beauty) findest Du bei diversity.ai unter dem Menüpunkt ‹Press about us›:
- diversity.ai: In media (diversity.ai)
Vielleicht auch lesen werde ich dann bald das Buch:
- Weapons of Math Destruction (wikipedia.org)