Plattformkapitalismus

Der Überwachungskapitalismus hat mich an den Plattformkapitalismus erinnert. Laut Wikipedia von Sascha Lobo 2014 als Deutungsrahmen (frame) in Umlauf gebracht.

Bravo!

Schön, dass auf wikipedia direkt der Artikel verlinkt ist, in dem Sascha Lobo den Samen für eine andere Sichtweise (Deutungsrahmen) der Sillicon-Valley-Realitäten in meinem Kopf gesäht hat.

«Was man Sharing-Ökonomie nennt, ist nur ein Aspekt einer viel größeren Entwicklung, einer neuen Form des digitalen Kapitalismus: Plattform-Kapitalismus.» (Sascha Lobo, spiegelonline.de)

Künstliche Intelligenz (KI) & Inklusives Programmieren (Incoding)

Bei meiner Recherche zu dem Thema Künstliche Intelligenz und Stereotype (Vorurteile) stand die menschliche Sprache als Datenmaterial im Mittelpunkt.

Maschinelles Lernen hat jedoch zwei wichtige Elemente:

  1. das Datenmaterial (z.B. Sprache)
  2. die Programmierenden

Und mit beidem befasst sich die Algorithmic Justice League (AJL):

Stichworte des Projektes sind: the coded gaze, algorithmic bias, unfairness, exclusion

Ziel des Projektes ist, den Einzug von Stereotypen und Vorurteilen (Sexismus und Rassismus) in KIs zu vermeiden.

Die Gründerin des Projektes Joy Buolamwini stellt das Projekt und die Hintergründe, die dazu führten, in einem ca. 9-minütigem TED-Video vor (deutsche Untertitel sind zuschaltbar):

Inclusive Coding (inklusives Programmieren) = Incoding

Joy Buolamwini betont bei dem Konzept des Incoding, des Inclusive-Coding, dem Inklusiven Programmieren, drei Dinge:

  • Who codes matters
  • How we code matters
  • Why we code matters

Ich sehe darin die Forderung nach mehr Diversität und Ethik. Transparente Algorithmen gehören für mich dazu!

Auf newscientist.com liest Du von 5 Fällen, die von Diskriminierung durch Algorithmen handeln:

Eine Sammlung mit Artikeln mit weiteren Beispielen (auch: age, beauty) findest Du bei diversity.ai  unter dem Menüpunkt ‹Press about us›:

Vielleicht auch lesen werde ich dann bald das Buch:

 

Formulae for gender neutral word embedding

Sprache & künstliche Intelligenz = Stereotype

«PS: In jetziger Zeit kommt hinzu, dass wir unsere sprachliche Unkorrektheit an künstliche Intelligenzen weitergeben! Siehe z.B. auf Englisch, sciencemag.org: Even artificial intelligence can acquire biases against race and gender» (inklusiv korrekt positiv: bewusst kommunizieren, Kapitel Signalwörter: das generische Maskulinum)

Im eBook hat es nur für eine Fußnote gereicht. Jetzt hatte ich Zeit, mich mit diesem spannenden Thema zu beschäftigen.

Natural Language Processing (NLP)

Wie macht eine KI Sinn aus unserer Sprache?

Indem sie durch Machine Learning große Datensätze an Text (corpus) menschlicher Sprache (natural language) verarbeitet und in mathematische Modelle (vector spaces) umwandelt.

Wiederholung (co-occurence) und Kontext (word embedding) sind dabei entscheidende Kriterien, um Wörter miteinander in Verbindung zu bringen (semantic connections, associations).

Auf diese Weise nähert sich eine KI der Bedeutung eines Wortes.

Dieser Prozess wird als Natural Language Processing bezeichnet (NLP)

Auf wikipedia.org:

Zurzeit nutzt Google:

Facebook:

Von der Stanford University:

Stereotype

Die enormen Datenmengen an verarbeitetem Text reproduzieren dabei in der KI die Stereotype, die bereits in unserer Sprache vorhanden sind.

Z.B. das englische geschlechtsneutrale Wort ‹programmer›. ‹Programmer› tritt sehr oft im gleichen Kontext mit ‹he› und ‹computer› auf. Wohingegen z.B. ’nurse› mit ’she› und ‹costume› in Verbindung steht.

Oder: Europäisch-Amerikanische Namen finden sich in einem ‹positiven› Deutungsraum der KI wieder (happy, gift). Wohingegen afrikanisch-amerikanische Namen in einem ’negativen› liegen.

«“If you didn’t believe that there was racism associated with people’s names, this shows it’s there,” said Bryson» in einem Interview (guardian.co.uk)

Die zentrale Studie zu dem Thema ist von 2017:

Die Forschenden (Aylin Caliskan, Joanna Bryson und Arvind Narayanan) präsentieren ihre Studie ebenfalls in einem kurzen Video:

Artikel, die sich mit der Studie beschäftigen:

Bereits 2016 deuteten einige Artikel von technologyreview.com auf den Zusammenhang von Sprache, Sexismus und KIs hin:

Die Lösung?

Via:

Es gibt schon eine Lösung, zumindest für KIs, welche GloVe nutzen: Gender-Neutral GloVe, kurz: GN-GloVE

Die KI korrigiert ihre Vektoren und wird en-stereotypisiert (debiased).

Das sieht dann so aus:

Formulae for gender neutral word embedding
Screenshot aus Learning Gender-Neutral Word Embeddings, Seite 2)

<ironie>Tja, Data-Wissenschaftler und Wissenschaftlerinnen haben es einfach .-) </ironie>

Ich denke, für humane Intelligenzen, die deutsch sprechen, lässt sich ein Teil des kryptischen Screenshots sehr schnell übersetzen: vermeide das generische Maskulinum.

Mein Fazit

Die oben genannte Studie bezieht sich auf die englische Sprache.

«…but things get more gendered [in languages] such as German…» Aylin Caliskan (popsci.com)

Sprache ist nicht neutral und war es nie. Die Studie über Sprache und KIs zeigt, dass ein Zusammenhang zwischen Sprache und menschlicher Wahrnehmung (Kognition) und menschlichem Denken (z.B. Stereotype) besteht.

«How does bias get into language, do people start making biased associations from the way they are exposed to language? Knowing that will also help us find answers to maybe a less biased future.” Aylin Caliskan (popsci.com)

Menschen zuerst

Der Post von Courtney Seiter Diversity: An Incomplete Guide to Inclusive Language for Startups and Tech hat es mir angetan.

Besonders gut gefällt mir ihr erstes ‹language principle›:

«Put people first: Default to person-first constructions that put the person ahead of their characteristics, e.g., instead of “a blind man” or “a female engineer,” use “a man who is blind” or “a woman on our engineering team.” People-first language keeps the individual as the most essential element; there is more to each of us than our descriptors. Mention characteristics like gender, sexual orientation, religion, racial group or ability only when relevant to the discussion.»

In meinem eBook bin ich sehr nah dran an dem ‹Put-people-first-principle›, wenn ich sage:

Vor lauter personenbezogenen Merkmalen sehen wir den Menschen nicht

Oder wenn ich nicht-essentialisierende Begriffe für Menschen vorziehe (positive Sprache). Also:

Menschen mit Behinderung

anstatt

Behinderte

Das ‹Put-people-first-principle› als ‹Menschen-zuerst-Strategie› ist für ein Update des eBooks vorgemerkt!

Inklusive Sprache für digitale Pionierinnen & Pioniere

Oft getwittert und wirklich eine tolle Anleitung hin zu einer inklusiven Sprache, hin zu inklusivem Denken und Handeln:

Darin:

Language is one of the most powerful tools we have as humans. It binds us. Instructs us. When used well, it creates a common understanding.

And it’s essential for creating an environment where everyone feels welcome and included.

Historically, language has left many out. Individuals and groups have been marginalized and discriminated against because of their culture, race and ethnicity, gender, sexual orientation, age, disability, socioeconomic status, appearance and more.

We can do better. Inclusive language seeks to treat all people with respect, dignity, and impartiality. It is constructed to bring everyone into the group and exclude no one.

It does ask something of us. It asks us to try. To change deeply embedded habits. To consider the implications of words and phrases that have long gone unchallenged. To dig deep into empathy and imagine an experience not our own. (Courtney Seiter)