KIs und unsere Wörter

Der Süddeutschen Zeitung lag ein buntes Beiblatt bei: eine Anzeigensonderveröffentlichung von Google. Der Titel: Aufbruch – Künstliche Intelligenz – Was sie bedeutet und wie sie unser Leben verändert (06.10.18).

Zu den Fragen „Wie machen wir KI gerecht?“ und „Können Algorithmen Vorurteile haben?“ (S. 30) antwortet Fernanda Viégas, Leiterin der Goolge-Initiative PAIR (People+ AI Research):

„Digitale Voreingenommenheit entsteht üblicherweise durch Tendenzen im Datensatz, mit dem das Machine-Learning-System trainiert wird. Gibt es eine Unausgewogenheit in den Daten, wird sie sich auch in den Ergebnissen des Systems zeigen. Wenn etwa ein Datensatz mit Aussprachebeispielen auf männlichen Rednern basiert, wird ein Spracherkennungssystem, das auf diesen Daten basiert, sehr wahrscheinlich bei Männern besser funktionieren als bei Frauen. Ein solches System bezeichnen wir als voreingenommen zugunsten von Männern.“

Das hört sich gut an. Wir müssen uns mal wieder mit unserer Sprache auseinandersetzen. Diesmal in der Form von Datensätzen in menschlicher Sprache.

Wenn ich dann jedoch auf Seite 34 der Werbung für KIs von Google lese:

„Den Gedanken, dass Programmierer sich ihrer sozialen Verantwortung bewusst werden müssen, finde ich extrem bedeutsam.“ (Peter Dabrock)

dann wird mir angst und bange. Nicht nur wegen der fehlenden Ethik-Kompetenz aufseiten der Programmierenden, sondern wegen des generischen Maskulinums des Ethik-Professors.

Wie ethisch sind Visionen formuliert im generischen Maskulinum? Welche ethische Kompetenz kommuniziert der Vorsitzende des Deutschen Ethikrats damit? Wie ethisch ist seine Ethik?