Eine geraume Zeit dachte man, Maschinen seien vorurteilsfrei und treffen damit objektivere Entscheidungen als Menschen. Künstliche Intelligenz sollte das wettmachen, was uns bei Personaleinstellungen, Beförderungen oder Finanzentscheidungen leitet: das Bauchgefühl, die Sympathie, der Gefühlsüberschwang. Roboter, so die Annahme, würden Menschen nur aufgrund ihrer Qualifikation und Passung zur Aufgabe einstellen und sind neutral gegenüber Unconscious Biases, den unbewussten Vorurteilen wie Ähnlichkeiten.
Falsch gedacht! Künstlich Intelligenz ist immer nur ein Abbild derer, die sie programmieren. Und das sind je nach Programmierteam zum Beispiel junge, weiße Männer mit ähnlicher Schul- oder Studienlaufbahn oder andere in sich geschlossene Gruppen. Mit allen Vorurteilen, die der jeweiligen Gruppe anhaften. In der IT wird dieses Phänomen als I-Methodology bezeichnet; das I steht für das eigene Selbst, die eigene Lebenserfahrung und Kenntnisse daraus. In der “I-Methodik” ist es laut Forschern so, dass der Programmierer oder (seltener) die Programmiererin eigene Vorlieben und Fähigkeiten als Leitfaden oder Maßstab heranzieht und diese – meist nicht absichtlicht, sondern unbewusst – in die Produkterstellung einfließen. Ein Beispiel dafür sind frühe Spracherkennungssysteme. Die künstliche Intelligenz konnte weibliche Stimmen nicht erkennen, da die Designer ausschließlich mit (und damit für) andere Männer entwickelten und programmierten.
Die angebliche neutrale Technologie ist also gar nicht neutral. Diesen Aspekt zu erkennen, ist bereits der erste Schritt zu seiner Bewältigung. Bei neuen Technologien wird es zunehmen zum Ziel, Unterschiede wie soziale, physische oder geschlechterspezifische, kulturelle, Klassen- und Altersunterschiede zu berücksichtigen. Im Teamkontext ist das Erkennen, dass das eigene Ich uns ganz gern auf „die anderen“ schließen lässt – und damit viel Eigenschaften, Vorlieben, Erfahrungen, Stärken anderer ausblendet – schon ein erster guter Schritt. Jede und jeder von uns lebt in ihrer oder seiner Echokammer. Nur, wenn wir uns aus unserer eigenen Welt hinaus bewegen und den anderen zuhören, teilhaben lassen, den anderen im Anderssein akzeptieren, dann bewegen wir uns in Richtung einer diversen, inklusiven Gesellschaft.
Wenn Sie mehr über das Thema lesen wollen, haben wir hier zwei passende Artikel für Sie zusammengestellt:
- Oudshoorn N., Rommes E., Stienstra M. (2014) Configuring the User as Everybody: Gender and Design Cultures in Information and Communication Technologies. Science Technology Human Values, 29; 30. DOI: 10.1177/0162243903259190
- Bath C. Searching for methodology: Feminist technology design in computer science. https://elib.suub.uni-bremen.de/ip/docs/00010427.pdf.
Wenn Sie Interesse an Workshops zum Thema Unconscious Bias haben oder eine Kulturveränderung in Ihrem Unternehmen anstoßen wollen, reden Sie mit uns. Wir haben Expertise im Thema selbst und mit dem Schwerpunkt Change die passende Kombination.
Pingback: Gender und IT: Was passiert, wenn vor allem weiße Männer coden? – mit Laura Laugwitz – Der Lila Podcast