Das Diversitätsdilemma im Silicon Valley

Wer gedacht hat, dass im Silicon Valley nicht nur die „Frappuccino mit Haselnussmilch“-Fraktion, sondern auch die diversitätsfreundliche politische Linke beheimatet ist, hat sich zwar nicht im ersten, wohl doch aber im zweiten Punkt getäuscht. Schon seit einigen Jahren häufen sich die Hinweise darauf, dass – wer hätte es gedacht – gesellschaftliche Diversität und Themen wie digitale Ethik nur da eine Rolle spielen, wo sie unternehmensinterne Machtstrukturen und sprudelnde Gewinne nicht antasten.

Einen weiteren Beleg dafür lieferte Google vor kurzem gleich selbst, als das Unternehmen der angesehenen KI-Ethikerin Timnit Gebru kündigte. Gebru war Mitbegründerin der Gruppe Black in A.I. und wurde bekannt durch einflussreiche Forschung im Bereich der sozialen Auswirkungen von Gesichtserkennungsprogrammen. Diese Forschung zeigte, dass die Erkennungssysteme Frauen und nicht-Weiße Menschen deutlich öfter fehlkategorisieren als Weiße Männer. Ein Artikel, den Gebru 2018 mitverfasste, wurde vielfach als „Wendepunkt“ bei dem Versuch angesehen, auf soziale Fehlwahrnehmungen automatisierter Entscheidungssysteme hinzuweisen und diese zu beseitigen.

Mit der Entlassung Gebrus schmälerte Google nicht nur (1) seine eigene technologische Fähigkeit, Diversitätsprobleme seiner Algorithmen in Angriff zu nehmen, sondern (2) auch die Diversität seiner Belegschaft selbst.

Algorithmen reproduzieren und verstärken gesellschaftliche Diskriminierung

Der Konflikt zwischen Gebru und ihrem ehemaligen Arbeitgeber entstand durch eine Auseinandersetzung über einen von ihr mitverfassten wissenschaftlichen Beitrag, der neue Systeme im Bereich der Sprachanalyse kritisierte, die auch Teil von Googles Suchfunktion sind. Da diese automatischen Systeme den Umgang mit Sprache durch „das Internet“ selbst, also die big data-Analyse einer Vielzahl von alltagsgebräuchlichen Texten lernen, enthalten diese Systeme oft die gleiche Art von Diskriminierung, die auch im Alltag unserer Gesellschaften anzutreffen ist.

Nach einem Experiment von Algorithmwatch verwendet Facebook grobe Stereotypen, um die Anzeigenschaltung zu optimieren. Beispielsweise werden Jobanzeigen für Berufe, die bisher kaum von Frauen ausgeübt werden, auch weiterhin nur wenigen Frauen gezeigt. Praktisch bedeutet dies, dass Facebook auf der Grundlage von Bildern diskriminiert. Photos von Lastwägen mit einem an Frauen gerichteten Anzeigentext wurden beispielsweise nur zu 12% weiblichen Nutzerinnen gezeigt.

Eine weitere aktuelle Studie zeigt, dass das Bilderkennungssystem von Google Frauen und Männer Attribute zuweist, die traditionelle und überkommene Geschlechterrollen zementieren. So belegten automatisierte Systeme Bilder von Männern mit Bezeichnungen wie „offiziell“, „Geschäftsmann“, „Sprecher“, „Redner“ und „Anzug“. Bilder von Frauen hingegen wurden verknüpft mit Bezeichnungen wie „Lächeln“, „Frisur“ und „Oberbekleidung“.

Wie also könnte man diesem Problem begegnen? Eine mögliche Antwort auf diese Frage lautet: Mehr Diversität unter den Softwareentwicklern. Doch auch hier hinken die Big Tech Unternehmen der Gesellschaft hinterher.

Das Silicon Valley ist kein Hort gesellschaftlicher Diversität

Silicon Valley hat schon seit einiger Zeit sein eigenes Diversitätsproblem. Der Ausstieg von Timnit Gebru erfolgte ein Jahr nachdem die prominente A.I. Ethikerin Meredith Whittaker bei Google kündigte und sagte, sie und andere Mitarbeiter seien internen Vergeltungsmaßnahmen ausgesetzt gewesen, weil sie öffentlich Proteste gegen den unternehmensinternen Umgang mit sexueller Belästigung am Arbeitsplatz organisiert und sich gegen die unternehmensinterne Handhabe von KI-Ethik ausgesprochen hatten. Whittaker war neben ihrer Tätigkeit bei Google auch Mitbegründerin des AI NOW Instituts an der New York Universität, das sich ethischen Fragen im Bereich der künstlichen Intelligenz widmet.

Erst kürzlich warf zudem die ehemalige Google Mitarbeiterin Christina Curley ihrem einstigen Arbeitgeber vor, dass Schwarze bei Neueinstellungen benachteiligt würden. Curley’s Aufgabenbereich beinhaltete die Rekrutierung neuer Angestellte mit dem Ziel die Diversität des Unternehmens zu erhöhen. Sie berichtete von einem Vorfall, in dem eine Weiße Vorgesetzte ihren Baltimore-Dialekt als „Behinderung“ bezeichnete. Baltimore hat traditionell einen großen afroamerikanischen Bevölkerungsanteil.

Nicht nur Google, sondern auch viele andere Unternehmen des Silicon Valley geben sich darüber hinaus nicht sonderlich viel Mühe, ein diverses Arbeitsumfeld zu schaffen. Coinbase, ein start-up, das einen online-Handelsplatz für Kryptowährungen bietet, wurde in den letzten beiden Jahren von 15 Schwarzen Mitarbeitern verlassen. Mindestens elf hatten vorher ihre Vorgesetzten oder die Personalabteilung darüber informiert, dass sie rassistisch oder diskriminierend behandelt worden waren.

Pinterest, das sich im Sommer noch als Unterstützer der Black Lives Matter Proteste gerierte, führte einen Kleinkrieg gegen zwei nunmehr ehemalige Schwarze Mitarbeiterinnen, die sich für ein besseres Faktenprüfungssystem einsetzten und verweigerte ihnen Unterstützung, als ihre persönlichen Daten Hasswebseiten zugespielt worden waren.

Dies sind nur die neusten Beispiele eines langjährigen strukturellen Problems, das sich auch in der amerikanischen Beschäftigungsstatistik widerspiegelt: Während im Jahr 2019 etwa zwölf Prozent der US-amerikanischen Beschäftigten Schwarze waren, lag ihr Anteil in der Tech Industrie bei nur sechs Prozent. Im Falle Facebooks, Alphabets, Microsofts und Twitters sogar noch darunter. Auch mittlerweile sechs Jahre währende Diversitätsbemühungen haben hier nur ein Wachstum der Diversität im unteren einstelligen Bereich bewirkt.

So wie der Frappuccino to go zwar Zeit spart, aber ökologisch völlig unsinnig ist, kann auch digital-ethisches Greenwashing nicht darüber hinwegtäuschen, dass im augenscheinlich progressiven Silicon Valley ein starker Strukturkonservatismus Weiße Dominanz zementiert und eine repräsentativere Abbildung der Gesellschaft verhindert. Im Ergebnis bedeutet dies eine Endlosschleife: Unternehmen mit unterdurchschnittlich diversen Angestellten produzieren automatisierte Entscheidungssysteme, die der gesellschaftlich bereits bestehenden Diskriminierung vieler Menschen gegenüber blind sind und diese damit weiter reproduzieren.

Was also kann gegen Diskriminierung getan werden?

Mit Blick auf das Problem diskriminierender Arbeitgeber müssen Menschen in Deutschland, die sich diskriminiert fühlen, diese Diskriminierung nach dem Allgemeinen Gleichbehandlungsgesetz selbst belegen. Bei der Nutzung sozialer Netzwerke wie Facebook ist dies schlechterdings unmöglich, da Nutzer keine Möglichkeit haben in Erfahrung zu bringen, welche Inhalte ihnen nicht gezeigt werden. Eine Möglichkeit, diesem Missstand zu begegnen läge in einer besseren Rechtslage, wie sie die deutsche Antidiskriminierungsstelle bereits gefordert hat. Bisher sind diese Rufe jedoch ungehört an der Politik verbeigegangen.

Auch für das Problem diskriminierend wirkender Algorithmen gibt es keine einfache Lösung. Unkritisch designte Algorithmen, die auf der Grundlage öffentlich verfügbarer Datensätze trainiert werden, reproduzieren bestehende Ungleichbehandlungen, selbst da, wo diese vermieden werden soll, mittels einer „Proxy Diskriminierung“. Denn selbst wenn beispielsweise Arbeitgeber möglicherweise diskriminierend wirkende Variablen wie Geschlecht, Hautfarbe oder Religion als Entscheidungskriterium explizit ausschließen, beinhalten die Trainingsdaten nach wie vor die in der Vergangenheit stattgefundene Diskriminierung. Diese schleicht sich durch nahe an den vermiedenen Ausschlusskriterien liegende Korrelate ein – beispielsweise wo gegen Frauen diskriminiert wird – wie oft Wörter wie „Frau“ oder „weiblich“ in Bewerbung und Lebenslauf zu finden sind.

Transparenz und Nachvollziehbarkeit von Algorithmen sind die Schlüsselbedingungen – insofern es der Datenschutz zulässt – um die diskriminierende Wirkung von Algorithmen beurteilen und ihnen begegnen zu können. Derzeit stemmen sich soziale Netzwerke wie Facebook zwar mit aller Kraft dagegen, Informationen über ihre Entscheidungs- und Rankingalgorithmen offenzulegen. Mit dem aktuellen Entwurf des Gesetzes für digitale Dienste der Europäischen Kommission könnte sich hier jedoch etwas bewegen.

Der Entwurf sieht vor, dass „sehr große Plattformen“ Informationsschnittstellen bereitstellen müssen, die Daten zu Werbe- und targeting-Kriterien einschließen. Darüber hinaus erhalten überprüfte Wissenschaftler Zugang zu Daten der Konzerne, um mögliche Risiken mit Blick auf Grundrechte und den öffentlichen Diskurs zu evaluieren. Unabhängige Evaluatoren, Regulierer und nationale Koordinierungsinstitutionen sollen Audits durchführen dürfen. Algorithmwatch kommt zu dem Schluss, dass der Entwurf einen guten Start darstellt, kritisiert aber, dass zwar Wissenschaftler Zugang zu Plattformdaten bekommen, aber keine NGOs und stellt Fragen zur Implementierung des Gesetzesentwurfs.

Letztendlich sind jedoch Menschen und ihre Entscheidungen bei der Programmierung von Algorithmen die ultimative Black Box. Daher müssen neben den automatisierten auch menschliche Wertentscheidungen dokumentiert werden. Denn da, wo Algorithmen wahllos und unkritisch auf der Grundlage öffentlich verfügbarer Texte entstehen, werden letztendlich auch einfach die ihnen inhärenten Werte, Normen und impliziten ethischen Leitbilder übernommen. Mit Ethik sind jedoch nicht jene Werte gemeint, die Menschen zufällig erworben haben, sondern jene, die sie gemäß gemeinschaftlicher Vorstellungen haben sollten. Aus diesem Grund sollten die Werturteile, die automatisierte Entscheidungssysteme täglich millionenfach treffen, öffentlich erörtert, abgewogen und priorisiert werden, damit sie unseren Zielen als Gesellschaft entsprechen und nicht einfach eine überkommene Vergangenheit reflektieren.

(Dieser Beitrag erschien auch auf den Seiten der Gesellschaft für digitale Ethik)

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert

Diese Website verwendet Akismet, um Spam zu reduzieren. Erfahre mehr darüber, wie deine Kommentardaten verarbeitet werden.