Wenn Plakatwände zurückgucken – Wie Städte den digitalen öffentlichen Raum zurückerobern können

In den letzten anderthalb Jahren habe ich an einem spannenden Projekt gearbeitet, das von NESTA, der Cities‘ Coalition for Digital Rights (CC4DR) und der Stadt Amsterdam in Auftrag gegeben wurde. Dieser Blogeintrag stellt eine Zusammenfassung des daraus resultierenden Berichts dar, der auf den Seiten NESTAs veröffentlicht worden ist. Er beleuchtet eine aktuelle Entwicklung, die von vielen Städten noch nicht vollständig erkannt worden ist: Die Verwendung von die Privatsphäre verletzenden Sensoren durch kommerzielle Akteure in einem Bereich, der zunehmend als „digitaler öffentlicher Raum“ bekannt wird.

Dieser Begriff soll verdeutlichen, wie physische öffentliche Bereiche – Stadtplätze, Fußgängerzonen, aber auch Einkaufszentren und Bushaltestellen – zunehmend einer uneingeschränkten Digitalisierung unterworfen werden. Solche kommerziellen Sensoren sind potenziell in der Lage Pupillenbewegungen zu verfolgen (eye-tracking) und so Reaktionen auf Werbeplakate zu analysieren. Ein Schwerpunkt liegt dabei auf öffentlich genutzten Räumen in Privatbesitz, im englischen auch bekannt unter der Abkürzung POPS („privately owned public spaces“). Diese Unterscheidung ist insofern wichtig, als sie sich darauf auswirkt, wie gut die Datenschutz-Grundverordnung (DSGVO) als einschlägige Regulierung in diesem Bereich tatsächlich befolgt wird, da es im privaten Sektor eine bekannte und gut dokumentierte Durchsetzungslücke gibt.

Da Massenproduktion und technologische Innovation zu immer geringeren Kosten führen, haben Unternehmen in den letzten Jahren verstärkt Sensoren in physischen Räumen eingesetzt. Neue Dienste, die auf Augmented-Reality-Anwendungen oder der Virtualisierung realer physischer Räume („Metaverse“) basieren, erfordern präzise 3D-Daten von städtischen Räumen, die in der Produktion sehr teuer sind. Da das Internet immer mehr zur digitalen Parallelwelt wird, in der physische Städte nachgebaut werden, sind qualitativ hochwertige Daten über öffentliche Räume sehr gefragt. Folglich ist die Erstellung von Karten des physischen Raums zum Geschäftsmodell einer beträchtlichen Anzahl von Unternehmen geworden. Aufgrund des bereits erwähnten Umsetzungsdefizits der DSGVO in der Offline-Welt halten sich viele Unternehmen nicht ordnungsgemäß an die DSGVO oder führen die in der EU-Gesetzgebung für solche Fälle vorgesehene selbstkritische Bewertung nicht durch, sondern „biegen“ ihren Anwendungsfall so zurecht, dass er den gesetzlichen Kriterien entspricht. Ein von mir Befragter sagte dazu: „Unternehmen erstellen 3D-Karten unserer Stadt, ohne dass die Stadtverwaltung davon weiß.“

Wenn solche „abtrünnigen“ Sensoren von kommerziellen Akteuren installiert werden, ohne, dass sichergestellt wird, dass die Bürger oder zumindest deren Stadtverwaltungen ihre Zustimmung zu solchen Diensten erteilen können, werden diese unfreiwillig zu Opfern weitreichender Verletzungen der Privatsphäre, gegen die sie sich nicht wehren können. Dies kann nicht nur eine potenzielle Verletzung eines grundlegenden Menschenrechts darstellen, sondern auch das Vertrauen in die Politik beschädigen, da es somit hier kaum eine Rechenschaftspflicht für die private Überwachung im öffentlichen Raum gibt. Gegenwärtig gibt es keine formellen Verfahren, die Städte anwenden können, um diesem Problem entgegenzuwirken, da sie weder ein Mitspracherecht bei solchen Praktiken haben noch überhaupt davon erfahren können.

Für diesen Bericht habe ich eine Reihe von Smart-City-Vertretern aus ganz Europa befragt, um mehr über ihre Ansätze und Erfahrungen im Umgang mit diesem und ähnlichen Problemen zu erfahren. Ein wichtiges Ergebnis, das hier schon geteilt werden kann ist, dass sich viele Smart-City-Verantwortliche dieser potenziell gravierenden Datenschutzrisiken für ihre Bürger noch nicht bewusst sind.

Beispiele für private Sensoren in öffentlichen Räumen

Um Städte in die Lage zu versetzen und zu befähigen, aktiv zu gestalten, wie sich technologischer Fortschritt in ihren öffentlichen Räumen auswirkt, möchte ich kurz auf zwei besonders relevante Beispiele solcher privater Sensoren eingehen, die in den letzten Jahren ohne Wissen und Zustimmung lokaler Gebietskörperschaften an öffentlichen Orten montiert worden sind und ohne das Wissen der Betroffenen persönliche Daten aufgezeichnet haben.

Interaktive Werbung

Direkte Rückmeldungen von Konsumenten auf Werbung ermöglichen es Werbeproduzenten, die Anzeigen besser auf bestimmte Zielgruppen auszurichten, die Effizienz der Werbung zu erhöhen und damit die Rentabilität des eingesetzten Kapitals zu steigern. Diese Rückmeldung wird in einigen Beispielen durch das Aufzeichnen körperlicher Reaktionen, z.B. von Mimik oder Pupillenbewegungen, auf die eingeblendete Werbung durch Kameras generiert. Dieses Retina-Tracking oder die Analyse der Körperbewegungen wird von Algorithmen ausgewertet, die daraus Rückschlüsse auf den Werbeinhalt ziehen. Diese Formen von „interaktiver Werbung“ finden sich in Fußgängerzonen, an Bushaltestellen oder in Einkaufszentren. Die werbezentrierte Nutzung von Retina-Tracking und Gesichtserkennung hat sich in Europa und auf der ganzen Welt ausgebreitet. Angesichts eines Außenwerbemarktes, der den Zeitungsmarkt in absehbarer Zeit in den Schatten stellen wird, liegt es auf der Hand, dass solche Formen von Feedback erzeugenden digitalen Werbetafeln in Zukunft weiter zunehmen könnten.

Die Erstellung digitaler Bilder von Gesichtern oder Pupillen in hoher Auflösung sind das Rohmaterial für algorithmische Analysen, mit denen Personen identifiziert, zeitspezifisch lokalisiert und Bewegungsprofile erstellt werden können. Es gibt zahlreiche Techniken, die solche Aufnahmen mit unterschiedlicher Zuverlässigkeit nutzen können, um Rückschlüsse auf Daten zu ziehen, die die als „sensible Daten“ bezeichnet.

Eye-Tracking-fähige Werbung wurde unter anderem in den Niederlanden und Belgien bereits mehrfach eingesetzt. Plakatwände wurden in (unterirdischen) Bahnhöfen oder anderen Räumen aufgestellt, die früher in öffentlichem Besitz waren, in den vergangenen Jahrzehnten aber in vielen Ländern privatisiert wurden. Es ist nicht nachvollziehbar, ob das Unternehmen Datenschutzfolgeabschätzungen ausgefüllt hat, in welchen hätte argumentiert können, inwieweit der Betreiber ein „legitimes Interesse“ hat, das den Einsatz dieser Technologie rechtfertigt. Die Stadtverwaltungen, unter anderem von Gent und Amsterdam, in denen solche interaktiven Werbeplakate gesichtet worden waren, wurden weder informiert noch um Erlaubnis gefragt. Keine Schilder wiesen die Passanten auf die Existenz der Kameras hin. Erst nach einem öffentlichen Aufschrei und der Aufmerksamkeit der Medien entfernte das verantwortliche Unternehmen diese Plakatwände wieder.

Die Integration solcher Eye-Tracking-Funktionen in digitale Werbetafeln ist nicht besonders neu. Die ersten Anwendungen sind bereits 15 Jahre alt. Diese Technik ist für Werbetreibende von großem Nutzen, da sie sichtbar macht, welche Teile einer Werbebotschaft die Betrachter sehen. Eye Tracking „macht den unbewussten Blick sichtbar und kann Blickdaten reproduzieren, selbst wenn das Plakat nur für den Bruchteil einer Sekunde betrachtet wurde“, wie ein Unternehmen, das diese Technologie vermarktet, auf seiner Onlinepräsenz erklärt.

Das Sammeln solch präziser und äußerst wertvoller Daten hat natürlich seinen Preis: Aus Eye-Tracking-Daten lassen sich „biometrische Identität, Geschlecht, Alter, ethnische Zugehörigkeit, Körpergewicht, Drogenkonsumgewohnheiten, den emotionalen Zustand, Fähigkeiten und Fertigkeiten, Ängste, Interessen und sexuellen Vorlieben“ einer Person rekonstruieren. Bestimmte Eye-Tracking-Maßnahmen können sogar „spezifische kognitive Prozesse aufzeigen und zur Diagnose verschiedener körperlicher und geistiger Gesundheitszustände verwendet werden“. Selbst wenn Dritte nur die Bilder sammeln, können solche Techniken im Nachhinein noch angewandt werden. Sollten derartige Informationen über bestimmte Einzelpersonen öffentlich werden, kann dies auf persönlicher Ebene verheerend sein.

Automatische Nummernschilderkennung

Systeme zum Scannen und Erkennen von Nummernschildern sind allgegenwärtig und werden in verschiedenen Anwendungsszenarien von Privatunternehmen in ganz Europa eingesetzt. Es gibt Fälle, in denen Inkassounternehmen automatische Nummernschilderkennung nutzen, um an Personen heranzukommen, die z. B. mit Kreditraten in Verzug geraten sind und nicht auf Kontaktversuche reagieren. Zu diesem Zweck wurden Fahrzeuge des Unternehmens mit Kamerasensoren ausgestattet, die ganze Städte erfahren und dabei die Kennzeichen der angetroffenen Fahrzeuge filmen und verarbeiten, um den Schuldner zu identifizieren. Solche Fälle gab es bisher vor allem in den USA, in Europa ist Amsterdam ein bemerkenswertes Beispiel. Die Stadt hat den Dienst inzwischen verboten, so dass die Einzelheiten der Vorgehensweise des Unternehmens unklar sind.

Nach der DSGVO sind Kennzeichen nicht nur personenbezogene Daten, sondern auch persönlich identifizierbare Informationen (PII). PII sind alle Daten, die zur eindeutigen Identifizierung einer Person verwendet werden können, wie Passnummern, Fingerabdrücke oder Nummernschilder. Das Scannen von Nummernschildern ist im Zusammenhang mit Parkhäusern (wiederum im Sinne der DSGVO) zulässig, sofern die Kunden durch entsprechende Hinweisschilder angemessen darüber informiert werden, dass ihre Nummernschilder gescannt und verarbeitet werden. Im Gegensatz zu Parkhäusern ist es nach der DSGVO rechtswidrig, wenn Unternehmen wahllos alle verfügbaren Nummernschilder mit der Absicht scannen, den Fahrzeughalter zu identifizieren, einschließlich der Nummernschilder von unbeteiligten Passanten, ohne entsprechende Benachrichtigung.

Solche Anwendungsfälle scheinen zwar selten, sollten aber m Blick behalten werden, da sie die Verletzung der Privatsphäre einer beträchtlichen Anzahl von Bürgern darstellen. Da es trotz der offensichtlichen Rechtswidrigkeit dieser Praxis bisher kaum Möglichkeiten Mittel gibt, um solche Überwachungspraktiken überhaupt erst zu erkennen, ist dies ein Beispiel dafür, wie wichtig es ist, dass Städte über solche Aktivitäten in einem ersten Schritt zumindest formell informiert werden (müssen).

Städte müssen zunehmend als Durchsetzungsinstanz fungieren, aber es fehlt ihnen an wichtigen Ressourcen

Diese Beispiele zeigen, dass sich Städte in einem Konflikt befinden: Angesichts der Verbreitung privater Sensoren im öffentlichen Raum müssen sie zunehmend als Durchsetzungsinstanz der DSGVO agieren. Gleichzeitig fehlen ihnen jedoch (1) die Informationen, (2) die Zuständigkeiten und (3) die Kapazitäten, um angemessen auf die beschriebenen Entwicklungen zu reagieren.

Zum einen gibt es auf europäischer Ebene keine Vorschriften, die Städte in existierende Benachrichtigungsverfahren, z.B. durch Datenschutzfolgeabschätzungen (DPIAs) benachrichtigt werden, sobald kommerzielle Akteure Sensoren in öffentlich zugänglichen Räumen montieren. Da es zudem kein geeignetes Überwachungsverfahren gibt, unerwünschte Sensoren in öffentlichen Räumen systematisch zu identifizieren, haben die Städte bisher keine Möglichkeit, selbst Abhilfe zu schaffen.

Zum Zweiten haben die Kommunen im Zusammenhang mit der DSGVO nur Verarbeitungsaufgaben, nicht aber die Zuständigkeit für die Durchführung. Die Ausführung und Umsetzung liegt in der Regel bei der nationalen oder regionalen Ebene. Kommunale Datenschutzbeauftragte (DPOs) können keine Verbote für Eye-Tracking-Plakatwände aussprechen – dafür wären ihre Kollegen auf nationaler Ebene zuständig.

Zum Dritten haben die Städte (noch) nicht die Kapazitäten, um mit Sensoren in öffentlich zugänglichen umzugehen. „Wir haben bereits eine Menge Probleme mit der Identifizierung unserer eigenen Datenverarbeitung, so dass wir uns noch nicht an die privaten Parteien gewandt haben, die dies tun“, sagte uns der DPO einer großen europäischen Stadt.

Smart Cities zensieren Sensoren: Neue Ideen zu einem schwierigen Thema

Kommunale Genehmigung im Tausch für Datenschutz

Wie sich gezeigt hat, sind Städte zurzeit noch nicht befugt, neue Sensoren in ihren Grenzen zu verbieten. Da die DSGVO als wichtigste Rechtsvorschrift zum Schutz der Privatsphäre der EU-Bürger die Rathäuser nicht einbezieht, haben die am stärksten betroffenen Städte improvisiert, um diese nachteiligen Entwicklungen in den Griff zu bekommen.

In diesem Sinne veröffentlichte das Londoner Rathaus im Oktober 2021 die so genannte „Public London Charter„, ein Dokument, das Grundsätze und Leitlinien für die Regulierung neuer öffentlicher Räume (einschließlich solcher im Privatbesitz) festlegt. Diese Grundsätze gelten als Bedingung für die Erteilung von Baugenehmigungen und bauen auf bestehenden Befugnissen im Bereich der Stadtplanung und Stadtentwicklung auf. Wenn Bauträger eine Baugenehmigung in der Stadt beantragen, müssen sie die Public London Charter unterzeichnen, die direkt in Planungsvereinbarungen mit der Stadt aufgenommen wird.

Die Charta enthält einen Abschnitt über Datenschutz, der vorschreibt, dass Datenschutzfolgenabschätzungen mit dem Londoner Rathaus und der Öffentlichkeit geteilt werden müssen, um „Transparenz, Compliance und bewährte Verfahren in der gesamten Stadt zu fördern.“ Da diese DPIAs alle Einzelheiten der Funktionsweise der Sensoren, inklusive der Auswirkungen auf betroffene Menschen enthalten müssen, könnte die verpflichtende Transparenz dazu führen, dass über neue Sensoren zumindest intensiver berichtet und diskutiert wird.

Die Public London Charter nutzt dabei die Möglichkeiten des Stadtrats, neuen Erschließungen auf städtischem Grund die Genehmigung zu verweigern. Im Wesentlichen wird damit die Planungsbehörde gestärkt, da ein beträchtlicher Teil der Macht der Stadt auf dem Planungsrecht beruht, das hier als Hebel eingesetzt wird.

Auch die Stadt Amsterdam hat einen Prozess eingeleitet, der dem Londoner Beispiel insofern ähnelt, als datenethische Grundsätze für die Erteilung städtischer Zulassungen eingehalten werden müssen. Das „Tada“-Manifest enthält eine Reihe solcher Grundsätzen für die Nutzung von Daten, die (1) umfassend, (2) kontrolliert, (3) auf die Menschen zugeschnitten, (4) legitim und kontrolliert, (5) offen und transparent, (6) „von allen – für alle“ sein sollten. Diese Grundsätze wurden auch in der lokalen Verwaltung, ihren Entscheidungen und Prozessen verankert.

Sie stehen auch im Mittelpunkt eines Programms, mit dem die Stadt Amsterdam das Institut für Informationsrecht an der Universität Amsterdam beauftragt hat, Konditionen zu untersuchen, die als Forderungskatalog der Stadtverwaltung das Verhalten privater Unternehmen bei der Erhebung von Sensordaten besser steuern können.  Zu solchen Instrumenten gehören Lizenzen, Subventionen, Konzessionen oder Verträge mit privaten Unternehmen. Anbieter von E-Mobilitätsdiensten müssen beispielsweise bestimmte Bedingungen erfüllen, bevor sie ihre Dienste im städtischen Raum anbieten dürfen. Dazu gehört zum Beispiel, dass auch kommerziell weniger attraktive Teile der Stadt mit solchen Dienstleistungen versorgt werden müssen, um die Inklusion weniger privilegierter Gebieten zu gewährleisten. Teil dieses Programms ist auch die Entwicklung von Regeln, wie Mobilitätsanbieter mit den von ihnen gesammelten Daten umzugehen haben und welche Daten sie mit der Stadtverwaltung teilen müssen.

Zugleich ist jedoch der Spielraum der Städte, bestimmte Genehmigungen mit Auflagen zu versehen, begrenzt. So können Genehmigungen, die sich auf den öffentlichen Raum und die Sicherheit auswirken, rechtlich nur mit Bedingungen versehen werden, die sich auf den Politikbereich beziehen, auf den die Genehmigung selbst abzielt. Dies bedeutet wiederum, dass die Städte nur Bedingungen in solche Genehmigungen aufnehmen dürfen, die mit dem Regelungszweck in Zusammenhang stehen, damit sie nicht wegen Amtsmissbrauchs haftbar gemacht werden können.

Meldepflicht für neue Sensoren

Zu Dezember 2021 hat die Stadt Amsterdam ein Melderegister für Sensoren eingeführt. Unternehmen und andere Akteure müssen nun das Amsterdamer Rathaus benachrichtigen, insofern sie Sensoren in öffentlich zugänglichen Räumen anbringen möchten. Die „Verordnung über die Meldepflicht für Sensoren“ besagt, dass es verboten ist, einen Sensor u.a. auf öffentlich zugänglichen Gebäuden oder auf fahrenden Fahrzeugen, die der Öffentlichkeit zugänglich sind, anzubringen, ohne die Stadtverwaltung mindestens fünf Tage im Voraus darüber zu informieren. In der Mitteilung muss auch angegeben werden, welche Daten gesammelt werden und wann der Sensor wieder entfernt wird. Werden Sensoren im öffentlichen Raum angebracht, ohne dass die Stadtverwaltung benachrichtigt wurde, wird der Sensor (nach mehreren Mahnungen) auf Kosten des Eigentümers entfernt. Standort und Art der Sensoren werden in einer öffentlich zugänglichen Karte veröffentlicht.

Städte reagieren, da existierende Vorschriften zahnlos sind

Diese Beispiele zeigen, dass es kreative Wege gibt, die Städte nutzen können, um ihre fehlenden Durchsetzungsbefugnisse zumindest teilweise zu kompensieren. Was diese Beispiele auch zeigen, ist, dass die Städte kreativ werden mussten, weil die nationale Ebene weder über die Ressourcen noch über die unmittelbare Erfahrung im Umgang mit Entwicklungen in Gemeinden oder Städten verfügt.  Dies ist auch die Ursache dafür, dass mehrere Befragte sagten, dass die nationalen Kontrollbehörden zunehmend auf die Rathäuser schauen, wenn es darum geht, mit neuen technologischen Entwicklungen umzugehen. Mehrere von uns befragte kommunale Datenschutzbeauftragte waren der Meinung, dass die Kommunalverwaltungen in vielen dieser Fragen weiter fortgeschritten sind als ihre nationalen Kollegen.

Die nationalen Regierungen haben zwar die Befugnis, Gesetze zu erlassen, wenn sie es für richtig halten, aber einige Befragte vertraten die Ansicht, dass diese in vielen Fällen zu spät aktiv werden und die Gefahr besteht, dass sie den technologischen Fortschritt einfach „geschehen lassen“, ohne die Normen zu setzen, die ihn gestalten und regeln. Die Städte treten in dieses Machtvakuum, da sie die praktischen Aspekte des angewandten technologischen Wandels in einer für die Nutzer verständlichen Weise regulieren können.

Gleichzeitig besteht die Herausforderung bei der Regulierung neu entstehender Technologien darin, dass deren voller Umfang bzw. ihr Grad gesellschaftlicher Durchdringung noch nicht bekannt ist, weshalb jede künftige Regulierung auf einer abstrakten Ebene angesiedelt sein muss, um die gesamte Bandbreite möglicher Aktivitäten abzudecken. Die Herausforderung für die Städte besteht daher darin, sinnvolle Grundsätze zu entwickeln, die nicht zu abstrakt sind, um unpraktisch zu sein, die aber auch nicht zu detailliert sind, um wirklich gute Innovationen zu verhindern.

Politikempfehlungen

Auf der Grundlage dieser Beispiele, die zeigen, wie Städte erfolgreich improvisiert haben, um die Lücken zu schließen, die die DSGVO hinterlässt, erörtere ich in der vollständigen Studie mögliche Wege, die Städte einschlagen können, um die oben beschriebenen, die Privatsphäre verletzenden Entwicklungen zu mildern.

Das vielleicht wirksamste Instrument, das die Städte einsetzen können, um die Privatsphäre ihrer Bürger besser zu schützen, ohne auf eine langwierige Überarbeitung der DSGVO zu hoffen ist, die effektivere Nutzung der Möglichkeiten, die ihnen bereits zur Verfügung stehen. In der Studie wird gezeigt, dass Städte nicht für klassische Sanktionen und Durchsetzungsmechanismen im Sinne der DSGVO zuständig sind. Solche Sanktionen erfolgen zudem erst ex-post und sind daher kein ideales Instrument für eine proaktive Verhaltensänderung. Die Festlegung von Verhaltensregeln ex-ante, durch das Einfordern von digitalen Verhaltensregeln im Tausch für städtische Genehmigungen, könnte sich als wesentlich wirksamer erweisen.

Die Beispiele aus Amsterdam und London haben gezeigt, dass Städte über umfangreiche Befugnisse u.a. im Bereich der Stadtplanung, der Schaffung wirtschaftlicher Anreize und der Organisation des Verkehrs verfügen. Städte können diese Befugnisse beim Erteilen von Genehmigungen oder anderen Formen von Vereinbarungen nutzen, die kommerzielle Akteure bei den Kommunen beantragen. Die Erteilung solcher Genehmigungen kann an Bedingungen geknüpft werden, nach denen die Antragsteller Normen oder konkretere Vorschriften darüber einhalten, wie sie mit erhobenen Daten umgehen, welche dieser Daten sie der Stadt zur Verfügung stellen, ihre Datenerhebung öffentlich machen, den Städten DPIAs aushändigen und vieles mehr. Da diese Genehmigungen nicht willkürlich an Bedingungen gebunden werden können, ohne einen Missbrauch von Befugnissen zu riskieren, müssen diese Bedingungen auf den Zweck der Genehmigung selbst zugeschnitten sein.

Der vollständige Bericht kann hier heruntergeladen werden.


Bis zum Verlust der Twittersprache. Deplatforming zwischen demokratischer Hygiene und cancel culture

Am Ende war es dann wieder nicht der amerikanische Senat, der die Reißleine für Donald Trump zog, sondern twitter und facebook. Da bekanntermaßen die größte Massenvernichtungswaffe die Masse selbst ist, setzen die sozialen Netzwerke seit einiger Zeit verstärkt darauf insbesondere jene unter die Lupe zu nehmen, die diese Masse mit Populismus, Demagogie, oder einfach nur plumpen Lügen verführen wollen. Dass es mit Donald Trump den nunmehr ehemaligen Präsidenten der USA getroffen hat, ist den einen unrechtmäßige Zensur und den andern überfällige Korrektur einer offensichtlichen Fehlentwicklung. Doch der Reihe nach.

Deplatforming, also der Entzug des Zugangs zur digitalen Öffentlichkeit sozialer Netzwerke, ist kein neues Phänomen, sondern eine altbekannte Moderationstechnik, wie sie seit Jahren in Onlineforen, wie beispielsweise beim Umgang mit spam accounts, angewandt wird. Auch ist Trump nicht der erste Politiker, dem dieser Zugang entzogen wurde. Im Jahre 2018 wurden Millionen Nutzer aufgrund ihrer Nähe zum Islamischen Staat von Twitter verbannt. Ebenfalls im Jahre 2018 entzog facebook den Militärführern Myanmars ihre offiziellen Kontos/Konten, nachdem über die Plattform muslimische Rohingya dämonisiert wurden, die dann zu Hunderttausenden vor ethnischen Säuberungen nach Bangladesh fliehen mussten. Selbst das Entfernen des rechts-konservativen sozialen Mediendienstes parler durch Amazon Webdienste, Google und Apple hat eine Präzedenz: Wikileaks wurde bereits 2010 nach der Veröffentlichung geheimer Dokumente über potenzielle Kriegsverbrechen von Amazon verbannt. Obwohl es also mitnichten das erste Mal war, dass ein Politiker seine Redeplattform im Internet verlor, hat der Fall des ehemaligen Präsidenten Donald Trump einiges zum Thema deplatforming ins Rollen gebracht.

Was war passiert?

Schon lange bevor Trump überhaupt in die Nähe einer Präsidentschaftskandidatur gerückt wurde, nutzte dieser seine sozialen Medienplattformen, um Lügen und Verschwörungstheorien zu verbreiten, wie beispielsweise, dass der damalige Präsident Obama nicht in den USA geboren sei. Die weitreichenden Auswirkungen der ständigen Lügen auf weite Teile der Bevölkerung führten zu einer Beschleunigung und Intensivierung der diesbezüglichen Diskussion und vor allem des praktischen Umgangs sozialer Medien mit diesem Problem. Noch im Jahr 2017 gewährte Twitter Trump unter dem Vorwand des besonderen Nachrichtenwerts Narrenfreiheit – auch dann noch, als er Nordkoreas Diktator Kim Jong Un im Streit um Atomwaffentests mit dessen Auslöschung drohte. Bereits seit Trumps Präsidentschaftskandidatur ließen die beiden großen sozialen Mediendienste kaum etwas unversucht, um ihrem größten Zugpferd keine Zügel anlegen zu müssen. Erst drei Jahre und zahllose Lügen und Hassbotschaften später sah sich Twitter gezwungen, seine Linie zu korrigieren: Unter seiner 2018 geschaffenen und 2020 verschärften Politik der „zivilen Integrität“ stufte Twitter am 26. Mai 2020 erstmals einen Tweet Trumps als „irreführende Informationen“ ein und versah ihn mit einem Warnhinweis.

Am 7. Januar 2021, einen Tag nach den von Trump inspirierten Ausschreitungen am Kapitol in Washington, bei denen 5 Menschen starben und 138 verletzt wurden, sperrte Twitter Trumps Konto für 12 Stunden. Der Kurznachrichtendienst knüpfte die vorübergehende Natur der Sperrung an die Maßgabe, dass Trump drei Tweets löschen musste und warnte, dass diese Sperre beim nächsten Vergehen auf unbestimmte Zeit verlängert würde. Kurz zuvor hatten auch facebook und instagram das Konto des noch wenige Tage amtierenden Präsidenten suspendiert. Einen Tag und zwei Tweets später schließlich vollzog Twitter den Schritt zur permanenten Sperrung. Neben facebook und instagram sperrten auch andere Dienste wie snapchat, twitch, spotify und shopify Trumps Nutzerkonten.

Deplatforming: Dürfen die das?

Private Unternehmen in den USA dürfen Politikern auch dann ihre Dienste verweigern, wenn sie elementare Kommunikationskanäle mit der Öffentlichkeit bereitstellen. In Deutschland hingegen, ist dieser Fall etwas anders gelagert. Intermediäre sind hier nach einer Entscheidung des Bundesverfassungsgerichtes „grundrechtsverpflichtet“, sobald sie eine entscheidende Größe erreicht haben, die für die öffentliche Kommunikation relevant ist. Das Bundesverfassungsgericht hat in diesem Zusammenhang bestätigt, dass „private Räume“ dann nicht mehr privat sind, wenn ohne sie öffentliche Kommunikation stark eingeschränkt wird.

Demnach hätte man einem Politiker von Trumps Kaliber in Deutschland nicht so leicht den Zugang zur digitalen Öffentlichkeit entziehen können, weil hier der gerichtliche Schutz politischer Äußerungen eine höhere Priorität einnimmt. Nach Ansicht des Bundesverfassungsgerichts sind private Unternehmen zwar nicht unmittelbar an Grundrechte wie die Meinungsfreiheit gebunden, jedoch strahlen die Grundrechte in andere Rechtsgebiete aus, so auch in die AGBs von sozialen Netzwerken. Dies bedeutet in der Praxis, dass facebook die Löschung der Äußerung einer AfD Politikerin zurücknehmen musste, da die Ausübung der Meinungsfreiheit nicht „die Rechte einer anderen Person“ verletze, wie es die AGBs forderten.

Zugleich haben Regierungspolitiker in Deutschland größere „Wahrheitspflichten“ als ihre amerikanischen Kollegen. Das öffentliche Äußerungsrecht fordert von den öffentlichen Redebeiträgen von Amtsträgern Prinzipien wie Sachlichkeit und Richtigkeit rigoroser ein als in den USA. Im November 2015 beispielsweise musste die damalige Bundesforschungsministerin Johanna Wanka eine „Rote Karte“, die sie der AfD auf der Webseite ihres Ministeriums wegen „Volksverhetzung“ zeigte, in Folge einer einstweilige Verfügung des Bundesverfassungsgerichts löschen. Einem deutschen Trump hätte rechtlich also viel früher Paroli geboten werden können.

Auch wenn die Rechtslage in Deutschland einen ähnlichen Geschichtsverlauf wie in den USA unwahrscheinlich erscheinen lässt, beantwortet dies nicht die Frage, wie wir in Zukunft mit Politikern umgehen, die unsere Gesellschaften spalten und gegeneinander aufhetzen, und ob die Sperrung wichtiger digitaler Kommunikationskanäle dazugehört. Klar und unstrittig ist: Die sozialen Medien haben zu viel Macht. Was aus diesem Zwischenergebnis jedoch geschlussfolgert werden soll, ist weniger klar. Denn in der Diskussion darüber, was soziale Netzwerke nun dürfen sollen und was nicht, stehen sich zwei Seiten diametral gegenüber.

Eine Perspektive lautet so: Deplatforming sollte erlaubt sein, denn echte Zensur kann nur vom Staat, mitnichten aber von privaten Unternehmen ausgehen. Das Recht auf freie Meinungsäußerung wird durch eine einfache Kontenlöschung bei sozialen Netzwerken nicht eingeschränkt, denn Donald Trump kann von diesem Recht weiterhin Gebrauch machen, nur eben nicht auf twitter und facebook. Zudem kann der Staat Unternehmen auch nicht dazu zwingen, Leuten wie ihm eine Plattform zu geben – erst recht dann nicht, wenn diese Person zuvor den Nutzungsbedingungen zugestimmt hat und in seinen Äußerungen sodann dagegen verstößt.

Auch die Gegenseite, die u.a. von Bundeskanzlerin Merkel vertreten wird, argumentiert, dass die Meinungsfreiheit als Grundrecht von elementarer Bedeutung nur durch die Politik, nicht aber nach dem Gutdünken schwerreicher Unternehmensführer eingeschränkt werden kann. Sie schließt jedoch daraus, dass Deplatforming abzulehnen ist, jedenfalls insofern es durch die sozialen Medien selbst geschieht. Nicht zuletzt hätte Meinungsfreiheit in sozialen Netzwerken auch zu sehr wünschenswerten Entwicklungen wie dem arabischen Frühling geführt und sollte daher nicht angetastet werden.

Was also tun?

Zunächst: Wissenschaftliche Erkenntnisse belegen, dass Deplatforming durchaus funktioniert. Eine Studie aus dem Jahr 2016 zeigte, dass das massenhafte Löschen von Kontos von Anhängern der islamistischen Terrororganisation ISIS zu einem erheblichen digitalen Einflussverlust führte. Eine weitere Analyse belegte eine Woche nach Trumps Plattformsentzug, dass Desinformationen über Wahlfälschungen in den USA um 73% zurückgegangen waren. Auch mit Blick auf Deutschland zeigt eine Studie, dass Deplatforming die Mobilisierungskraft der extremen Rechten deutlich einschränkt.

Bei der Suche nach Alternativen zum unternehmensgesteuerten Deplatforming wurden zwar einige gute Vorschläge gemacht. Diese setzen jedoch weniger bei der Entstehung und Popularisierung volksverhetzender Inhalte und Personen an, sondern erst bei der Eindämmung. Dazu gehören u.a. die Santa Clara Prinzipien zur content moderation. Einige Punkte daraus, wie beispielsweise das Recht auf Widerspruch bei unrechtmäßigen Löschungen wurden bereits von EU– und deutschen Gesetzgebern übernommen. Diese Prinzipien unterstützen neben Youtube und Twitter auch facebook, nur hält sich in den USA außer reddit keine der großen Plattformen daran. Während soziale Medien in den USA hier also weitgehend Narrenfreiheit haben, werden sie in Deutschland durch die novellierte Fassung des Netzwerkdurchsetzungsgesetzes zur Rechenschaft gezwungen.

Auch externe Plattformräte, besetzt mit Persönlichkeiten großer Legitimität wie Friedensnobelpreisgewinner, sind dabei ein guter, wenngleich deutlich ausbaufähiger Anfang. Beispiele sind der Löschbeirat, den Google zusammenstellte, um seine Regeln zum Recht vergessen zu werden zu definieren, oder das facebook oversight board, das über die dauerhafte Suspendierung Donald Trumps von dem sozialen Netzwerk entscheiden soll. Die Plattformen haben erkannt, dass die Regeln, die sie setzen, enorm einflussreich sind und sie sich Legitimation von außen einholen müssen, weil sie diese selbst nicht besitzen. Die Besetzung dieser Gremien sollte jedoch nicht durch die sozialen Medien selbst erfolgen. Auch sind im Falle des oversight boards facebooks mehr als 25% der Ratsmitglieder US-Amerikaner, die Diversität also nicht repräsentativ für ein weltweit operierendes Unternehmen.

Wir müssen reden

…denn auch wenn diese genannten Ansätze gute erste Schritte sind, greifen sie erst bei der Behandlung der Symptome, nicht aber beim Problem selber. Das Problem sind die Algorithmen, die sozialen Netzwerken ihren Charakter als Wut- und Hassschleudern verleihen. Denn an dem demokratiegefährdenden Geschäftsgeheimnis von twitter und facebook – jene Algorithmen nämlich, die für die Kuratierung individueller sozialer Medienkonten zuständig sind und aus Geschäftsgründen vor allem angst- und wutbesetzte Nachrichten fördern – war bisher nicht zu rütteln.

Zwar verspricht das Gesetz über digitale Dienste der EU-Kommission mit einer Transparenzpflicht für diese Algorithmen mehr Nachvollziehbarkeit. Eine große Hürde bei der effektiven Regulierung sozialer Netzwerke ist immer noch der Mangel an Wissen über ihre internen Entscheidungs- und Regelsetzungsprozesse. Gleichzeitig sind nach Ansicht des Juristen und Wissenschaftlers Matthias Kettemann Intermediäre jedoch so komplex, dass dem Gesetzgeber immer noch die Fähigkeit fehlt, soziale Netzwerke adäquat zu regulieren. Dies liegt daran, dass sie durch viele Kategorienraster fallen, weil sie viele verschiedene Funktionen erfüllen: Datenschutz, Wettbewerbsrecht, Kommunikationsrecht, Medienrecht (sofern sie eigene Inhalte produzieren).

Mit bloßer Transparenz ist es jedoch nicht getan. Wichtiger wäre eine echte „Demokratieverträglichkeitsprüfung“ der Empfehlungsalgorithmen sozialer Medien. Darüber hinaus sollten Filterblasen durch einen „Reale-Welt-Modus“ aufhebbar sein, sodass Nutzer die digitale Öffentlichkeit auch ohne Empfehlungsfunktion sehen können. Nicht zuletzt sollten Nutzer auch die Möglichkeit haben, für die Dienstleistung des sozialen networking mit Geld, anstatt mit Daten zu bezahlen.

Letztendlich haben sich die sozialen Medien in Trump ihr eigenes Monster selbst geschaffen. Deplatforming ist dabei nur die ultima ratio zur Korrektur einer Fehlentwicklung, die seit Jahren Gesellschaften destabilisiert. Wichtiger wäre daher die Arbeit an den Ursachen, den Algorithmen, die geeicht auf Interaktion Wut und Angst stärker verbreiten als moderate und abwägende Ansichten.

Das Diversitätsdilemma im Silicon Valley

Wer gedacht hat, dass im Silicon Valley nicht nur die „Frappuccino mit Haselnussmilch“-Fraktion, sondern auch die diversitätsfreundliche politische Linke beheimatet ist, hat sich zwar nicht im ersten, wohl doch aber im zweiten Punkt getäuscht. Schon seit einigen Jahren häufen sich die Hinweise darauf, dass – wer hätte es gedacht – gesellschaftliche Diversität und Themen wie digitale Ethik nur da eine Rolle spielen, wo sie unternehmensinterne Machtstrukturen und sprudelnde Gewinne nicht antasten.

Einen weiteren Beleg dafür lieferte Google vor kurzem gleich selbst, als das Unternehmen der angesehenen KI-Ethikerin Timnit Gebru kündigte. Gebru war Mitbegründerin der Gruppe Black in A.I. und wurde bekannt durch einflussreiche Forschung im Bereich der sozialen Auswirkungen von Gesichtserkennungsprogrammen. Diese Forschung zeigte, dass die Erkennungssysteme Frauen und nicht-Weiße Menschen deutlich öfter fehlkategorisieren als Weiße Männer. Ein Artikel, den Gebru 2018 mitverfasste, wurde vielfach als „Wendepunkt“ bei dem Versuch angesehen, auf soziale Fehlwahrnehmungen automatisierter Entscheidungssysteme hinzuweisen und diese zu beseitigen.

Mit der Entlassung Gebrus schmälerte Google nicht nur (1) seine eigene technologische Fähigkeit, Diversitätsprobleme seiner Algorithmen in Angriff zu nehmen, sondern (2) auch die Diversität seiner Belegschaft selbst.

Algorithmen reproduzieren und verstärken gesellschaftliche Diskriminierung

Der Konflikt zwischen Gebru und ihrem ehemaligen Arbeitgeber entstand durch eine Auseinandersetzung über einen von ihr mitverfassten wissenschaftlichen Beitrag, der neue Systeme im Bereich der Sprachanalyse kritisierte, die auch Teil von Googles Suchfunktion sind. Da diese automatischen Systeme den Umgang mit Sprache durch „das Internet“ selbst, also die big data-Analyse einer Vielzahl von alltagsgebräuchlichen Texten lernen, enthalten diese Systeme oft die gleiche Art von Diskriminierung, die auch im Alltag unserer Gesellschaften anzutreffen ist.

Nach einem Experiment von Algorithmwatch verwendet Facebook grobe Stereotypen, um die Anzeigenschaltung zu optimieren. Beispielsweise werden Jobanzeigen für Berufe, die bisher kaum von Frauen ausgeübt werden, auch weiterhin nur wenigen Frauen gezeigt. Praktisch bedeutet dies, dass Facebook auf der Grundlage von Bildern diskriminiert. Photos von Lastwägen mit einem an Frauen gerichteten Anzeigentext wurden beispielsweise nur zu 12% weiblichen Nutzerinnen gezeigt.

Eine weitere aktuelle Studie zeigt, dass das Bilderkennungssystem von Google Frauen und Männer Attribute zuweist, die traditionelle und überkommene Geschlechterrollen zementieren. So belegten automatisierte Systeme Bilder von Männern mit Bezeichnungen wie „offiziell“, „Geschäftsmann“, „Sprecher“, „Redner“ und „Anzug“. Bilder von Frauen hingegen wurden verknüpft mit Bezeichnungen wie „Lächeln“, „Frisur“ und „Oberbekleidung“.

Wie also könnte man diesem Problem begegnen? Eine mögliche Antwort auf diese Frage lautet: Mehr Diversität unter den Softwareentwicklern. Doch auch hier hinken die Big Tech Unternehmen der Gesellschaft hinterher.

Das Silicon Valley ist kein Hort gesellschaftlicher Diversität

Silicon Valley hat schon seit einiger Zeit sein eigenes Diversitätsproblem. Der Ausstieg von Timnit Gebru erfolgte ein Jahr nachdem die prominente A.I. Ethikerin Meredith Whittaker bei Google kündigte und sagte, sie und andere Mitarbeiter seien internen Vergeltungsmaßnahmen ausgesetzt gewesen, weil sie öffentlich Proteste gegen den unternehmensinternen Umgang mit sexueller Belästigung am Arbeitsplatz organisiert und sich gegen die unternehmensinterne Handhabe von KI-Ethik ausgesprochen hatten. Whittaker war neben ihrer Tätigkeit bei Google auch Mitbegründerin des AI NOW Instituts an der New York Universität, das sich ethischen Fragen im Bereich der künstlichen Intelligenz widmet.

Erst kürzlich warf zudem die ehemalige Google Mitarbeiterin Christina Curley ihrem einstigen Arbeitgeber vor, dass Schwarze bei Neueinstellungen benachteiligt würden. Curley’s Aufgabenbereich beinhaltete die Rekrutierung neuer Angestellte mit dem Ziel die Diversität des Unternehmens zu erhöhen. Sie berichtete von einem Vorfall, in dem eine Weiße Vorgesetzte ihren Baltimore-Dialekt als „Behinderung“ bezeichnete. Baltimore hat traditionell einen großen afroamerikanischen Bevölkerungsanteil.

Nicht nur Google, sondern auch viele andere Unternehmen des Silicon Valley geben sich darüber hinaus nicht sonderlich viel Mühe, ein diverses Arbeitsumfeld zu schaffen. Coinbase, ein start-up, das einen online-Handelsplatz für Kryptowährungen bietet, wurde in den letzten beiden Jahren von 15 Schwarzen Mitarbeitern verlassen. Mindestens elf hatten vorher ihre Vorgesetzten oder die Personalabteilung darüber informiert, dass sie rassistisch oder diskriminierend behandelt worden waren.

Pinterest, das sich im Sommer noch als Unterstützer der Black Lives Matter Proteste gerierte, führte einen Kleinkrieg gegen zwei nunmehr ehemalige Schwarze Mitarbeiterinnen, die sich für ein besseres Faktenprüfungssystem einsetzten und verweigerte ihnen Unterstützung, als ihre persönlichen Daten Hasswebseiten zugespielt worden waren.

Dies sind nur die neusten Beispiele eines langjährigen strukturellen Problems, das sich auch in der amerikanischen Beschäftigungsstatistik widerspiegelt: Während im Jahr 2019 etwa zwölf Prozent der US-amerikanischen Beschäftigten Schwarze waren, lag ihr Anteil in der Tech Industrie bei nur sechs Prozent. Im Falle Facebooks, Alphabets, Microsofts und Twitters sogar noch darunter. Auch mittlerweile sechs Jahre währende Diversitätsbemühungen haben hier nur ein Wachstum der Diversität im unteren einstelligen Bereich bewirkt.

So wie der Frappuccino to go zwar Zeit spart, aber ökologisch völlig unsinnig ist, kann auch digital-ethisches Greenwashing nicht darüber hinwegtäuschen, dass im augenscheinlich progressiven Silicon Valley ein starker Strukturkonservatismus Weiße Dominanz zementiert und eine repräsentativere Abbildung der Gesellschaft verhindert. Im Ergebnis bedeutet dies eine Endlosschleife: Unternehmen mit unterdurchschnittlich diversen Angestellten produzieren automatisierte Entscheidungssysteme, die der gesellschaftlich bereits bestehenden Diskriminierung vieler Menschen gegenüber blind sind und diese damit weiter reproduzieren.

Was also kann gegen Diskriminierung getan werden?

Mit Blick auf das Problem diskriminierender Arbeitgeber müssen Menschen in Deutschland, die sich diskriminiert fühlen, diese Diskriminierung nach dem Allgemeinen Gleichbehandlungsgesetz selbst belegen. Bei der Nutzung sozialer Netzwerke wie Facebook ist dies schlechterdings unmöglich, da Nutzer keine Möglichkeit haben in Erfahrung zu bringen, welche Inhalte ihnen nicht gezeigt werden. Eine Möglichkeit, diesem Missstand zu begegnen läge in einer besseren Rechtslage, wie sie die deutsche Antidiskriminierungsstelle bereits gefordert hat. Bisher sind diese Rufe jedoch ungehört an der Politik verbeigegangen.

Auch für das Problem diskriminierend wirkender Algorithmen gibt es keine einfache Lösung. Unkritisch designte Algorithmen, die auf der Grundlage öffentlich verfügbarer Datensätze trainiert werden, reproduzieren bestehende Ungleichbehandlungen, selbst da, wo diese vermieden werden soll, mittels einer „Proxy Diskriminierung“. Denn selbst wenn beispielsweise Arbeitgeber möglicherweise diskriminierend wirkende Variablen wie Geschlecht, Hautfarbe oder Religion als Entscheidungskriterium explizit ausschließen, beinhalten die Trainingsdaten nach wie vor die in der Vergangenheit stattgefundene Diskriminierung. Diese schleicht sich durch nahe an den vermiedenen Ausschlusskriterien liegende Korrelate ein – beispielsweise wo gegen Frauen diskriminiert wird – wie oft Wörter wie „Frau“ oder „weiblich“ in Bewerbung und Lebenslauf zu finden sind.

Transparenz und Nachvollziehbarkeit von Algorithmen sind die Schlüsselbedingungen – insofern es der Datenschutz zulässt – um die diskriminierende Wirkung von Algorithmen beurteilen und ihnen begegnen zu können. Derzeit stemmen sich soziale Netzwerke wie Facebook zwar mit aller Kraft dagegen, Informationen über ihre Entscheidungs- und Rankingalgorithmen offenzulegen. Mit dem aktuellen Entwurf des Gesetzes für digitale Dienste der Europäischen Kommission könnte sich hier jedoch etwas bewegen.

Der Entwurf sieht vor, dass „sehr große Plattformen“ Informationsschnittstellen bereitstellen müssen, die Daten zu Werbe- und targeting-Kriterien einschließen. Darüber hinaus erhalten überprüfte Wissenschaftler Zugang zu Daten der Konzerne, um mögliche Risiken mit Blick auf Grundrechte und den öffentlichen Diskurs zu evaluieren. Unabhängige Evaluatoren, Regulierer und nationale Koordinierungsinstitutionen sollen Audits durchführen dürfen. Algorithmwatch kommt zu dem Schluss, dass der Entwurf einen guten Start darstellt, kritisiert aber, dass zwar Wissenschaftler Zugang zu Plattformdaten bekommen, aber keine NGOs und stellt Fragen zur Implementierung des Gesetzesentwurfs.

Letztendlich sind jedoch Menschen und ihre Entscheidungen bei der Programmierung von Algorithmen die ultimative Black Box. Daher müssen neben den automatisierten auch menschliche Wertentscheidungen dokumentiert werden. Denn da, wo Algorithmen wahllos und unkritisch auf der Grundlage öffentlich verfügbarer Texte entstehen, werden letztendlich auch einfach die ihnen inhärenten Werte, Normen und impliziten ethischen Leitbilder übernommen. Mit Ethik sind jedoch nicht jene Werte gemeint, die Menschen zufällig erworben haben, sondern jene, die sie gemäß gemeinschaftlicher Vorstellungen haben sollten. Aus diesem Grund sollten die Werturteile, die automatisierte Entscheidungssysteme täglich millionenfach treffen, öffentlich erörtert, abgewogen und priorisiert werden, damit sie unseren Zielen als Gesellschaft entsprechen und nicht einfach eine überkommene Vergangenheit reflektieren.

(Dieser Beitrag erschien auch auf den Seiten der Gesellschaft für digitale Ethik)

Blockchains – neue Träger demokratischer Prozesse?

Demokratien weltweit stehen vor einer Reihe von Herausforderungen. Technologien transformieren Gesellschaften und soziale Beziehungen, ohne dass die Politik in der Lage wäre, diese Wandlungsprozesse rechtzeitig zu verstehen, geschweige denn effektiv zu steuern. Dort wo bestehende Systeme an ihre Grenzen geraten, entstehen Gelegenheitsfenster für neue Technologien. Es scheint kein Zufall zu sein, dass sich Bitcoin, die erste Kryptowährung auf Grundlage der Blockchain-Technologie im Jahr 2009, unmittelbar nach der Wirtschafts- und Währungskrise, etablierte.

Ein wichtiger Teil des digitalen (Infrastruktur)wandels ging zuletzt von Blockchains aus. Wie TCP/IP, auf dem das Internet basiert, sind Blockchains Protokolle, die es ermöglichen Verträge und Transaktionen und die sie leitenden Regeln zu programmieren. Über dezentrale peer to peer Netzwerke geführt ermöglichen sie eine kostengünstige und sichere Validierung von Transaktionen. Alle Parteien haben Einsicht in die vollständige Blockchain, in der alle Trans-aktionen manipulationssicher gespeichert sind.

Trotz der derzeitigen Konjunktur als revolutionäre Technologie sind Blockchains wie andere Innovationen insofern ambivalent, als ihre Rückwirkungen auf Systeme wie Gesellschaft und Politik von den auf diesem Protokoll aufbauenden Anwendungen abhängt. Gleichwohl ist ein zentraler Aspekt dieser Technologie von besonderer Bedeutung. Die radikale Transparenz, die durch die vollständige Zurück- und Nachverfolgung aller in der Blockchain erfolgten (oder in der Zukunft zu tätigenden) Transaktionen ermöglicht wird, ist zwar durch Anonymisierung eingeschränkt, in ihrer Grundanlage jedoch geeignet, die derzeitige Form, Wahrnehmung und tatsächliche Nutzung öffentlicher Diskursräume im Sinne eines „code is law“ nachhaltig zu verändern. In diesem Zusammenhang gewinnt Transparenz als Prinzip seit mehreren Jahren an Bedeutung und wird dabei auch als Menschenrecht diskutiert, da es selbst ursächlich ist für die Realisierung anderer Menschenrechte wie freie Meinungsäußerung.

Jenseits oft diskutierter Anwendungsmöglichkeiten wie Wahlen und Auslagerung von Verwaltungsaufgaben müsste eine entsprechende Forschungsagenda ergründen, unter welchen Bedingungen diese technologische Innovation in fluiden und flexiblen gesellschaftlichen  Kontexten übernommen werden kann, wer ihre Regeln definiert und was dies für die Gestaltung des öffentlichen Raumes bedeutet, in dem Bürger demokratische Diskurse führen. Mit Blick auf den Einsatz der Blockchain-Technologie für demokratische Zwecke stellen sich aus meiner Sicht drei Fragekomplexe:

1. Welche Rückwirkungen hat Transparenz von Blockchain-Anwendungen auf soziale Akteure und deren Partizipation an Diskursen im öffentlichen Raum, insbesondere durch die ständige Verfügbarkeit von den in Blockchains enthaltenen Entwicklungen von Interaktionsstrukturen? Während etablierte Medien wie die New York Times bereits Blockchains nutzen um den Wahrheitsgehalt einzelner Aussagen zu verfolgen und messbar zu machen, steht hier im Mittelpunkt, wie solche Modelle Öffentlichkeit verändern können. Welche Auswirkungen hat die Omnipräsenz dieser Informationen auf Partizipation am öffentlichen Diskurs und wie ändert sich die Perzeption von Transparenz als Grundrecht?

2. Vertrauen im Sinne von Legitimation und Durchsetzung von Entscheidungen ist die Grundlage für das Funktionieren von Demokratie. Bisher wurde Vertrauen von demokratischen Institutionen generiert und garantiert. Blockchains bieten die Aussicht, die Generierung von Vertrauen von Institutionen auf das Protokoll zu verlagern und könnten somit zu einem Legitimationsverlust der Monopolstellung staatlicher Regelsetzungs- und Schiedsrichterfunktion führen. So denken unter anderem Institutionen wie die Europäische Zentralbank, wenn Blockchain-basierte Kryptowährungen zunehmend traditionelle Funktionen des Geldes übernehmen. Inwiefern haben Blockchains also das Potential mit grundlegenden staatlichen Leistungen zu konkurrieren? Welche Mechanismen charakterisieren ein Transaktionsmodell auf Blockchain-Technologie zwischen Bürger und Staat? 

3. Soziale und politische Prozesse verändern sich ständig, beruhen auf Aushandlung als zentralem Mechanismus zur Herstellung von Konsens und Kooperation als Grundlage demokratischer Legitimität. Gleichzeitig erfolgen Modifikationen in öffentlichen Blockchains durch Konsens und dort wo Konsens aufgrund von klassischen Koordinierungsproblemen nicht erzielt werden kann, kommt es durch Abspaltungen zur Fragmentierung des Systems, wie das Beispiel Bitcoin zeigt. Die für Verhandlungen notwendige Informalität steht in einem Spannungsverhältnis mit der Rigidität und Irreversibilität, die Blockchain-Anwendungen inhärent sind. Wie kann das Spannungsverhältnis zwischen dieser Rigidität und der Notwendigkeit von Informalität als Charakteristikum sich ständig wandelnder sozialer Beziehungen aufgelöst werden? Inwiefern sind konsensuell programmierte Anwendungen als schwer veränderbare Regelwerke überhaupt geeignet, sozial fluide Kontexte zu fassen?