Bis zum Verlust der Twittersprache. Deplatforming zwischen demokratischer Hygiene und cancel culture

Am Ende war es dann wieder nicht der amerikanische Senat, der die Reißleine für Donald Trump zog, sondern twitter und facebook. Da bekanntermaßen die größte Massenvernichtungswaffe die Masse selbst ist, setzen die sozialen Netzwerke seit einiger Zeit verstärkt darauf insbesondere jene unter die Lupe zu nehmen, die diese Masse mit Populismus, Demagogie, oder einfach nur plumpen Lügen verführen wollen. Dass es mit Donald Trump den nunmehr ehemaligen Präsidenten der USA getroffen hat, ist den einen unrechtmäßige Zensur und den andern überfällige Korrektur einer offensichtlichen Fehlentwicklung. Doch der Reihe nach.

Deplatforming, also der Entzug des Zugangs zur digitalen Öffentlichkeit sozialer Netzwerke, ist kein neues Phänomen, sondern eine altbekannte Moderationstechnik, wie sie seit Jahren in Onlineforen, wie beispielsweise beim Umgang mit spam accounts, angewandt wird. Auch ist Trump nicht der erste Politiker, dem dieser Zugang entzogen wurde. Im Jahre 2018 wurden Millionen Nutzer aufgrund ihrer Nähe zum Islamischen Staat von Twitter verbannt. Ebenfalls im Jahre 2018 entzog facebook den Militärführern Myanmars ihre offiziellen Kontos/Konten, nachdem über die Plattform muslimische Rohingya dämonisiert wurden, die dann zu Hunderttausenden vor ethnischen Säuberungen nach Bangladesh fliehen mussten. Selbst das Entfernen des rechts-konservativen sozialen Mediendienstes parler durch Amazon Webdienste, Google und Apple hat eine Präzedenz: Wikileaks wurde bereits 2010 nach der Veröffentlichung geheimer Dokumente über potenzielle Kriegsverbrechen von Amazon verbannt. Obwohl es also mitnichten das erste Mal war, dass ein Politiker seine Redeplattform im Internet verlor, hat der Fall des ehemaligen Präsidenten Donald Trump einiges zum Thema deplatforming ins Rollen gebracht.

Was war passiert?

Schon lange bevor Trump überhaupt in die Nähe einer Präsidentschaftskandidatur gerückt wurde, nutzte dieser seine sozialen Medienplattformen, um Lügen und Verschwörungstheorien zu verbreiten, wie beispielsweise, dass der damalige Präsident Obama nicht in den USA geboren sei. Die weitreichenden Auswirkungen der ständigen Lügen auf weite Teile der Bevölkerung führten zu einer Beschleunigung und Intensivierung der diesbezüglichen Diskussion und vor allem des praktischen Umgangs sozialer Medien mit diesem Problem. Noch im Jahr 2017 gewährte Twitter Trump unter dem Vorwand des besonderen Nachrichtenwerts Narrenfreiheit – auch dann noch, als er Nordkoreas Diktator Kim Jong Un im Streit um Atomwaffentests mit dessen Auslöschung drohte. Bereits seit Trumps Präsidentschaftskandidatur ließen die beiden großen sozialen Mediendienste kaum etwas unversucht, um ihrem größten Zugpferd keine Zügel anlegen zu müssen. Erst drei Jahre und zahllose Lügen und Hassbotschaften später sah sich Twitter gezwungen, seine Linie zu korrigieren: Unter seiner 2018 geschaffenen und 2020 verschärften Politik der „zivilen Integrität“ stufte Twitter am 26. Mai 2020 erstmals einen Tweet Trumps als „irreführende Informationen“ ein und versah ihn mit einem Warnhinweis.

Am 7. Januar 2021, einen Tag nach den von Trump inspirierten Ausschreitungen am Kapitol in Washington, bei denen 5 Menschen starben und 138 verletzt wurden, sperrte Twitter Trumps Konto für 12 Stunden. Der Kurznachrichtendienst knüpfte die vorübergehende Natur der Sperrung an die Maßgabe, dass Trump drei Tweets löschen musste und warnte, dass diese Sperre beim nächsten Vergehen auf unbestimmte Zeit verlängert würde. Kurz zuvor hatten auch facebook und instagram das Konto des noch wenige Tage amtierenden Präsidenten suspendiert. Einen Tag und zwei Tweets später schließlich vollzog Twitter den Schritt zur permanenten Sperrung. Neben facebook und instagram sperrten auch andere Dienste wie snapchat, twitch, spotify und shopify Trumps Nutzerkonten.

Deplatforming: Dürfen die das?

Private Unternehmen in den USA dürfen Politikern auch dann ihre Dienste verweigern, wenn sie elementare Kommunikationskanäle mit der Öffentlichkeit bereitstellen. In Deutschland hingegen, ist dieser Fall etwas anders gelagert. Intermediäre sind hier nach einer Entscheidung des Bundesverfassungsgerichtes „grundrechtsverpflichtet“, sobald sie eine entscheidende Größe erreicht haben, die für die öffentliche Kommunikation relevant ist. Das Bundesverfassungsgericht hat in diesem Zusammenhang bestätigt, dass „private Räume“ dann nicht mehr privat sind, wenn ohne sie öffentliche Kommunikation stark eingeschränkt wird.

Demnach hätte man einem Politiker von Trumps Kaliber in Deutschland nicht so leicht den Zugang zur digitalen Öffentlichkeit entziehen können, weil hier der gerichtliche Schutz politischer Äußerungen eine höhere Priorität einnimmt. Nach Ansicht des Bundesverfassungsgerichts sind private Unternehmen zwar nicht unmittelbar an Grundrechte wie die Meinungsfreiheit gebunden, jedoch strahlen die Grundrechte in andere Rechtsgebiete aus, so auch in die AGBs von sozialen Netzwerken. Dies bedeutet in der Praxis, dass facebook die Löschung der Äußerung einer AfD Politikerin zurücknehmen musste, da die Ausübung der Meinungsfreiheit nicht „die Rechte einer anderen Person“ verletze, wie es die AGBs forderten.

Zugleich haben Regierungspolitiker in Deutschland größere „Wahrheitspflichten“ als ihre amerikanischen Kollegen. Das öffentliche Äußerungsrecht fordert von den öffentlichen Redebeiträgen von Amtsträgern Prinzipien wie Sachlichkeit und Richtigkeit rigoroser ein als in den USA. Im November 2015 beispielsweise musste die damalige Bundesforschungsministerin Johanna Wanka eine „Rote Karte“, die sie der AfD auf der Webseite ihres Ministeriums wegen „Volksverhetzung“ zeigte, in Folge einer einstweilige Verfügung des Bundesverfassungsgerichts löschen. Einem deutschen Trump hätte rechtlich also viel früher Paroli geboten werden können.

Auch wenn die Rechtslage in Deutschland einen ähnlichen Geschichtsverlauf wie in den USA unwahrscheinlich erscheinen lässt, beantwortet dies nicht die Frage, wie wir in Zukunft mit Politikern umgehen, die unsere Gesellschaften spalten und gegeneinander aufhetzen, und ob die Sperrung wichtiger digitaler Kommunikationskanäle dazugehört. Klar und unstrittig ist: Die sozialen Medien haben zu viel Macht. Was aus diesem Zwischenergebnis jedoch geschlussfolgert werden soll, ist weniger klar. Denn in der Diskussion darüber, was soziale Netzwerke nun dürfen sollen und was nicht, stehen sich zwei Seiten diametral gegenüber.

Eine Perspektive lautet so: Deplatforming sollte erlaubt sein, denn echte Zensur kann nur vom Staat, mitnichten aber von privaten Unternehmen ausgehen. Das Recht auf freie Meinungsäußerung wird durch eine einfache Kontenlöschung bei sozialen Netzwerken nicht eingeschränkt, denn Donald Trump kann von diesem Recht weiterhin Gebrauch machen, nur eben nicht auf twitter und facebook. Zudem kann der Staat Unternehmen auch nicht dazu zwingen, Leuten wie ihm eine Plattform zu geben – erst recht dann nicht, wenn diese Person zuvor den Nutzungsbedingungen zugestimmt hat und in seinen Äußerungen sodann dagegen verstößt.

Auch die Gegenseite, die u.a. von Bundeskanzlerin Merkel vertreten wird, argumentiert, dass die Meinungsfreiheit als Grundrecht von elementarer Bedeutung nur durch die Politik, nicht aber nach dem Gutdünken schwerreicher Unternehmensführer eingeschränkt werden kann. Sie schließt jedoch daraus, dass Deplatforming abzulehnen ist, jedenfalls insofern es durch die sozialen Medien selbst geschieht. Nicht zuletzt hätte Meinungsfreiheit in sozialen Netzwerken auch zu sehr wünschenswerten Entwicklungen wie dem arabischen Frühling geführt und sollte daher nicht angetastet werden.

Was also tun?

Zunächst: Wissenschaftliche Erkenntnisse belegen, dass Deplatforming durchaus funktioniert. Eine Studie aus dem Jahr 2016 zeigte, dass das massenhafte Löschen von Kontos von Anhängern der islamistischen Terrororganisation ISIS zu einem erheblichen digitalen Einflussverlust führte. Eine weitere Analyse belegte eine Woche nach Trumps Plattformsentzug, dass Desinformationen über Wahlfälschungen in den USA um 73% zurückgegangen waren. Auch mit Blick auf Deutschland zeigt eine Studie, dass Deplatforming die Mobilisierungskraft der extremen Rechten deutlich einschränkt.

Bei der Suche nach Alternativen zum unternehmensgesteuerten Deplatforming wurden zwar einige gute Vorschläge gemacht. Diese setzen jedoch weniger bei der Entstehung und Popularisierung volksverhetzender Inhalte und Personen an, sondern erst bei der Eindämmung. Dazu gehören u.a. die Santa Clara Prinzipien zur content moderation. Einige Punkte daraus, wie beispielsweise das Recht auf Widerspruch bei unrechtmäßigen Löschungen wurden bereits von EU– und deutschen Gesetzgebern übernommen. Diese Prinzipien unterstützen neben Youtube und Twitter auch facebook, nur hält sich in den USA außer reddit keine der großen Plattformen daran. Während soziale Medien in den USA hier also weitgehend Narrenfreiheit haben, werden sie in Deutschland durch die novellierte Fassung des Netzwerkdurchsetzungsgesetzes zur Rechenschaft gezwungen.

Auch externe Plattformräte, besetzt mit Persönlichkeiten großer Legitimität wie Friedensnobelpreisgewinner, sind dabei ein guter, wenngleich deutlich ausbaufähiger Anfang. Beispiele sind der Löschbeirat, den Google zusammenstellte, um seine Regeln zum Recht vergessen zu werden zu definieren, oder das facebook oversight board, das über die dauerhafte Suspendierung Donald Trumps von dem sozialen Netzwerk entscheiden soll. Die Plattformen haben erkannt, dass die Regeln, die sie setzen, enorm einflussreich sind und sie sich Legitimation von außen einholen müssen, weil sie diese selbst nicht besitzen. Die Besetzung dieser Gremien sollte jedoch nicht durch die sozialen Medien selbst erfolgen. Auch sind im Falle des oversight boards facebooks mehr als 25% der Ratsmitglieder US-Amerikaner, die Diversität also nicht repräsentativ für ein weltweit operierendes Unternehmen.

Wir müssen reden

…denn auch wenn diese genannten Ansätze gute erste Schritte sind, greifen sie erst bei der Behandlung der Symptome, nicht aber beim Problem selber. Das Problem sind die Algorithmen, die sozialen Netzwerken ihren Charakter als Wut- und Hassschleudern verleihen. Denn an dem demokratiegefährdenden Geschäftsgeheimnis von twitter und facebook – jene Algorithmen nämlich, die für die Kuratierung individueller sozialer Medienkonten zuständig sind und aus Geschäftsgründen vor allem angst- und wutbesetzte Nachrichten fördern – war bisher nicht zu rütteln.

Zwar verspricht das Gesetz über digitale Dienste der EU-Kommission mit einer Transparenzpflicht für diese Algorithmen mehr Nachvollziehbarkeit. Eine große Hürde bei der effektiven Regulierung sozialer Netzwerke ist immer noch der Mangel an Wissen über ihre internen Entscheidungs- und Regelsetzungsprozesse. Gleichzeitig sind nach Ansicht des Juristen und Wissenschaftlers Matthias Kettemann Intermediäre jedoch so komplex, dass dem Gesetzgeber immer noch die Fähigkeit fehlt, soziale Netzwerke adäquat zu regulieren. Dies liegt daran, dass sie durch viele Kategorienraster fallen, weil sie viele verschiedene Funktionen erfüllen: Datenschutz, Wettbewerbsrecht, Kommunikationsrecht, Medienrecht (sofern sie eigene Inhalte produzieren).

Mit bloßer Transparenz ist es jedoch nicht getan. Wichtiger wäre eine echte „Demokratieverträglichkeitsprüfung“ der Empfehlungsalgorithmen sozialer Medien. Darüber hinaus sollten Filterblasen durch einen „Reale-Welt-Modus“ aufhebbar sein, sodass Nutzer die digitale Öffentlichkeit auch ohne Empfehlungsfunktion sehen können. Nicht zuletzt sollten Nutzer auch die Möglichkeit haben, für die Dienstleistung des sozialen networking mit Geld, anstatt mit Daten zu bezahlen.

Letztendlich haben sich die sozialen Medien in Trump ihr eigenes Monster selbst geschaffen. Deplatforming ist dabei nur die ultima ratio zur Korrektur einer Fehlentwicklung, die seit Jahren Gesellschaften destabilisiert. Wichtiger wäre daher die Arbeit an den Ursachen, den Algorithmen, die geeicht auf Interaktion Wut und Angst stärker verbreiten als moderate und abwägende Ansichten.

Das Diversitätsdilemma im Silicon Valley

Wer gedacht hat, dass im Silicon Valley nicht nur die „Frappuccino mit Haselnussmilch“-Fraktion, sondern auch die diversitätsfreundliche politische Linke beheimatet ist, hat sich zwar nicht im ersten, wohl doch aber im zweiten Punkt getäuscht. Schon seit einigen Jahren häufen sich die Hinweise darauf, dass – wer hätte es gedacht – gesellschaftliche Diversität und Themen wie digitale Ethik nur da eine Rolle spielen, wo sie unternehmensinterne Machtstrukturen und sprudelnde Gewinne nicht antasten.

Einen weiteren Beleg dafür lieferte Google vor kurzem gleich selbst, als das Unternehmen der angesehenen KI-Ethikerin Timnit Gebru kündigte. Gebru war Mitbegründerin der Gruppe Black in A.I. und wurde bekannt durch einflussreiche Forschung im Bereich der sozialen Auswirkungen von Gesichtserkennungsprogrammen. Diese Forschung zeigte, dass die Erkennungssysteme Frauen und nicht-Weiße Menschen deutlich öfter fehlkategorisieren als Weiße Männer. Ein Artikel, den Gebru 2018 mitverfasste, wurde vielfach als „Wendepunkt“ bei dem Versuch angesehen, auf soziale Fehlwahrnehmungen automatisierter Entscheidungssysteme hinzuweisen und diese zu beseitigen.

Mit der Entlassung Gebrus schmälerte Google nicht nur (1) seine eigene technologische Fähigkeit, Diversitätsprobleme seiner Algorithmen in Angriff zu nehmen, sondern (2) auch die Diversität seiner Belegschaft selbst.

Algorithmen reproduzieren und verstärken gesellschaftliche Diskriminierung

Der Konflikt zwischen Gebru und ihrem ehemaligen Arbeitgeber entstand durch eine Auseinandersetzung über einen von ihr mitverfassten wissenschaftlichen Beitrag, der neue Systeme im Bereich der Sprachanalyse kritisierte, die auch Teil von Googles Suchfunktion sind. Da diese automatischen Systeme den Umgang mit Sprache durch „das Internet“ selbst, also die big data-Analyse einer Vielzahl von alltagsgebräuchlichen Texten lernen, enthalten diese Systeme oft die gleiche Art von Diskriminierung, die auch im Alltag unserer Gesellschaften anzutreffen ist.

Nach einem Experiment von Algorithmwatch verwendet Facebook grobe Stereotypen, um die Anzeigenschaltung zu optimieren. Beispielsweise werden Jobanzeigen für Berufe, die bisher kaum von Frauen ausgeübt werden, auch weiterhin nur wenigen Frauen gezeigt. Praktisch bedeutet dies, dass Facebook auf der Grundlage von Bildern diskriminiert. Photos von Lastwägen mit einem an Frauen gerichteten Anzeigentext wurden beispielsweise nur zu 12% weiblichen Nutzerinnen gezeigt.

Eine weitere aktuelle Studie zeigt, dass das Bilderkennungssystem von Google Frauen und Männer Attribute zuweist, die traditionelle und überkommene Geschlechterrollen zementieren. So belegten automatisierte Systeme Bilder von Männern mit Bezeichnungen wie „offiziell“, „Geschäftsmann“, „Sprecher“, „Redner“ und „Anzug“. Bilder von Frauen hingegen wurden verknüpft mit Bezeichnungen wie „Lächeln“, „Frisur“ und „Oberbekleidung“.

Wie also könnte man diesem Problem begegnen? Eine mögliche Antwort auf diese Frage lautet: Mehr Diversität unter den Softwareentwicklern. Doch auch hier hinken die Big Tech Unternehmen der Gesellschaft hinterher.

Das Silicon Valley ist kein Hort gesellschaftlicher Diversität

Silicon Valley hat schon seit einiger Zeit sein eigenes Diversitätsproblem. Der Ausstieg von Timnit Gebru erfolgte ein Jahr nachdem die prominente A.I. Ethikerin Meredith Whittaker bei Google kündigte und sagte, sie und andere Mitarbeiter seien internen Vergeltungsmaßnahmen ausgesetzt gewesen, weil sie öffentlich Proteste gegen den unternehmensinternen Umgang mit sexueller Belästigung am Arbeitsplatz organisiert und sich gegen die unternehmensinterne Handhabe von KI-Ethik ausgesprochen hatten. Whittaker war neben ihrer Tätigkeit bei Google auch Mitbegründerin des AI NOW Instituts an der New York Universität, das sich ethischen Fragen im Bereich der künstlichen Intelligenz widmet.

Erst kürzlich warf zudem die ehemalige Google Mitarbeiterin Christina Curley ihrem einstigen Arbeitgeber vor, dass Schwarze bei Neueinstellungen benachteiligt würden. Curley’s Aufgabenbereich beinhaltete die Rekrutierung neuer Angestellte mit dem Ziel die Diversität des Unternehmens zu erhöhen. Sie berichtete von einem Vorfall, in dem eine Weiße Vorgesetzte ihren Baltimore-Dialekt als „Behinderung“ bezeichnete. Baltimore hat traditionell einen großen afroamerikanischen Bevölkerungsanteil.

Nicht nur Google, sondern auch viele andere Unternehmen des Silicon Valley geben sich darüber hinaus nicht sonderlich viel Mühe, ein diverses Arbeitsumfeld zu schaffen. Coinbase, ein start-up, das einen online-Handelsplatz für Kryptowährungen bietet, wurde in den letzten beiden Jahren von 15 Schwarzen Mitarbeitern verlassen. Mindestens elf hatten vorher ihre Vorgesetzten oder die Personalabteilung darüber informiert, dass sie rassistisch oder diskriminierend behandelt worden waren.

Pinterest, das sich im Sommer noch als Unterstützer der Black Lives Matter Proteste gerierte, führte einen Kleinkrieg gegen zwei nunmehr ehemalige Schwarze Mitarbeiterinnen, die sich für ein besseres Faktenprüfungssystem einsetzten und verweigerte ihnen Unterstützung, als ihre persönlichen Daten Hasswebseiten zugespielt worden waren.

Dies sind nur die neusten Beispiele eines langjährigen strukturellen Problems, das sich auch in der amerikanischen Beschäftigungsstatistik widerspiegelt: Während im Jahr 2019 etwa zwölf Prozent der US-amerikanischen Beschäftigten Schwarze waren, lag ihr Anteil in der Tech Industrie bei nur sechs Prozent. Im Falle Facebooks, Alphabets, Microsofts und Twitters sogar noch darunter. Auch mittlerweile sechs Jahre währende Diversitätsbemühungen haben hier nur ein Wachstum der Diversität im unteren einstelligen Bereich bewirkt.

So wie der Frappuccino to go zwar Zeit spart, aber ökologisch völlig unsinnig ist, kann auch digital-ethisches Greenwashing nicht darüber hinwegtäuschen, dass im augenscheinlich progressiven Silicon Valley ein starker Strukturkonservatismus Weiße Dominanz zementiert und eine repräsentativere Abbildung der Gesellschaft verhindert. Im Ergebnis bedeutet dies eine Endlosschleife: Unternehmen mit unterdurchschnittlich diversen Angestellten produzieren automatisierte Entscheidungssysteme, die der gesellschaftlich bereits bestehenden Diskriminierung vieler Menschen gegenüber blind sind und diese damit weiter reproduzieren.

Was also kann gegen Diskriminierung getan werden?

Mit Blick auf das Problem diskriminierender Arbeitgeber müssen Menschen in Deutschland, die sich diskriminiert fühlen, diese Diskriminierung nach dem Allgemeinen Gleichbehandlungsgesetz selbst belegen. Bei der Nutzung sozialer Netzwerke wie Facebook ist dies schlechterdings unmöglich, da Nutzer keine Möglichkeit haben in Erfahrung zu bringen, welche Inhalte ihnen nicht gezeigt werden. Eine Möglichkeit, diesem Missstand zu begegnen läge in einer besseren Rechtslage, wie sie die deutsche Antidiskriminierungsstelle bereits gefordert hat. Bisher sind diese Rufe jedoch ungehört an der Politik verbeigegangen.

Auch für das Problem diskriminierend wirkender Algorithmen gibt es keine einfache Lösung. Unkritisch designte Algorithmen, die auf der Grundlage öffentlich verfügbarer Datensätze trainiert werden, reproduzieren bestehende Ungleichbehandlungen, selbst da, wo diese vermieden werden soll, mittels einer „Proxy Diskriminierung“. Denn selbst wenn beispielsweise Arbeitgeber möglicherweise diskriminierend wirkende Variablen wie Geschlecht, Hautfarbe oder Religion als Entscheidungskriterium explizit ausschließen, beinhalten die Trainingsdaten nach wie vor die in der Vergangenheit stattgefundene Diskriminierung. Diese schleicht sich durch nahe an den vermiedenen Ausschlusskriterien liegende Korrelate ein – beispielsweise wo gegen Frauen diskriminiert wird – wie oft Wörter wie „Frau“ oder „weiblich“ in Bewerbung und Lebenslauf zu finden sind.

Transparenz und Nachvollziehbarkeit von Algorithmen sind die Schlüsselbedingungen – insofern es der Datenschutz zulässt – um die diskriminierende Wirkung von Algorithmen beurteilen und ihnen begegnen zu können. Derzeit stemmen sich soziale Netzwerke wie Facebook zwar mit aller Kraft dagegen, Informationen über ihre Entscheidungs- und Rankingalgorithmen offenzulegen. Mit dem aktuellen Entwurf des Gesetzes für digitale Dienste der Europäischen Kommission könnte sich hier jedoch etwas bewegen.

Der Entwurf sieht vor, dass „sehr große Plattformen“ Informationsschnittstellen bereitstellen müssen, die Daten zu Werbe- und targeting-Kriterien einschließen. Darüber hinaus erhalten überprüfte Wissenschaftler Zugang zu Daten der Konzerne, um mögliche Risiken mit Blick auf Grundrechte und den öffentlichen Diskurs zu evaluieren. Unabhängige Evaluatoren, Regulierer und nationale Koordinierungsinstitutionen sollen Audits durchführen dürfen. Algorithmwatch kommt zu dem Schluss, dass der Entwurf einen guten Start darstellt, kritisiert aber, dass zwar Wissenschaftler Zugang zu Plattformdaten bekommen, aber keine NGOs und stellt Fragen zur Implementierung des Gesetzesentwurfs.

Letztendlich sind jedoch Menschen und ihre Entscheidungen bei der Programmierung von Algorithmen die ultimative Black Box. Daher müssen neben den automatisierten auch menschliche Wertentscheidungen dokumentiert werden. Denn da, wo Algorithmen wahllos und unkritisch auf der Grundlage öffentlich verfügbarer Texte entstehen, werden letztendlich auch einfach die ihnen inhärenten Werte, Normen und impliziten ethischen Leitbilder übernommen. Mit Ethik sind jedoch nicht jene Werte gemeint, die Menschen zufällig erworben haben, sondern jene, die sie gemäß gemeinschaftlicher Vorstellungen haben sollten. Aus diesem Grund sollten die Werturteile, die automatisierte Entscheidungssysteme täglich millionenfach treffen, öffentlich erörtert, abgewogen und priorisiert werden, damit sie unseren Zielen als Gesellschaft entsprechen und nicht einfach eine überkommene Vergangenheit reflektieren.

(Dieser Beitrag erschien auch auf den Seiten der Gesellschaft für digitale Ethik)

Blockchains – neue Träger demokratischer Prozesse?

Demokratien weltweit stehen vor einer Reihe von Herausforderungen. Technologien transformieren Gesellschaften und soziale Beziehungen, ohne dass die Politik in der Lage wäre, diese Wandlungsprozesse rechtzeitig zu verstehen, geschweige denn effektiv zu steuern. Dort wo bestehende Systeme an ihre Grenzen geraten, entstehen Gelegenheitsfenster für neue Technologien. Es scheint kein Zufall zu sein, dass sich Bitcoin, die erste Kryptowährung auf Grundlage der Blockchain-Technologie im Jahr 2009, unmittelbar nach der Wirtschafts- und Währungskrise, etablierte.

Ein wichtiger Teil des digitalen (Infrastruktur)wandels ging zuletzt von Blockchains aus. Wie TCP/IP, auf dem das Internet basiert, sind Blockchains Protokolle, die es ermöglichen Verträge und Transaktionen und die sie leitenden Regeln zu programmieren. Über dezentrale peer to peer Netzwerke geführt ermöglichen sie eine kostengünstige und sichere Validierung von Transaktionen. Alle Parteien haben Einsicht in die vollständige Blockchain, in der alle Trans-aktionen manipulationssicher gespeichert sind.

Trotz der derzeitigen Konjunktur als revolutionäre Technologie sind Blockchains wie andere Innovationen insofern ambivalent, als ihre Rückwirkungen auf Systeme wie Gesellschaft und Politik von den auf diesem Protokoll aufbauenden Anwendungen abhängt. Gleichwohl ist ein zentraler Aspekt dieser Technologie von besonderer Bedeutung. Die radikale Transparenz, die durch die vollständige Zurück- und Nachverfolgung aller in der Blockchain erfolgten (oder in der Zukunft zu tätigenden) Transaktionen ermöglicht wird, ist zwar durch Anonymisierung eingeschränkt, in ihrer Grundanlage jedoch geeignet, die derzeitige Form, Wahrnehmung und tatsächliche Nutzung öffentlicher Diskursräume im Sinne eines „code is law“ nachhaltig zu verändern. In diesem Zusammenhang gewinnt Transparenz als Prinzip seit mehreren Jahren an Bedeutung und wird dabei auch als Menschenrecht diskutiert, da es selbst ursächlich ist für die Realisierung anderer Menschenrechte wie freie Meinungsäußerung.

Jenseits oft diskutierter Anwendungsmöglichkeiten wie Wahlen und Auslagerung von Verwaltungsaufgaben müsste eine entsprechende Forschungsagenda ergründen, unter welchen Bedingungen diese technologische Innovation in fluiden und flexiblen gesellschaftlichen  Kontexten übernommen werden kann, wer ihre Regeln definiert und was dies für die Gestaltung des öffentlichen Raumes bedeutet, in dem Bürger demokratische Diskurse führen. Mit Blick auf den Einsatz der Blockchain-Technologie für demokratische Zwecke stellen sich aus meiner Sicht drei Fragekomplexe:

1. Welche Rückwirkungen hat Transparenz von Blockchain-Anwendungen auf soziale Akteure und deren Partizipation an Diskursen im öffentlichen Raum, insbesondere durch die ständige Verfügbarkeit von den in Blockchains enthaltenen Entwicklungen von Interaktionsstrukturen? Während etablierte Medien wie die New York Times bereits Blockchains nutzen um den Wahrheitsgehalt einzelner Aussagen zu verfolgen und messbar zu machen, steht hier im Mittelpunkt, wie solche Modelle Öffentlichkeit verändern können. Welche Auswirkungen hat die Omnipräsenz dieser Informationen auf Partizipation am öffentlichen Diskurs und wie ändert sich die Perzeption von Transparenz als Grundrecht?

2. Vertrauen im Sinne von Legitimation und Durchsetzung von Entscheidungen ist die Grundlage für das Funktionieren von Demokratie. Bisher wurde Vertrauen von demokratischen Institutionen generiert und garantiert. Blockchains bieten die Aussicht, die Generierung von Vertrauen von Institutionen auf das Protokoll zu verlagern und könnten somit zu einem Legitimationsverlust der Monopolstellung staatlicher Regelsetzungs- und Schiedsrichterfunktion führen. So denken unter anderem Institutionen wie die Europäische Zentralbank, wenn Blockchain-basierte Kryptowährungen zunehmend traditionelle Funktionen des Geldes übernehmen. Inwiefern haben Blockchains also das Potential mit grundlegenden staatlichen Leistungen zu konkurrieren? Welche Mechanismen charakterisieren ein Transaktionsmodell auf Blockchain-Technologie zwischen Bürger und Staat? 

3. Soziale und politische Prozesse verändern sich ständig, beruhen auf Aushandlung als zentralem Mechanismus zur Herstellung von Konsens und Kooperation als Grundlage demokratischer Legitimität. Gleichzeitig erfolgen Modifikationen in öffentlichen Blockchains durch Konsens und dort wo Konsens aufgrund von klassischen Koordinierungsproblemen nicht erzielt werden kann, kommt es durch Abspaltungen zur Fragmentierung des Systems, wie das Beispiel Bitcoin zeigt. Die für Verhandlungen notwendige Informalität steht in einem Spannungsverhältnis mit der Rigidität und Irreversibilität, die Blockchain-Anwendungen inhärent sind. Wie kann das Spannungsverhältnis zwischen dieser Rigidität und der Notwendigkeit von Informalität als Charakteristikum sich ständig wandelnder sozialer Beziehungen aufgelöst werden? Inwiefern sind konsensuell programmierte Anwendungen als schwer veränderbare Regelwerke überhaupt geeignet, sozial fluide Kontexte zu fassen?