Tonald Drump, Zensur und Deplatforming

Nach der Erstürmung des Kapitols am 6. Januar 2021 äußerte sich der noch amtierende amerikanische Präsident öffentlich erst einmal gar nicht. Trumps Schweigen zielte eindeutig darauf, koordinierte Maßnahmen gegen die Eskalation, die er durch seine Rede am Morgen selbst angezettelt hatte, zu verhindern.1 »Six hours of paralysis«, titelte die Washington Post. Erst nach einer von Joe Biden hastig zusammengestückelten Rede zum »Angriff auf die Demokratie« postete Trump über die Plattformen Twitter, Facebook und Youtube ein Video aus dem Garten des Weißen Hauses. Es handelte sich um eine Stellungnahme gegen Gewalt und gleichzeitig eine Bekräftigung der Behauptung, die Wahl sei ihm gestohlen worden.

(Der Text ist im Juliheft 2021, Merkur # 866, erschienen.)

Zu diesem Zeitpunkt war längst ein Bild- und Meinungskrieg in den sozialen Medien entfacht, der in der Sperrung des Twitter-Accounts @realdonaldtrump mit seinen 88 Millionen Followern kulminierte. Facebook und Instagram zogen nach, auch Youtube fror den Trump-Account noch vor der Inauguration von Joe Biden ein, um der Gefahr einer Anstiftung zum Aufstand vorzubeugen. Parler, ein unreguliertes, von rechten Gruppierungen okkupiertes Free-Speech-Netzwerk, wurde von Apple abgeschaltet.2

Zensur-Begriffe

Ein solches deplatforming, »der regulative Akt, eine Gruppe oder ein Individuum zu sperren bzw. zu löschen und den Zugang zu interaktiven Plattformen zu verweigern«, wurde bisher insbesondere bei rechtsextremen Gruppierungen und Hassakteuren oder im Kontext von Gewalt- und Nacktheitsdarstellungen praktiziert.3 Dass der Microblogging-Dienst Twitter und andere Anbieter die Accounts des amerikanischen Präsidenten sperrten, weist auf eine Neusortierung der Machtverhältnisse, Regularien und Begriffe hin, mit denen die Spielregeln auf dem Meinungsmarkt des Plattformkapitalismus festgelegt werden.4

Dementsprechend herrschte erst einmal Verwirrung darüber, ob dieser Vorgang als unzulässige Zensur oder notwendige Regulierung gefährlicher Inhalte zu werten sei. Der ZDF-Redakteur Stephan Mündges sah in der Löschung die richtige, aber zu späte Konsequenz aus der andauernden gesellschaftlichen Polarisierung durch soziale Medien, die nicht zuletzt zur Gewalt in Washington geführt habe.5 Der russische Kreml-Kritiker Alexej Nawalny hingegen kritisierte Twitter für die Sperrung, da der Weg zur Entscheidungsfindung intransparent und damit willkürlich gewesen sei: »Der Bann von Donald Trump auf Twitter ist ein inakzeptabler Akt von Zensur.«6 Auch Angela Merkel ließ durch ihren Regierungssprecher vermelden, dass sie die dauerhafte Sperrung Trumps durch Twitter kritisch sehe. »Die Betreiber sozialer Netzwerke trügen zwar Verantwortung dafür, dass die politische Kommunikation nicht mit Hass und Anstiftung zu Gewalt vergiftet werde […] Die Meinungsfreiheit als Grundrecht von elementarer Bedeutung könne aber nur durch den Gesetzgeber, nicht nach der Maßgabe von Unternehmen eingeschränkt werden.«7 Merkel beruft sich im Moment höchster Eskalation also auf die klassischen Zensurakteure – den Staat und die Gesetzgebung. Gemeinhin wird in der Diskussion über Zuständigkeiten an dieser Stelle der Artikel 5, Absatz 1 des Grundgesetzes zitiert, nach dem Zensur in Deutschland rechtlich ausgeschlossen ist: »Jeder hat das Recht, seine Meinung in Wort, Schrift und Bild frei zu äußern und zu verbreiten […] Eine Zensur findet nicht statt.«

Durch eine transatlantische Verknäuelung des deutschen Grundrechts auf freie Meinungsäußerung mit den Regularien global agierender Akteure des Plattformkapitalismus meist US-amerikanischer Herkunft sind die eindeutigen Zuordnungen, nach denen Zensurakte von Regulierung und Content Moderation abgegrenzt werden, neu in Bewegung geraten. Dabei wird unter dem Druck aktueller Ereignisse ein Dilemma sichtbar: Die sozialen Netzwerke sollen – so fordern auch Netzaktivistinnen und NGOs wie Reporter ohne Grenzen – ihre Verantwortung gegenüber geposteten Inhalten wahrnehmen. Sie sind nicht neutral gegenüber Hass, Gewalt und Hetze; die Grenzen der Meinungsfreiheit können jedoch nur vom Staat und dessen Gesetzgebung festgelegt werden.8

Das gilt zumindest, sofern man unter Zensur ausschließlich staatliches Eingreifen versteht, das sich auf Gesetze beruft, und etwa versucht, den Artikel 5 des deutschen Grundgesetzes oder das First Amendment zur Rede- und Pressefreiheit des US-amerikanischen Rechts mit dem Persönlichkeits- oder Jugendschutz in Einklang zu bringen.9 Es liegt auf der Hand, dass ein solch enger Zensurbegriff die zahllosen, oft zweifelhaften Fälle von Sperrungen, Regulierungen und Löschungen nicht in den Blick bekommt, die auf der Grundlage rechtlich legitimer Regularien (community guidelines) geschehen und bei denen mitunter über das Erscheinen und Verschwinden ganzer Accounts entschieden wird. Angesichts dieser Entwicklung wurde eine Ausweitung des Zensurbegriffs vorgeschlagen, der »alle Fremdeinflüsse auf Medien« einschließt, »die Veröffentlichungen beeinflussen oder unterbinden, gleich, ob durch staatliche oder nichtstaatliche Gruppen«.10 Diese weite Definition läuft allerdings Gefahr, einen inflationären Zensurbegriff überall dort anzuwenden, wo Debatte und Kritik vonnöten wären: »Was passiert […], wenn wir überall Zensur wittern, wo eigentlich nur Kritik geübt wird?«, fragt Nikola Roßbach.

Die Herausforderung besteht offenbar darin, eine Beschreibungsebene zu finden, die die unterschiedlichen Maßnahmen zur Content Moderation, von Upload-Filtern bis zu algorithmischer Bilderkennung und -löschung nicht vorschnell als Zensur diskreditiert, jedoch angesichts tiefgreifender regulatorischer Praktiken im Netz einen gewissen »Formwandel der Zensur« anerkennt.11 Da Medienkonzerne aus rechtlicher Sicht ihre Regularien zur Content Moderation nicht offenlegen müssen12 und zugleich erfolgreiche Technologien die Tendenz haben, sich unsichtbar zu machen, ergibt sich hier eine neue Problematik: Je effizienter die technischen Verfahren sind, desto weniger nachvollziehbar wird, wie sie eigentlich konkret funktionieren.13 Dieses Dilemma lässt sich auch nicht dadurch auflösen, dass man den Usern allgemeine Hinweise auf Guidelines oder anonyme Ansprechpartner zur Verfügung stellt.

(…)

 


Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert.