Der Politikwissenschaftler Thorsten Thiel über die Debatte um Fake News, die Folgen für die kommenden Wahlen und die politische Kultur im digitalen Strukturwandel.
UniReport: Herr Thiel, „Fake News“ wurde zum Anglizismus des Jahres gekürt, „postfaktisch“ zum Wort des Jahres erklärt. Handelt es sich hier wirklich um ein neues Phänomen?
Thorsten Thiel: Ich bin skeptisch und denke, dass die Debatte um die Neuheit des Problems eher ablenkt von allgemeinen Veränderungen in unserer Kommunikations- und Informationsinfrastruktur. Fake News in einem engen Sinne – als erfundene Nachrichten, die sich durch soziale Medien rasant und unkorrigiert verbreiten – stellen nach meiner Einschätzung ein Nischenphänomen dar. Die Debatte gewinnt ihre Dynamik dadurch, dass das Thema Fake News oft vermischt wird mit anderen Aspekten des digitalen Strukturwandels: etwa der zunehmenden Polarisierung gesellschaftlicher Diskurse (Filterblasen), der Verrohung öffentlicher Kommunikation (Hate Speech) oder der Debatte um automatisierte Kommunikation (social bots). Der zeitdiagnostische Zungenschlang und ein allgemeiner Technikskeptizismus führen dann in einen überhitzten Diskurs, der sich in meinen Augen an einer Banalität festhält, wenn er so tut, als gelte es, Faktizität selbst zu verteidigen.
Trotzdem: Facebook hat angekündigt, stärker gegen Fake News vorzugehen und öffentlich-rechtliche Rundfunkanstalten etablieren eigene Teams, um Falschmeldungen nachzuspüren. Was halten Sie grundsätzlich von solchen Bemühungen? Ist sowas machbar, wo liegen die Grenzen?
In technischer Hinsicht halte ich es für kein triviales, aber doch ein bewältigbares Problem, den Gegenstand von Aussagen zu erkennen und diese zu bewerten. Sicher ist so etwas nie frei von Fehlern, aber die Verfahren werden immer besser werden. Beispiele wie das automatisierte Erkennen von Bildern oder die Durchsetzung von Urheberrechtsansprüchen zeigen, dass Fortschritte in Erkennung und Bewertung schnell zu erwarten sind, wenn erst einmal Ressourcen in ein solches Projekt gesteckt werden. Nachrichten oder gar Meinungen sind aber natürlich trotzdem in vielerlei Hinsicht eine andere Materie. So ist nur schwer vorstellbar, dass sich algorithmisch mehr als eine rudimentäre Prüfung umsetzen lässt. Das investigative Arbeiten, welches nötig ist, um den Wahrheitsgehalt einer Geschichte zu prüfen, können Computer so nicht übernehmen. Was sie wohl prüfen können, ist, inwiefern als autoritativ eingeschätzte Quellen ähnliches berichten und dadurch gewissermaßen verifizieren. Wie schwierig es ist, über Fakten zu urteilen, lässt sich gut am Beispiel der Wikipedia erörtern. Deren Erfolg liegt im kollektiven Editionsprozess, der sich gegenüber klassischen Enzyklopädien mit ihrer professionalisierten Redaktionsstruktur gerade deshalb durchgesetzt hat, weil er sich als geeignet erwies, Nachprüfbarkeit zu etablieren, wo es um ein extrem breites und differenziertes Wissen geht. Und doch hat das auf Nachprüfbarkeit und Neutralität geeichte System gerade da seine Grenze, wo es um Politisches und Gesellschaftliches geht – wie sich an hochbrisanten Artikeln, etwa jenen zum Israel-Palästina- Konflikt, zeigt.
Sollten liberale Gesellschaften es aber überhaupt wollen, dass intermediäre Akteure wie Facebook oder Google diese Form der staatlichen Hoheit bei der Wahrheitsbewertung übernehmen?
Wenn wir eine solche Abwägung etwa in Bezug auf Fake News von Facebook und anderen verlangen, so riskieren wir einiges: Zunächst einmal gibt der Staat hoheitliche Zuständigkeiten ab und macht sich damit tendenziell abhängig von der Expertise und Prozessen kommerzieller Akteure. Ein anderes Problem ist, dass die für die Beurteilung entwickelten Techniken auch in anderen Kontexten zum Einsatz kommen können. Was in Deutschland zur Filterung von Falschmeldungen eingesetzt wird, kann im Kontext von autoritären Regimen der Zensur abweichender Meinungen dienen. Auch finanzielle Sanktionen für Intermediäre, wie sie das Netzwerkdurchsetzungsgesetz vorschlägt, sind problematisch: Hier soll Souveränität demonstriert werden, aber die Gefahr ist groß, dass die vom Gesetz diktierten Bedingungen dazu führen, dass weit öfter gelöscht wird als notwendig.
Das Internet ist ja nicht nur ein Hort von rechtem Populismus, sondern ebenso ein Medium für emanzipatorische Projekte. Haben die Utopien früherer Internetaktivisten ihre Bedeutung eingebüßt?
Sicher haben sich die utopischen Vorstellungen, wie sie gerade in der Frühphase des WorldWideWeb florierten, nicht in der Weise realisiert: Vorstellungen wie jene, dass das Individuum unmittelbar und jederzeit an allem partizipieren könnte, der Staat verschwinde und dies echte Demokratie bedeute, unterschätzen soziale Komplexität und sind wenig überraschend gescheitert. Die derzeit gängige Umkehrung des Denkens über das Netz, die alles in eine Dystopie vom überwachten Menschen verwandelt, greift aber in ähnlicher Weise zu kurz. Technische Infrastrukturen wirken nicht in dieser Weise determinierend. Wir können und sollten sie vielmehr gestalten.
Sind die Bilder, die man sich im Allgemeinen vom Internet macht, unzulässige Reduktionen?
Ja, ich denke, es ist tatsächlich wichtig zu reflektieren, wie wichtig Sprache und Metaphern für unser Verständnis vom Digitalen sind. Nur mittels dieser können wir uns nämlich eine Vorstellung vom Digitalen machen. Und aus dieser leiten wir dann ab, wie mit dem Netz umzugehen ist. Als Beispiel: Die Vorstellung des Krieges im Netz, des Cyberwar, ist in vielerlei Hinsicht irreführend und trotzdem weit verbreitet. Sie trägt zum Unsicherheitsgefühl bei, was wiederum als Rechtfertigung des Ausbaus staatlicher Überwachungskapazitäten verwendet wird. Angstbesetzte Metaphern des Digitalen führen insofern nicht zu mehr Sicherheit, sondern dienen oft nur dazu, die dezentrale Struktur des Netzes stärkerer Kontrolle zugänglich zu machen. Auf lange Sicht birgt dies Gefahren für die Computersicherheit, aber wohl auch für die Demokratie. Obwohl Dezentralität nicht mit Demokratie gleichzusetzen ist, muss man doch sehen, wie sie etwa positive Veränderungen in der zivilgesellschaftlichen Selbstorganisation ermöglicht. Wir sollten die emanzipatorischen Vorstellungen vom Digitalen daher nicht völlig aufgeben, sondern weiter darüber nachdenken, wo und wie digitale Infrastrukturen ihrer Realisierung zuarbeiten.
Viele befürchten die Einflussnahme russischer Hacker auf die Wahlen in Deutschland. Wie schätzen Sie diese Gefahr ein?
Hier muss man unterscheiden: Eine Strategie wäre, dass die Öffentlichkeit durch Fake News oder – subtiler – gezielte und verfälschende Ansprache von bestimmten Milieus zu erreichen versucht wird. Man hofft so, durch kleine Eingriffe große Effekte zu erzielen. Die Wahl Donald Trumps wird häufig so interpretiert. Auch in Deutschland wird sicher versucht werden, auf diese Weise Einfluss zu nehmen. Das bekannteste Beispiel bisher ist der Fall ‚Lisa‘, die erfundene Geschichte einer durch staatliche Behörden vertuschten Vergewaltigung eines 13-jährigen Mädchens, welche über russische Medien in den deutschen Diskurs getragen wurde. Ich bezweifele aber die Effizienz solcher Strategien. Dass Menschen massenhaft durch solche Fehlinformationen von einer Position überzeugt werden, ihre Wahlentscheidung ändern oder überhaupt motiviert werden zur Wahl zu gehen, erscheint mir unwahrscheinlich. Und der beste Schutz vor solchen Beeinflussungen ist eine pluralistische Öffentlichkeit, ein diversifiziertes Mediensystem und ein Mehrparteiensystem – all das ist in Deutschland gegeben. Ein andere Strategie des Eingriffs von außen ist das Leaking. Leaking wird derzeit im öffentlichen Diskurs noch stark mit Whistleblowing gleichgesetzt und positiv assoziiert. Zunehmend wird es aber auch von staatlichen Geheimdiensten als politische Taktik eingesetzt. Staaten extrahieren Informationen oft durch Hacking, die individuelle Gewissensentscheidung wie sie im zivilen Ungehorsam eines Edward Snowden vorlag, entfällt daher. Eine noch größere Gefahr ist, dass Leaks von staatlicher Seite nicht nur auf authentifizierbarem Material beruhen, sondern auch gefälschte Dokumente eingespeist werden. Im Falle des schlecht getimten Leaks zum nun trotzdem gewählten französischen Präsidenten Macron scheint dies eine Rolle gespielt zu haben. Dieser Fall zeigt, wie schwierig es ist, durch Informationen, seien sie authentisch oder nicht, eine Wahl zu manipulieren. Wie Information eingeordnet und diskutiert werden, ist entscheidend.
Als Wissenschaftler forschen Sie zur Digitalisierung, woran arbeiten Sie gerade?
Der Zusammenhang von Öffentlichkeit und Digitalisierung wird in der Politikwissenschaft bisher meist in Bezug auf die Frage diskutiert, inwiefern die digitale Transformation Fragmentierung und Polarisierung verstärkt. Mich interessiert hingegen mehr, welche Strukturen von Öffentlichkeit welche Handlungsoptionen für Bürger hervorbringen. Digitalisierung meint in diesem Zusammenhang dann auch mehr als nur Vernetzung, sie umfasst mindestens auch die Dimension von Datenspeicherung und Datenauswertung. Eine konkrete Frage etwa, an der ich zurzeit arbeite, ist, wie sich die Möglichkeiten anonymer Kommunikation verändern und wie diese Veränderung zu bewerten und ggf. zu regulieren ist. Solche Themen sind medial präsenter als im (politik-)wissenschaftlichen Diskurs – etwas, was ich ändern möchte.
[dt_call_to_action content_size=”small” background=”fancy” line=”true” animation=”none”]
Dr. Thorsten Thiel ist Koordinator des Leibniz-Forschungsverbundes ‚Krisen einer globalisierten Welt‘, wissenschaftlicher Mitarbeiter am Leibniz-Institut Hessische Stiftung Friedens- und Konfliktforschung und assoziiertes Mitglied am Frankfurter Exzellenzcluster ‚Normative Ordnungen‘. Er forscht zu der Frage, wie Staatlichkeit und Souveränität sich durch die Veränderungen im Bereich der Informations- und Kommunikationstechnologie behaupten, und zu anderen Fragen des digitalen Strukturwandels der Öffentlichkeit. Von ihm kürzlich erschienen: Thorsten Thiel (2016): Anonymität und der digitale Strukturwandel der Öffentlichkeit, in: Zeitschrift für Menschenrechte, 10: 1, S. 7-22.
[/dt_call_to_action]
Dieser Artikel ist in der Ausgabe 3.17 (PDF-Download) des UniReport erschienen.