Medien und Kommunikation in der vernetzten Gesellschaft

Prof. Dr. Martin Emmer Gründungsdirektor am Weizenbaum-Institut für die vernetzte Gesellschaft, und Principal Investigator der Forschungsgruppe „Digital Citizenship“, erörtert mit der Redaktion aktuelle Entwicklungen zu Fake News, Metaverse und Blockchain-Technologien sowie deren Auswirkungen auf unsere vernetzte Gesellschaft im Kontext von Kommunikation und Medien.

Herr Prof. Emmer, Sie beschäftigen sich schon lange mit den Auswirkungen digitaler Technologien im Hinblick auf unsere Gesellschaft. Welche Forschungsschwerpunkte verfolgen Sie?

Als Mediennutzungsforscher interessiere ich mich dafür, warum, wie und wofür Menschen Medien nutzen und was das für unsere Gesellschaft bedeutet. Heute geht es dabei natürlich vor allem um den digitalen Medienwandel, und mir insbesondere um die politische Dimension der Nutzung: Wo können neue digitale Medien und vor allem die zunehmende Rolle von KI die demokratische Mitbestimmung der Bürgerinnen und Bürger stärken oder gefährden? Welche Probleme bringen soziale Medien – etwa durch die massenhafte Verbreitung von Propaganda, Fake News und Hatespeech – für das soziale Miteinander und die politische Willensbildung mit sich?

Welche Erkenntnisse konnten Sie bisher aus Ihrer aktuellen Studie gewinnen?

Ein sicher wichtiger Befund ist, dass man – bei unserem Blick auf die gesamte Gesellschaft, gewissermaßen aus der Vogelperspektive – keine dramatischen Phänomene wie eine allgemeine „Verrohung“ der Gesellschaft oder einen generellen Vertrauensverlust in Demokratie, Medien oder politische Institutionen feststellen kann. Es zeigt sich hingegen, dass zunehmend mehr Menschen die Probleme in den Debatten im Internet und auf sozialen Medien wahrnehmen und sehen, dass sie hier selbst Verantwortung übernehmen können und sollten.

Das heißt aber nicht, dass es keine Probleme gibt, im Gegenteil: Gefährlich ist vor allem, dass sich in Foren auf Messenger-Diensten wie Telegram oder auf Facebook Menschen mit extremistischen Einstellungen zusammenfinden, sich dort immer weiter radikalisieren und Drohungen, Gewalttaten sowie Terrorismus die Folge sein können. Quantitativ sind diese Gruppen nicht sehr groß, sie stellen aber durch ihre Aggressivität ein reales und wachsendes Problem dar.

Wie können wir uns noch gegen „Fake News“ wehren?

Einerseits ist sicher eine stärkere Kompetenz und Eigenverantwortung von Bürger:innen nötig: Die digitale Medienwelt ist unendlich vielfältiger als die alte Massenmedienwelt, mit vielen Vorteilen, aber eben auch mit der Herausforderung, mit dieser riesigen Fülle an Informationen umzugehen. Wenn möglichst viele Menschen wissen, wie man Fake News erkennt, verlässliche Informationen findet und sich ein ausgewogenes Informationsmenü zusammenstellt, wäre schon viel gewonnen.

Allerdings ist es nicht fair, die Verantwortung einfach auf uns einzelne Nutzende abzuschieben, während uns Multimilliarden-Konzerne weiterhin aus reinen Profitgründen hemmungslos mit Informationsmüll überschütten. Nötig ist sicher auch, politischen Druck auf die Plattformen auszuüben, ihre Algorithmen stärker an Gemeinwohlkriterien auszurichten. Darüber hinaus wären auch eine fundierte Strategie und mit entsprechenden Ressourcen ausgestattete Strafverfolgungsbehörden sinnvoll, um effektiver gegen koordinierte Desinformations- und  Hasskampagnen vorzugehen, die unsere freiheitlich-demokratische Gesellschaftsordnung angreifen, indem sie z. B. Gewalttaten befeuern.

© Kay Herschelmann

„Konflikte sind menschlich und müssen ausgetragen werden, Gesellschaften brauchen Diskurse über ihre Ziele und die Wege, diese zu verfolgen – eine Technologie, die verspricht, solche Aushandlungsprozesse überflüssig zu machen, ist gefährlich.”


Prof. Dr. Martin Emmer vom Weizenbaum-Institut für die vernetzte Gesellschaft. Als Gründungsdirektor und Principal Investigator führt er die Forschungsgruppe „Digital Citizenship


Wie und woran kann ich dann „Fake News“ erkennen?

Dazu gibt es ja mittlerweile im Internet eine Menge Ratgeber, etwa von der Bundeszentrale für Politische Bildung, dem Goethe-Institut oder vertrauenswürdigen Medien wie tagesschau.de. Denen kann man wichtige Regeln wie „Seriosität der Quelle prüfen“ oder „Inhalte mit anderen Meldungen vergleichen“ entnehmen.

In unserem Alltag ist das aber natürlich nicht immer machbar, deswegen sind auch sehr grundlegende Kompetenzen hilfreich, wie Reflexionsfähigkeit und Impulskontrolle: Klicke ich zu schnell auf einen sogenannten „Clickbait“, werde ich durch eine Nachricht so emotional angesprochen, dass ich diese ohne nachzudenken like oder weiterleite?

Viele Desinformationskampagnen verbergen sich z. B. hinter emotionalen Hilfeaufrufen oder Warnmeldungen, durch die fremdenfeindliche Narrative verbreitet werden („Habe gerade beobachtet, wie vor dem Supermarkt X in Y ein Asylbewerber ein Kind entführen wollte, verbreitet die Nachricht schnell, um alle Eltern zu warnen!“).

>>>„Meta schafft Arbeitsplätze im deutschen Journalismus. Die Deutsche Presse-Agentur (dpa) beschäftigt von April an ein 15-Leute-Team, das für den Facebook-Konzern deutsche Nachrichten kuratieren soll.“
(https://netzpolitik.org/2022/facebook-news-fuer-dpa-wird-das-desinformationsproblem-von-meta-zum-geschaeftszweig/?xing_share=news) <<<

Wird das helfen?…und das Modell..?

Das ist sicher ein gutes PR-Projekt für Facebook, das ja dringend positive Schlagzeilen braucht und die schon lange schwelenden Konflikte mit den deutschen Verlegern abkühlen will.
Eine ganze Reihe von Gründen sprechen aber dagegen, dass sich dadurch Probleme substanziell lösen lassen.

Insbesondere wird das strukturelle Grundproblem von Social-Media-Plattformen wie Facebook nicht angegangen: Diese sind letztlich automatisierte Maschinen, die wie riesige Turbinen alle Arten von Inhalten ansaugen (Bilder, Videos, Likes, Kommentare etc.) und diese auf der anderen Seite, nach undurchsichtigen Sortierungskriterien, mit Hochdruck in die Timelines der Nutzerinnen und Nutzer pressen.

Angesichts der gewaltigen Mengen an Material sind alle Versuche, das auch nur annähernd inhaltlich durch Menschen (oder bislang unzureichend entwickelte KIs) prüfen und sortieren zu lassen, von vorneherein aussichtslos. Die aktuelle Umsetzung als begleitendes Zusatzangebot zeigt ja auch, dass sowas mit diesem Projekt gar nicht erst versucht wird

Der einzige Fortschritt im Verfahren ist, dass es nicht mehr eine Firma des Springer-Verlags ist, der an der Kuratierung der Facebook-Nachrichten mitwirkt, sondern eine Tochterfirma der dpa, die zwar auch ein einzelnes Unternehmen ist, das aber eine auf Vielfalt ausgerichtete Besitzstruktur hat.

Könnten neue z.B. auf der Blockchain basierende Technologien wie NFTs (Non-Fungible Tokens), ich nenne es einmal eine „Datenbank der Wahrheit“, helfen?

Nein, denn Blockchain-Technologien können nur innerhalb ihres eigenen Systems „Wahrheit“ garantieren, also eine Sicherheit vor Fälschung oder Manipulation der in der Blockchain codierten Information sicherstellen.

Wenn Sie solche NFTs mit einer „Wahrheit“ außerhalb der Blockchain verknüpfen wollen, brauchen Sie wie bisher auch vertrauenswürdige Verfahren, die sicherstellen, dass nur geprüfte „Wahrheiten“ überhaupt in die Blockchain kommen – und damit kommen wir um die grundsätzlichen philosophischen, sozialen und politischen Fragen nicht herum, die mit der Frage verknüpft sind, wie unsere Gesellschaft „Wahrheit“ und die Geltungsansprüche von Aussagen definiert.

Welche Zielgruppen sprechen Sie mit Ihrem neuen „Weizenbaum Journal of the Digital Society“ an?

Das Journal soll vor allem einen Raum für Publikation und Diskussion interdisziplinärer Beiträge zur Digitalisierungsforschung schaffen. Denn interdisziplinäre Arbeiten haben es in unserer wachsenden, aber zunehmend spezialisierten wissenschaftlichen Publikationswelt immer noch schwer.

Wenn in der Peer-Review-Begutachtung eines Journals vor allem Expert:innen aus einem bestimmten Fach einen Forschungsbeitrag bewerten, sind Bezüge auf andere Fachkontexte oft eher Störfaktoren, die dazu führen, dass ein Manuskript schlechter bewertet wird und weniger Publikationschancen hat. Das kann dazu führen, dass interdisziplinäre Themen, für die eine Kombination aus verschiedenen Fachperspektiven sinnvoll wäre, in der Forschung wenig sichtbar sind und auch weniger verfolgt werden.

Das Weizenbaum Journal will deshalb genau für solche Forschung im Bereich der Digitalisierung unserer Gesellschaft einen Raum bieten für Autor:innen und Teams aus Sozial-, Rechts- und Technikwissenschaften und allen anderen Feldern, die zum Thema substanzielles beitragen können.

„Das Weizenbaum Journal soll vor allem einen Raum für Publikation und Diskussion interdisziplinärer Beiträge zur Digitalisierungsforschung schaffen.”

Hier geht es zum Weizenbaum Journal

Warum haben Sie sich für eine Open-Content-Strategie im Kontext der Inhalte und Forschungsbeiträge entschieden?

Wissenschaft will das von ihr produzierte Wissen so weit wie möglich verbreiten – nicht umsonst ist etwa die Zitationshäufigkeit der Publikationen eine der wichtigsten wissenschaftlichen Währungen. Deshalb haben wir uns für eine Lizenz entschieden, die der Verbreitung möglichst wenige Hürden in den Weg stellt: So lange die Autor:innen genannt werden, darf die Publikation in allen Formen weiterverbreitet werden – sogar kommerziell: Wenn ein Verlag meinen Artikel auf Büttenpapier mit Goldschnitt und Lederbindung teuer verkaufen will, darf er das jederzeit machen, wenn er glaubt, dafür Käufer zu finden. Denn auch das führt zu einer weiteren Verbreitung, während die kostenlose Version gleichzeitig immer für alle zugänglich bleibt.

Inwieweit kann das Internet durch innovative Technologien, wie z. B. die Blockchain mit ihren Smart Contracts, mehr Ausgewogenheit in unserer Gesellschaft verankern?

Ich bin kein Blockchain-Forscher, bin aber im Moment eher skeptisch, wie gerade ja schon deutlich geworden ist. Man kann mit diesen Technologien sicherlich bestimmte Sicherheitsprobleme lösen, mit NFTs viel Geld verdienen und mit Smart Contracts konkrete Interaktionen von unnötigen Verwaltungsprozessen und Fehlerquellen befreien.

Der Glaube daran, man könne mit einer neuen Technologie auf einen Schlag ganz viele (soziale) Probleme lösen, ist praktisch immer eine Illusion: Konflikte sind menschlich und müssen ausgetragen werden, Gesellschaften brauchen Diskurse über ihre Ziele und die Wege, diese zu verfolgen – eine Technologie, die verspricht, solche Aushandlungsprozesse überflüssig zu machen, ist gefährlich.

Tatsächlich gibt es unter den Vertretern der Silicon-Valley-Ideologie einige, die das Gegenteil behaupten, zum Teil eine gefährliche Nähe zu extrem anarcho-libertären Bewegungen und Akteuren haben, die mit Hilfe von Blockchain-Technologien nicht nur Datensicherheit stärken wollen, sondern jede Form staatlicher Autorität und damit auch gesellschaftlicher Normen delegitimieren und überflüssig machen wollen.

Gibt es schon Denkansätze oder wichtige Fragen Ihrerseits, welche Auswirkungen das „Metaverse“ auf unsere Gesellschaft haben könnte?

„Das sogenannte „Metaverse“ ist im Moment ja nur eine Vision, die sehr stark von Akteuren aus der digitalen Ökonomie befördert wird. Als Mediennutzungsforscher bin ich im Moment eher skeptisch, ob das wirklich eine realistische Zukunft für die nächsten fünf Jahre sein kann. Marc Zuckerberg hatte schließlich schon mit dem herkömmlichen Facebook den Plan, die Plattform zu einer Catch-All-Welt zu machen, in der wir als Nutzende möglichst unser ganzes digitales Leben abwickeln sollten.“

Bekanntermaßen war das für viele, besonders für die jeweils jüngsten Generationen, nicht attraktiv; sie suchen nicht nach einer allumfassenden Umgebung, in der man all das wiederfindet, was anderswo und in der realen Welt auch vorhanden ist, inklusive Eltern und Lehrer.

Sondern sie suchen sich eher kleinere Nischenanwendungen für verschiedene Zwecke, die jeweils spezifische Interaktionsformen und identitätsstiftende Codes bieten, die anderswo nicht vorhanden sind. Apps wie Snapchat, TikTok, Clubhouse etc. können Identitätsangebote machen, die ein Marktführer, der immer auch einem gesellschaftlichen Mainstream verpflichtet sein muss, nicht bieten kann.

Abgesehen davon gibt es die technischen Voraussetzungen für Cyberspace-Welten, die wir als Ideen aus literarischen Produkten wie „Tron“ oder „Matrix“ schon seit Jahrzehnten kennen, trotz aller technologischen Fortschritte noch nicht so wirklich, soweit ich das beurteilen kann.

Was bedeutet das für die deutsche Politik und die Demokratie?

Da wir die konkrete Form dieser Welten noch nicht kennen, wäre das sehr spekulativ – im Prinzip würden sich natürlich auch in einem solchen Metaverse demokratische und pluralistische Strukturen aufbauen lassen. Allerdings ist das wenig wahrscheinlich, es ist eher anzunehmen, dass die Probleme, die uns diese Plattformen heute schon verursachen, dort einfach reproduziert und evtl. noch verstärkt werden.

Genau deshalb müssen wir uns mit diesen grundsätzlichen Problemen so schnell wie möglich befassen: mit den monopolartigen Strukturen der Plattformwelt, der Undurchsichtigkeit der inhaltlichen Prozesse und den undemokratischen Organisationsstrukturen, die eine Bedrohung für Menschen- und Bürgerrechte darstellen können.

https://www.weizenbaum-institut.de/

Aufmacherbild / Quelle / Lizenz

https://pixabay.com/users/geralt-9301/
https://pixabay.com/illustrations/social-media-media-board-networking-1989152/

Pixabay License