Vor Kurzem haben wir hier auf Sciencefiles über einen Text von Toma und Scripcariu (2020) oder genauer: über fünf Typen von „fake news“ berichtet, die diese Autoren unterscheiden, aber m.E. besser als Merkmale von „fake news“ bzw. Manipulation zum Zweck der Überredung angesehen werden. Die Autoren stellen die Beschreibung dieser fünf Typen/Merkmale in den Rahmen ihres Konzeptes von „Misinformations-Ökosystemen“ („Misinformation ecosystems“; Toma & Scripcariu (2020: 65), die sie – zur Erinnerung – definieren als

“… interconnected chains of false or misleading reports that become real in their consequences … [und] discourse communities … Therefore, the performative character of mutually reinforcing false reports explains the social and political impact of fake news” (Toma & Scripcariu 2020: 65),

d.h. als „untereinander verbundene Ketten von falschen oder irreführenden Berichten, die reale Konsequenzen haben“ und als „Diskursgemeinschaften“, in denen sich die falschen oder irreführenden Berichte gegenseitig verstärken und in der Realität soziale und politische Effekte produzieren.

Worauf wir in unserem ersten Text über Toma und Scripcariu (2020) nicht näher eingegangen sind, ist, wie diese Misinformations-Ökosysteme funktionieren. Toma und Scripcariu selbst beschreiben dies nicht näher, nennen aber sechs Merkmale von Misinformations-Ökosystemen, die mit ihrer Funktionsweise in Verbindung stehen. Die sechs Merkmale von Misinformations-Ökosystemen nach Toma und Scripcariu (2020: 67-68) sind die folgenden:

  1. Sie haben teleologischen Charakter: sie sind Instrumente im Dients von politischen, sozialen oder kommerziellen Zielen diverser Interessengruppen;

  2. Sie haben systemischen Charaker: es handelt sich um Netzwerke, die die soziale Realität formen, indem sie Verbindungen herstellen zwischen ähnlichen Informationen;

  3. Sie haben eine Infrastruktur: es handelt sich bei ihnen um digital vermittelte Produkte, die mit Online-Architekturen verbunden sind, so dass die einmal produzierten falschen oder irreführenden Inhalte effizient verteilt werden können;

  4. Sie haben diskursiven Charakter: Misinformationen setzen, was in der Realität relevant ist (oder sein soll) und wie man sich Realität vorstellen kann (oder soll), indem sie ein spezifisches Vokabular und rhetorische Techniken miteinander verbinden und so bestimmte Interpretationsrahmen schaffen;

  5. Sie haben performativen Charakter: Weil Menschen in der von Misinformations-Ökosystemen geschaffenen Pseudo-Realität leben, handeln sie in der Realität gemäß dessen, was in der Pseudo-Realität als real vorgegaukelt wird, so dass Misinformationen reale Folgen produzieren können;

  6. Sie haben autopoietischen Charakter: Obwohl Misinformations-Ökosysteme (zunächst) auf bestimmte soziale und zeitliche Kontexte beschränkt sind, können sie sich selbst erhalten und reproduzieren, weil sie auf dynamischen Prozessen der Sammlung und des Austausches von Informationen beruhen.

Wie gesagt kommen Toma und Scripcariu in ihrem Text nicht mehr auf die von ihnen genannten Merkmale von Misinformations-Ökosystemen zurück (sondern beschreiben ausführlich die von ihnen unterschiedenen Typen von „fake news“). Und sie geben auch kein Beispiel für ein Misinformations-Ökosystem.

Ein gutes Beispiel für ein Misinformations-Ökosystem gemäß der Beschreibung von Toma und Scripcariu ist m.E. – ausgerechnet – die Industrie, die sich während der vergangenen Jahre um die Idee des sogenannten „Fakten-Prüfens“ („fact checking“) herum entwickelt hat. Entstanden ist dabei ein globales System von Organisationen, die sich alle das „Fakten-Prüfen“ auf die Fahnen geschrieben haben und dabei die Interessen bestimmter Interessengruppen bedienen, untereinander kooperieren und Verfahrensweisen oder Standards voneinander übernehmen, so dass ein mehr oder weniger geschlossenes Bild von vermeintlich Faktischem und Falschem, also eine ganz bestimmte Beschreibung, dessen, was Realität sein soll, entsteht, und die zumindest teilweise in klar erkennbaren Abhängigkeitsbeziehungen zueinander stehen. Dies alles kann man auf faktische Richtigkeit (!) überprüfen, wenn man bereit ist, sich etwas näher mit dem Misinformations-Ökosystem „Fakten-Prüfer“ zu beschäftigen. Die Frage ist, wo man mit der Betrachtung beginnen soll, aber das sollte in einem Misinformations-Ökosystem umso weniger relevant sein, je enger die Beziehungen zwischen den Organisationen, die es bilden, sind.

Warum also nicht bei der EU in Sachen „Misinformations-Ökosysteme“ beginnen?

Das „Co-inform“-Projekt ist ein über 4 Millionen Euro teures Projekt, das von der EU im Rahmen ihres „Horizon 2020“-Programmes bezahlt und von April 2018 bis Ende Juli 2021 durchgeführt wurde. Das „Horizon 2020“-Pogramm existierte seinerseits bereits seit 2014 und verschluckte etwa 75 Millionen Euro. Ein Unterprojekt, dase im Rahmen von „Horizon 2020“ finanziert wurden, war das „WeVerify“-Projekt, das hauptsächlich von der EU finanziert wurde, aber auch von „Partnern“, darunter der Deutschen Welle. Seit 2019 wurde im Rahmen dieses Projektes auch das „InVID“-Projekt weiterentwickelt. Beide Projekte dienten der Entwicklung von plugins, die „fake news“ identifizieren und Videos verifizieren sollen. Als „InVID WeVerify extension” können sie gemeinsam in einer „toolbox“ in den Google Chrome- und den Firefox- browser integriert werden.

An die Stelle des „Horizon 2020“-Programms ist das „Horizon Europe“-Projekt getreten, das von 2021 bis 2027 laufen, „ein Budget von 95,5 Milliarden EUR“ verschlingen wird, sich mit dem „Klimawandel“ auseinandersetzen wird und dabei helfen soll, die „UN-Ziele für nachhaltige Entwicklung“ zu erreichen und die Wettbewerbsfähigkeit und das Wachstum der EU befördern soll.

Aber zurück zum „Co-inform“-Projekt: Im von der Universität Stockholm koordinierten „Co-inform“-Projekt sollte es um „Co-Creating Misinformation Resilient Societies“ gehen, d.h. darum, „gegen Misinformation resiliente Gesellschaften ko- zu schaffen“, was immer das „ko-„ in diesem Zusammenhang auch bedeuten soll. Vermutlich verweist es auf eine diesbezüglich angestrebte Gleichschaltung (zumindest) europäischer Gesellschaften. Vielleicht soll es auch auf eine Verwandtschaft mit „Cominform“ hinweisen, das „Kommunistische Informationsbureau“ das von der Sowjetunion im Jahr 1947 ins Leben gerufen wurde und neun Mitgliedsstaaten (darunter Frankreich und Italien) hatte, und das auf die Initiative der Sowjetunion im Jahr 1956 wieder aufgelöst wurde. Seine Aufgabe bestand im Wesentlichen darin, Propaganda zur Stärkung internationaler kommunistischer Solidarität zu verbreiten. Zumindest im Einklang mit dem Verdacht, dass „co-inform“ in enger geistiger Verwandtschaft mit „Cominform“ stand/steht, stehen gewisse Fakten wie z.B., dass im Newsletter von „co-inform“ vom 29. November 2019 stolz vermeldet wurde:

„On November 11-13 the Co-Inform project team attended the Paris Peace Forum event, which aims to place global governance at the top of the international agenda. The Call for Projects received more than 700 project submissions from 115 countries. The Co-inform project was showcased in the New Technology category” (Hervorhebung in Kursiv d.d.A.).

Wie dem auch sei – im „Co-inform“-Projekt sollten „Sozialwissenschaftler …, fakten-checkende Journalisten …, Computerwissenschaftler …, und Software-Entwickler u.a. daran arbeiten, Misinformation in posts und Artikeln auf sozialen Medien (und nur dort!) zu entdecken und zu bekämpfen, zu misinformations-resilientem Verhalten zu überreden („persuading“), vorherzusagen, welche misinformierenden Neuigkeiten sich wahrscheinlich wie bzw. bei wem verbreiten werden, Echokammern zu infiltrieren („to infiltrate“), u.a. um dort „korrigierende Information“ anzubringen, und „policymaker“ mit einer „fortgeschrittenen Misinformations-Analyse“ zu versorgen, damit diese ihre Politiken besser vorantreiben können („to support their policy making process and validation“).

Das Projekt zählte dabei auch auf Unterstützung durch

„…key international organizations such as the Council of Europe, the UN Refugee Agency (UNHCR) [?!?], the International Fact-Checking Network or Antirumours Global, among others.

Zu den „full partner organisation[s]“ im Rahmen von „co-inform“ zählte die „non-profit, Community Interest Company (CIC)“ namens FactCheck NI („NI“ für „Northern Ireland“), die für ihre Dienste in Sachen „Research Organisations“ – worin genau sie bestanden, geben weder die Firmenseiten noch die Projekt-Seiten von „co-inform“ an – 223.304 Euro oder nach Angabe von cordis.europa.eu „nur“ 31.311 Projekt-, oder genauer: Steuergeld erhielt.

Eine weitere Partnerorganisation von „co-inform“ war eine spanische Firma namens Scytl Election Technologies SL, deren Ziel es ist, Wahlen zu „transformieren“ und zu „modernisieren“ („transform and modernize“) und zu diesem Zweck „innovative Technologie“ zu „implementieren“. Was genau Scytl mit Bezug auf den “Aktivitätstypus” (“Activity Type”) “Private for-profit entities (excluding Higher or Secondary Education Establishments)” für „co-inform“ leisten sollte oder geleistet hat, bleibt unbekannt.

Jedenfalls dürfte „Co-inform“ in einiger Hinsicht hinter den ehrgeizigen Plänen, die im „Dissemination & Communication Plan“ (der Publikation D6.1 des Projektes, der hier im pdf-Format heruntergeladen werden kann), formuliert wurden. Beispielsweise war geplant, dass die diversen Partner des „co-inform“-Konsortiums („Consortium“) „high-quality articles“ in zehn „scientific journals“, die namentlich genannt wurden, veröffentlichen sollten (S. 36, Annex 1 im „Dissemination & Communication Plan“). Das hat sich aber anscheinend als schwieriger erwiesen als angenommen: Entstanden sind im Rahmen des oder in Verbindung mit dem „co-inform“-Projekt insgesamt vierzehn „Peer reviewed articles“, und gerade die Hälfte von ihnen sind in jeweils vier der zehn „scientific journals“ veröffentlicht wurden, in denen zu veröffentlichen für die „co-inform“-Partner geplant war.

Vor allem hat „co-inform“ bei Abschluss des Projektes aber wenig konkret Verwendbares zu bieten, nämlich zum einen ein browser plugin, das Internet-Nutzern allen Ernstes dabei helfen soll zu denken („Think“), indem ihnen vom plugin vorgegeben wird, wie glaubwürdig Inhalte, die sie lesen, auf einer 5-stufigen Skala nach Auffassung von co-inform-ler sind. Die zweite Leistung, die im Rahmen von „co-inform“ für 4 Millionen Euro Steuergelder erbracht wurde, ist ein „dashboard“ für fakten-prüfen wollende Journalisten und „policymakers“ von sehr fragwürdigem Informationsgehalt (inklusive hübscher Bildchen, auf denen Wortewolken zu sehen sind).

Insofern wäre das „co-inform“-Projekt – außer als Steuergeld-Verbrennungsanlage – schwerlich der Erwähnung wert. Aber in unserem Zusammenhang ist interessant, wie es zu einer Einordnung von Information als Misinformation durch das Projekt kommt:

„In general, the analysis models developed within Co-Inform require annotated data and rely on Machine Learning (ML) models. Such data is obtained from existing third-party data sources and from datasets shared with the Co-Inform consortium such as the data collected through the so called Data Collector (DC) module” (Hervorhebung d.d.A.).

Von wem die Datenquellen der “dritten Parteien” stammen, wie sie ihrerseits zustandegekommen sind, bleibt sehr weitgehend im Dunkeln. Das „co-inform“-Projekt nennt als Kriterien für seine Glaubwürdigkeitsbeurteilung mit Bezug auf Twitter-tweets jedoch die folgenden:

„For example, we determine a claim as credible if:

  • It contains a link and the source of the link is reputable
  • Or the publisher of the tweet is reputable
  • Or there is no similarity to related false claims in database
  • We also check if the style of the tweet is similar to credible tweets
  • And there is no/little disagreement towards the author of the tweet

Und

  • Reputation is determined by MisinfoMe.
  • Similarity is determined by the claim similarity module.
  • Style of post and agreement towards the post are determined by the content stance module.

Diese Instrumente wurden zwar im Rahmen von „co-inform“ entwickelt, aber sie bauen auf bereits vorhandenen Datensammlungen anderer – „reputable“ bzw. „seriösen“ Quellen auf. Nur: wer beurteilt aufgrund welcher Kriterien „Seriosität“? „MisinfoMe“ z.B. basiert auf einer Datenbasis von mehr als 100.000 Fakten-checks, die ihrerseits von „hundreds of Fact-checking organizations from all around the world“ veröffentlicht wurden. Welche diese “hundreds” von Organisationen sein sollen, bleibt unbekannt. Wenn “Fact-checking”-Organisationen namentlich genannt sind, dann sind es immer solche, die im „International Fact-Checking Network“ (IFCN) am Poynter-Institute for Media Studies registriert sind.

Die Prüfung von Aussagen durch „Fakten-check“-Instrumente bei „co-inform“ basiert also auf dem, was andere „Fakten-checker“ vor ihnen aufgrund ihrer Kriterien bzw. Algorithmen als Misinformation bezeichnet haben, und diese „Fakten-checker“ wiederum sind im IFCN registriert, das seine eigenen Standards hat, denen sich die „Fakten-checker“ verpflichten müssen, wenn sie sich bei IFCN registrieren wollen. Es sollte damit klar sein, dass wir es hier mit einem Informations-Ökosystem zu tun haben insofern als es sich um ein Netzwerk handelt, in dessen Infrastruktur Produkte digital ausgetauscht werden, die aneinander anschlussfähig sind und sich auseinander heraus weiterentwickeln und ausdifferenzieren, so dass auch der autopoietische Charakter des „Fakten-checker“-Informations-Systems erkennbar ist. Dazu, dass es sich beim „Fakten-checker“-Ökosystem auch um ein Misinformationssystem handelt, dazu kommen wir jetzt.

Die Firma FactCheckNI, die ein Partner im „co-inform“-Projekt gewesen ist, ist wie gesagt beim „International Fact-Checking Network“ (IFCN) registriert. Das IFCN wurde im Jahr 2015 ins Leben gerufen

„… to bring together the growing community of fact-checkers around the world and advocates of factual information in the global fight against misinformation … IFCN promotes the excellence of fact-checking to more than 100 organizations worldwide through advocacy, training and global events …”

Zum IFCN wäre eine ganze Menge zu sagen. Betrachten wir beispielhaft das Trainingsprogramms des IFCN namens “MediaWise“, ein „Teen Fact-checking Network“ (TFCN), in dem sich Teenager sich darin üben, „.. [to] use social media to debunk viral misinformation and share literacy tips”. Man könnte dies als Nachwuchssicherung in Sachen Troll-Aktivitäten und Denunziantentum interpretieren. Und damit stimmt überein, was das IFCN über „MediaWise“ selbst schreibt:

“MediaWise youth fact-checkers look for claims that have gone viral on their own social media feeds. We also encourage our audience to submit claims to us by flagging possible misinformation on social media through the use of our hashtag, #IsThisLegit. Readers can also submit claims they would like us to fact-check via email [email protected] (Hervorhebung d.d.A.).”

Auch die vom IFCN genannten fünf Säulen, auf denen „MediaWise“ beruhen soll, stehen dieser Interpretation nicht unbedingt entgegen. So heißt es unter Punkt 5, in dem es um „non-partisan[ship]“, d.h. Unparteilichkeit, geht und der bezeichnenderweise zuletzt unter den fünf Säulen genannt wird und nicht als erstes, wie man meinen sollte:

„5. Non-partisan: The MediaWise project is a nonpartisan initiative dedicated to taking a balanced approach to news and editorial content, with the primary objective of presenting the facts.”

Wenn es das “primäre Ziel” von “MediaWise” sein soll, „Fakten zu präsentieren“, so fragt man sich unwillkürlich, was denn sekundäre oder tertiäre Ziele von „MediaWise“ sind und warum das „primäre Ziel“ zuletzt genannt wird. Bemerkenswerterweise wird in der ersten Säule der Anspruch auf „faktische Richtigkeit“ aller Inhalte in „MediaWise“ genannt, aber gleich wieder eingeschränkt auf den guten Willen und die relative Fähigkeit, faktisch Richtiges wiederzugeben, nämlich auf:

„… content [that] must be as reliable and factually accurate as possible at the time of publication, with all sources and source material vetted to the best of our abilities”.

Wie das bewerkstelligt werden soll, wenn Kritik und Auseinandersetzung ausgeschlossen werden, bleibt das Geheimnis des IFCN – und für Kritik und Auseinandersetzung ist im „MediaWise“ kein Platz, denn als vierte Säule von „MediaWise“ wird die Schaffung einer „safe community“ bzw. dessen, was man andernorts einen „safe space“ nennt, angegeben, eines Ortes, der freigehalten werden soll von

„… negative language and any other negative visual stimuli which might distract from creating a space that fosters learning and education”.

Konkret bedeutet das, dass vor allem Lernen im Rahmen von “MediaWise” die Zensur steht:

„The MediaWise project staff are empowered to immediately remove any comments on our social media accounts that violate our language standards, employ racial epithets or tropes, threaten or attempt to intimidate, name-call, or disparage any community or group. MediaWise staff are also empowered to remove any comments that spread misinformation or disinformation. We reserve the right to block and ban commenters that violate these terms, since these types of comments undermine the goals of the MediaWise project”.

Wenn aus dem Raum von vornherein entfernt wird, was den Angestellten in „MediaWise“ wie Misinformation oder Disinformation vorkommt, wie kann dann in diesem Raum gelernt werden, Information von Misinformation oder Disinformation, zu unterscheiden? Ein solcher Lernprozess setzt ja gerade voraus, dass die Lernenden mit allen möglichen Arten von Informationen – ohne Vorauswahl – konfrontiert werden, damit sie die zu erlernenden Fähigkeiten ausprobieren können!

“MediaWise” zielt inzwischen nicht mehr nur auf Teenager ab, sondern auf alle Altersstufen, so dass – als Säule Nummer 3 – „[a]udience awareness“ geschaffen soll, was bedeutet, dass

„…all MediaWise content, programs, training and educational materials should be planned for and positioned to connect with the intended audience”

Dennoch gibt es keinerlei Hinweis darauf, wie die Kriterien, anhand derer sich verschiedene Altersstufen – gemäß der zweiten Säule, auf der „MediaWise“ beruhen soll – lernen sollen, „… to sort fact from fiction online [nur online, nicht z.B. in den Fernsehnachrichten!]“, voneinander unterscheiden. Man könnte von Erwachsenen erwarten, dass sie lernen, Argumente – logisch oder empirisch, je nachdem, – zu würdigen, aber schon das Wort „Argument“ sucht man vergeblich. Tatsächlich werden bei der Beschreibung von „MediaWise“ überhaupt keine Kriterien, nicht einmal beispielhaft, angegeben, deren Anwendung erlernt werden soll, um „Fact von Fiktion“ zu unterscheiden.

Es scheint, dass überhaupt keine eigenen Kriterien erarbeitet wurden oder im Rahmen von „MediaWise“ erarbeitet werden sollen. Vielmehr besteht der „Lern“-Prozess darin, einzuüben, was im „Stanford History Education Group and its Civic Online Reasoning curriculum” als Lerninhalte angesehen wird, nämlich, Lernende daraufhin abzurichten, im Wesentlichen

“… the ‘three questions […] at the heart of the COR curriculum [zu stellen]: Who is behind the information? What is the evidence? What do other sources say?”,

also drei Fragen zu stellen, von denen zwei vollkommen irrelevant sind für die Beurteilung des Wahrheitsgehaltes einer Behauptung: Allein die Frage nach der „evidence“ ist in diesem Zusammenhang relevant. Die erste Frage zu stellen, ist eine Einladung zum Fehlschluss ad hominem, und die dritte eine Einladung zum Fehlschluss ad populum.

„MediaWise“ muss vor dem Hintergrund all dessen als ein Projekt angesehen werden, vor dem man Menschen aller Altersstufen, vor allem aber junge Menschen, die durch formelhafte “Rezept”angabn irrezuführen, besonders einfach ist, eigentlich warnen müsste.

Dies auch deshalb, weil das Bewertungssystem, mit dem man beim IFCN arbeitet, einigermaßen fragwürdig ist und deshalb der Willkür Tür und Tor öffnet. Das Bewertungssystem umfasst sechs Kategorien, anhand derer suggeriert wird, „Wahrheit“ und „Falschheit“ seien teil- und quantifizierbar: „Legit“ (bzw. „accurate“) „Mostly legit“ (bzw. „mostly true“), „Needs context“, „Mixed bag“ (bzw. „half true/half false“), “Mostly not legit” (bzw. “mostly false”), “Not legit” (bzw. “inaccurate or being taken out of context”) und “Satire” (bzw. “meant to be a joke”).

Schon bei oberflächlicher Betrachtung kann man erkennen, dass es von der eigenen Willkür abhängt, ob etwas, von dem man meint, dass das so nicht stehen bleiben könne, dem etwas hinzugefügt werden solle, in die Kategorie „Needs context“ eingeordnet wird oder in die Kategorie „Not legit“, die ja auch vorgesehen ist für Dinge, die – nach dem eigenen Empfinden, also rein subjektiv, – in einen „Kontext“ eingeordnet werden müssen. Anders gesagt: Wenn ich etwas nicht mag, möchte ich dem etwas hinzufügen und ordne es als „Needs context“ ein. Und wenn ich etwas überhaupt nicht mag, möchte ich dies nicht stehen lassen, ohne dem etwas entgegenzusetzen, und erkläre es für „not legit“ – oder so etwas in der Art, ganz nach Geschmack oder derzeitiger Befindlichkeit. Und wie verhindere ich, dass ich bei der Beurteilung als „mixed bag“ eine negative Formulierung gewählt habe, die die halbe Falschheit betont, obwohl die beurteilte Aussage (oder was auch immer beurteilt wurde) halb wahr ist? Oder will ich es nicht verhindern? Wie gesagt: ausschlaggenden dürften in all diesen Fällen der persönliche Geschmack und persönliche Empfindlichkeiten sein.

In jedem Fall werden solche Bewertungen als für einen gesamten Text oder als für ein Bild oder ein Video vollumfänglich geltend vorgenommen. Aber natürlich besteht eine Darstellung, ein Artikel, ein Text, aus einer ganzen Reihe von Elementen: Aussagesätzen, Zitaten, vielleicht Bildern, ein Bild aus verschiedenen Bildelementen, ein Video aus einer Reihe von Bildern und einem gesprochenen Text. Was genau prüfen „Faken-checker“ auf Glaubwürdigkeit oder Faktizität hin, wenn sie einen gesamten Text, ein Bild, ein gesamtes Video ihrer pauschalen und ziemlich willkürlichen Bewertung unterziehen? Eine bestimmte Aussage in dem Text? Ein Bild, das dem Text beigegeben ist? Ein Zitat, das dem Text beigegeben ist? Wenn z.B. das Zitat, vielleicht aus Versehen, falsch ist oder auch nur teilweise falsch ist, wird dann der Text als „mostly legit“ eingeordnet? Oder kann man ihn deshalb, wenn man den gesamten Inhalt nicht mag, als „mixed bag“ oder als „not legit“ einordnen, denn immerhin ist er ja als Ganzes gesehen nicht „accurate“? Oder kann man, wenn man mit den Inhalten im Text übereinstimmt, in diesem Fall gänzlich über das – dann in jedem Fall: versehentlich – falsche Zitat hinwegsehen?  Dies alles ist möglich, ganz nach Geschmack und Befindlichkeit.

Aber selbst eine einzige Aussage ist schwierig auf ihre Faktizität zu prüfen, wenn sie mehrere Teilaussagen enthält – und das tun die bei Weitem meisten Aussagen, insbesondere dann, wenn sie Teil eines Argumentes sein sollen. Dasselbe Problem hat die empirische Sozialforschung mit Aussagen, die mehrere sogenannte Stimuli enthalten, und zu denen die Befragten Stellung nehmen sollen, etwa: „Einwanderer bereichern die Kultur, weil sie kulinarische und musikalische Neuerungen mitbringen“. Nehmen wir an, eine Person (A) würde das behaupten, und jemand (B) wollte diese Aussage auf ihre Faktizität hin prüfen. Was würde B alles prüfen müssen? Ob A das wirklich gesagt hat? Immerhin, das kann man im Prinzip nachprüfen. Ob es zutreffend ist, dass Einwanderer die Kultur bereichern? Diese Behauptung ist offensichtlich eine, die sich auf abstrakte Größen (“Kultur”, “Bereicherung”) und persönliche Bewertungen (etwas “bereichernd” finden) bezieht, und kann deshalb überhaupt nicht daraufhin geprüft werden, ob sie faktisch zutrifft. Oder müsste B prüfen, ob Einwanderer tatsächlich kulinarische und musikalische Neuerungen mitbringen? Das kann man vielleicht annähernd prüfen, aber weil hier zwei Stimuli miteinander kombiniert sind, stellt sich die Frage, ob beide Arten von Neuerung belegbar sein müssen, damit die Aussage als faktisch zutreffend eingeordnet werden kann, oder ob es für faktische Richtigkeit ausreichen soll, wenn Einwanderer eine der beiden Neuerungen mitbringen. Anders ausgedrückt: ist das „und“ als ein logisches „und“ zu interpretieren oder bloß als ein aufzählendes?

Die Probleme, auch nur eine einzige Aussage wie diejenige im Beispiel auf ihr faktisches Zutreffen hin zu überprüfen, sind enorm und kaum zu lösen – und schon deshalb muss so gut wie jede Einordnung, die „Fakten-checker“-Firmen vornehmen, als Misinformation eingeordnet werden – abgesehen von sehr einfachen Fällen wie z.B. der Aussage: „Ägypten liegt in Afrika“, aber wer würde dies ernsthaft auf Faktizität überprüfen wollen? Und dennoch – stellen Sie sich vor, Sie wollten diese Aussage auf faktische Richtigkeit hin überprüfen: wie würden sie das tun? Durch eine Reise nach Nordafrika, am besten durch ein eine öffentliche „Fakten-checker“-Stelle gefördert? Durch Interviews mit Grenzpersonal, das man einer „Studie“, am besten mit Anspruch auf Wissenschaftlichkeit, zugrundelegen könnte? Durch eine historische Untersuchung über das Zustandekommen von Bezeichnungen für Erdregionen? Die Möglichkeiten sind theoretisch grenzenlos und empirisch größtenteils nicht realistisch, oft auch gar nicht notwendig. (Ohnehin kann man totalen Skeptizismus nicht leben.)

Sehr häufig ist eine Aussage für die meisten Menschen gar nicht relevant (genug), so dass der Aufwand des „checkens“ schwerlich zu rechtfertigen ist. Finden Sie es z.B. relevant zu wissen, warum Amy Sherman von der „Fakten-checker“-Firma „PolitiFact“ meint, dass Donald Trump etwas Falsches sage, wenn er das System der abgestuften Wahl in Alaska als „rigged deal“, d.h. etwa „manipuliertes Geschäft“ bezeichnet, und zwar, weil

„Ranked choice voting is a legal and secure way to hold elections — and it lets voters’ preferences drive the results”?

Sie wissen nun, dass Amy Sherman eine autoritäre Persönlichkeit ist, die meint, wenn etwas “legal” sei, müsse es bar aller kritikwürdiger Eigenschaften sein. Sie wissen nun, dass Amy Sherman anderer Meinung über die Qualitäten der abgestuften Wahl ist als Donald Trump. Interessiert Sie das (außer vielleicht im Rahmen zur Wahl des Denkbehinderten der Woche)? Falls Sie eine Meinung zu diesem Wahlsystem haben, ändert die Tatsache, dass es eingeführt wurde und damit rechtlich besehen legal ist, ihre Einschätzung seiner Qualitäten? Wohl kaum. Aber beim Poynter-Institut findet man dies wichtig genug, um die Frage auf der „News“-Seite zu behandeln – und anders als fast alle andere Einträge auf dieser Seite, die mit „Opinion“ qualifiziert sind, eben nicht als „Opinion“ zu qualifizieren. M.E. ist dies lächerlich, und es weckt genau die Zweifel an der Unparteilichkeit des IFCN oder von “PolitiFact”, die man beim IFCN so gerne unterdrücken würde, indem man „Unparteilichkeit und Fairness“ („Non-partisanship and Fairness) als erstes Prinzip im „Code of Principles“, des IFCN, dem sich auch alle beim IFCN registrierten „Fakten-checker“-Firmen verpflichtet fühlen sollen, behauptet.

Übrigens wurde „PolitiFact“ im Jahr 2018 vom Poynter-Institut aufgekauft, so dass „PolitiFact“ nun als dessen hauseigener „Fakten-checker“ agiert. Zwar ist „PolitiFact“ formal finanziell unabhängig vom Poynter-Institut, aber es wird von denselben Leuten bezahlt , die auch das Poynter-Institut bezahlen, vor allem „Facebook“ und „TikTok“ (!).

Alles andere als unparteiisch wirkt auch das, was einem unter der Rubrik „coronavirusfactsalliance“ angeboten wird.
Wie finden Sie z.B. diesen „Fakten-check“?:

Fact-checked by: Estadão Verifica
2022/02/17 | Brazil, United Kingdom
MISLEADING: 8 years-old boy died in England because of the COVID-19 vaccine.
Explanation: The boy wasn’t even eligible to receive the vaccine when he died therefore there is no relation between the death and the immunization.

Ein Kind kann nicht an den Folgen einer Impfung mit einem Impfstoff gegen Covid-19 gestorben sein, weil es nicht „eligible“, etwa: berechtigt, war, den Impfstoff zu erhalten? Was, wenn es den Impfstoff trotzdem erhalten hat, vielleicht außerhalb von England? Vielleicht ist es an den Folgen der Impfung kurze Zeit später in England gestorben? Das ist möglich. Möglich ist auch, dass der Junge Teil eines klinischen Trials war, und in diesem Rahmen mit Einwilligung seiner Eltern den Impfstoff erhalten hat. Aber an dem, was im realen Leben möglich ist, sind „Fakten-checker“ nicht interessiert; sie agieren nach dem Motto: „es kann nicht sein, was nicht sein darf“, wobei das „darf“, wie für autoritäre Persönlichkeiten üblich, im juristischen Sinn zu interpretieren ist. Was mich persönlich an dem oben stehenden “Fakten-check” am meisten verärgert, ist der strategische, aber gänzlich verfehlte, Einschub des logischen Ausdrucks „therefore“, der mit „daraus folgt“ fast besser übersetzt ist als mit „daher“. In jedem Fall wird damit eine logische Schlussfolgerung eingeleitet, die aus den Vorsätzen logisch folgt. Und zu schlussfolgern, dass etwas nicht der Fall sein kann, weil es juristisch nicht erlaubt ist, ist nicht einfach nur logisch falsch; es ist m.E. mutwillige Veralberung der menschlichen Fähigkeit zum Schlussfolgern.

Übrigens sind in der „coronavirusfactsalliance“ auch „Correctiv“ und das oben bereits beschriebene „MediaWise“ als „Partner“ genannt, stellen sozusagen eine Einheit in Sachen logische Fehlschlüsse und Autoritarismus dar.

Wenn man solche Kapriolen von „Fakten-checkern“ beobachtet und in Rechnung stellt, dass sie geradezu darauf abgerichtet werden, logische Fehlschlüsse bei ihren Beurteilungen zugrundezulegen (wie im „MediaWise“-Projekt), dann kann man nicht anders als als faktisch zutreffend zu akzeptieren, dass die „Fakten-checkerei“ ein Misinformations-Geschäft ist, und zu fragen, welchen Interessen bzw. Interessengruppen das Misinformations-Ökosystem, das „Fakten-checker“ bilden, zuarbeitet.

Das IFCN besteht darauf, dass solcher Unsinn wie der beschriebene genuin sei, d.h. nicht das Ergebnis der Bedienung von bestimmten Interessen. Z.B. weist es in Übereinstimmung mit seinem Bemühen um Transparenz (statt Unabhängigkeit!) mit Bezug auf seine Projekte, hier: „MediaWise“, darauf hin, dass die „Google News Initiative“, „Google.org“, „Facebook“ und „TikTok“ mehr als fünf Prozent der Gesamteinnahmen von MediaWise im vorangegangenen Kalenderjahr aufgebracht hätten. Aber gleichzeitig wird betont, dass

„MediaWise maintains editorial independence from its funders”,

und dies, obwohl man beim IFCN doch einräumt, dass Unabhängigkeit „problematic“ sei, und es dementsprechend nach seiner eigenen Ansicht genügt haben müsste, die Sponsoren zu nennen. Aber einigermaßen transparent ist man beim IFCN tatsächlich, auch, wenn Zuwendungen von weniger als 50.000 Dollar als einer öffentlichen Mitteilung nicht würdig befunden werden:

“While all gifts, no matter the size, help us fulfill our mission, we consider contributions of $50,000 or more as significant funding sources that should be revealed to the public”.

Und über manche der Zuwendungen über 50.000 Dollar (oder weit mehr) wird auf den Seiten des IFCN/Poynter-Instituts explizit berichtet. So hat es z.B. am 28. April 2020 berichtet, dass es eine Million Dollar erhält

„… from YouTube as part of the Google News Initiative (GNI) to support the fact-checking community in its battle against misinformation”.

Und am 26. Juni 2020 konnte man lesen, dass das

„… IFCN is extending its partnership with the Facebook Journalism Project to launch a second round of grants in the Fact-Checking Innovation Initiative”.

Bereits im Februar, so kann man auf derselben Seite lessen,

„… $350,000 was awarded and divided among seven fact-checking organizations that focused on projects in technology, news literacy, business models and creative formats”.

Unter “Poynter’s Top Funding Sources” (Stand: April 2022) findet sich u.a. „Craig Newmark Philanthropies“ des Craig Newmark, der von sich selbst sagt, er sei ein „amateur“, der außerdem an das neunte Gebot glaubt, aber dennoch – auch ohne empirische Belege hierfür zu präsentieren – öffentlich verbreitet, dass heimische und ausländische, allen voran russische, Disinformations-Kampagnen für einen Teil der Covid-19-Toten in den USA verantwortlich seien. Craig Newmark hat sich im Jahr 2019 mit einem „$5 million grant“ für die Einrichtung des “Craig Newmark Center for Ethics and Leadership at Poynter“ am Poynter-Institut eingekauft.

Eine weitere „Top Funding Source“ ist die Gannett Foundation:

“The Gannett Foundation is the charitable arm of Gannett, the company that owns Newsquest Media Group. The foundation provides grants to organisations in areas where Newsquest newspapers are in circulation. The Gannett Foundation is based in the US, so The Quartet Community Foundation manages the fund on behalf of Newsquest in the UK”

Die “Newsquest Media Group Ltd.” wiederum ist ein Medienimperium, nämlich

„… the second largest publisher of regional and local newspapers in the United Kingdom. It is owned by the American mass media holding company Gannett. It has 205 brands across the UK, publishing online and in print (165 newspaper brands and 40 magazine brands) and reaches 28 million visitors a month online and 6.5 million readers a week in print. Based in London, Newsquest employs a total of more than 5,500 people across the UK. It also has a specialist arm that publishes both commercial and business-to-business (B2B) titles such as Insurance Times, The Strad, and Boxing News.

Die “John D. And Catherine T. MacArthur Foundation”, eine weitere “Top funding Source” des Poynter-Institutes, tritt auf ihrer homepage für das Wahlrecht für Kinder und Teenager ein, das man dort als „[a] Potent Climate Solution“ ansieht, will “structural racism, inequality, and the COVID-19 pandemic” bekämpfen u.ä.m.

Die “Lumina Foundation”, ebenfalls eine “Top funding source”, will gemäß Mitteilung auf der Startseite ihres Internet-Auftritts “everyone” auf “a global future” vorbereiten und behauptet – ebenfalls auf der Startseite:

„The Supreme Court’s abortion restrictions will gravely harm college-going women, nation’s advances”

Diese und weitere „Top Funding Sources“ des Poynter-Institutes engagieren sich dennoch angeblicih für die Förderung von „Qualitätsjournalismus“; jedenfalls werden sie beim Poynter-Institut unter dieser Kategorie geführt. Unter den Spendern in der Kategorie „Organizational Training & Newsroom Consulting Clients“ finden sich u.a. „NBC News“ und „Newsweek“ sowie die „Washington Post“, zu denen sich, glaube ich, weiterer Kommentar erübrigt.

In der Kategorie „inhaltliche Unterstützung und Training, um „media literacy“ zu fördern” finden sich die „Google News Initiative“ und „Meta“, wie „Facebook“ jetzt heißt. Die „Goolge News Initiative“ gibt dem Poynter-Institut bzw.dem IFCN u.a. dafür Geld:

„Enabling MediaWise and PolitiFact to launch independent [nicht “transparent”?!] media literacy and fact-checking initiatives“.

Mit Bezug auf „Meta“ ist die Zielsetzung der Zuwendung u.a.

„Empowering the International Fact-Checking Network to support fact-checkers, climate organizations and solution providers working to combat false and misleading information about the environment” (Hervorhebung d.d.A.).

Es handelt sich hier also um Geld, das anscheinend dazu verwendet werden soll, Kritik an der Erzählung vom menschengemachten Klimawandel als falsch darzustellen. Warum sonst sollte die Unterstützung für „Klima-Organisationen“ hier explizit genannt werden?! Was haben “Klimaorganisationen” mit dem Bemühen um faktisch zutreffende Berichterstattung zu tun?

Auch für das beliebte „networking“ oder genauer: die globale Heranzucht von Multiplikatoren, gibt „Meta“ Geld,

„[e]nabling the International Fact-Checking Network to foster mentoring partnerships between seasoned professionals and fact-checking organizations worldwide”.

Microsoft” “[is] [p]roviding sponsorship support for a fact-checking event hosted by “PolitiFact”, und “TikTok” – man höre und staune – für

„[h]elping PolitiFact continue (!) to fact-check elected officials and hold government officials accountable”,

etwa wie in China?! “WhatsApp” fehlt auch nicht; es gibt Geld für

„[e]mpowering the fact-check community with the latest tools and resources they need to verify news”

und

“[s]upporting fact-checkers to launch, innovate and scale fact-checking solutions to fight misinformation on WhatsApp”.

Und dann ist da das “Omidyar Network/Luminate“, das als ein „Top“-Sponsor des Poynter-Instituts genannt wird und sich anscheinend besonders um die globale Gleichschaltung dessen, was als Fakt und was als Fiktion gelten soll, bemüht, genau: um

„[u]niting fact-checkers worldwide through initiatives like Global Fact, the largest summit for fact-checking”.

(Das neueste “Global Fact”-Treffen fand im Juni 2022 in Oslo statt; ; das erste fand im Jahr 2014 in London statt.)

Die „Omidyar Group“ beschreibt sich selbst als

„… a diverse collection of companies, organizations and initiatives, each guided by its own approach, but all united by a common desire to catalyze social impact”,

was immer das auch heißen mag. Was es heißt, darüber geben aber die „2021 Omidyar Family 501(c)(4) Disclosures“ vom April 2022 einigen Aufschluss. Darin heißt es:

„In a year that began with the violent attack on the U.S. Capitol – and continued with the widespread passing of restrictive voting laws that disproportionally impact communities of color – the need to protect and strengthen fundamental pillars of democracy was demonstrated in shocking detail throughout the nation. Personal 501(c)(4) contributions made by the Omidyars in 2021 largely supported organizations and initiatives working to safeguard the future and promise of an inclusive, multiracial American democracy. Through research, advocacy, and action, these respective efforts aim to ensure that people can vote safely, receive accurate information about the process, and wade through mis- and disinformation about elections, candidates, and other vital institutions”

Es ist immerhin bemerkenswert, dass diese „Disclosure“ die Misinformationen, auf denen das Engagement der Omidyars (wohl u.a.) basiert, gleich zu Beginn des Textes nennt, so dass man weiß, wie man es dort mit kritischem Journalismus hält. Dies wird sehr deutlich, wenn man dort mit Bezug auf die „gewaltsame Attacke“ auf das Capitol die Existenz der Video-Beweise dafür gänzlich unterschlägt, dass die „gewaltsame Attacke“ auf das Capitol keine war, sondern von innen Türen geöffnet wurden, damit die Leute das Capitol betreten können, sie also geradezu zum Eintritt eingeladen wurden. Das lässt auf denkbar schlechte Chancen für „fact-checking“ – im Sinn der Wort, also ernst gemeintes – schließen; und doch gehören das „Omidyar Network/Luminate“ zu den „Top“-Sponsoren des Poynter-Institutes.

Nach all dem kommt es vermutlich nicht überraschend, dass die „Foundation to Promote Open Societies“ des George Soros zu den Sponsoren des IFCN des Poynter-Institutes gehört: Im Jahr 2019 war sie mit $164.825,00 der drittgrößte Sponsor des IFCN – hinter „Luminate Group/Omidyar Network“ mit $300.582,00 und der „Google News Initiative“ mit $299.348,00. Diese drei Top-Sponsoren des Jahres 2019 waren auch die Topsponsoren im Jahr 2020, wobei die Summen, die sie dem IFCN überwiesen haben, allerdings allesamt geringer ausgefallen sind als im Jahr zuvor. Im Jahr 2020 hat die „Foundation to Promote Open Societies“ des George Soros „nur“ $87.531,00 bezahlt. In den Jahren 2020 und 2021 gehörten die „Google News Initiative“, „Facebook“ und „WhatsApp“ ebenso wie „YouTube via Google News Initiative“ zu den größten Sponsoren des IFCN.

 

 

 

Quelle

Gleichzeitig erhalten diejenigen „fact-checker“-Unternehmen, die beim IFCN registriert sind, eigene Zuwendungen durch die Hauptsponsoren des IFCN, so z.B. „FactCheckNI“, das – wie oben berichtet – Partner im „co-inform“-Projekt der EU gewesen ist und von ihm Euro 223.304 überwiesen bekommen hat:

„on 17 April 2019, FactCheckNI joined Meta’s [ehemals: Facebooks] Third Party Fact Checking Programme, under which we receive payment for submitting certain (!) fact check articles. For the calendar year 2021, we received £5,340 under the programme.”

Die deutsche „Fakten-checker“-Firma “Correctiv”, die ebenfalls beim IFCN registriert ist, erhielt im Jahr 2020 nach eigenen Angaben Euro 455.977,57 von „Luminate – Omidyar Network Foundation“, Euro 60.000.00 von „Google Germany“, Euro 45.879,98 von den „Open Society Foundations“ und Euro 17.000,00 von Twitter.

Wofür all diese Gelder letztlich ausgegeben werden, bleibt unklar. Es dürften nämlich nicht die Personalkosten sein, die diese Summen auffressen (es sei denn, die “Direktoren” oder “CEOs” genehmigen sich selbst ein absurd hohes Gehalt). Auf der Grundlage der Befragung der „Fakten-checker“-Firmen zum „State of the Fact-Checkers 2021“, die beim IFCN registriert sind, hat das IFCN über die Anzahl der Vollzeit- und der Teilzeit-Beschäftigten in den „Fakten-checker“-Firmen das Folgende berichtet:

Quelle [S. 5]

Im besten Fall hat ein „Fakten-Checker“-Unternehmen also fünf Vollzeit- und fünf Teilzeit-Angestellte. Selbst dann, wenn diese sämtlich des logischen Denkens unfähig sein sollten, könnten sie durch eigene Aktivität nicht so viel Schaden anrichten, wie es Algorithmen können, mit denen „Fakten-Cecker“-Unternehmen anscheinend sehr weitgehend arbeiten und die sie anscheinend von ihren Sponsoren aus den Reihen der Digital-Technik-Unternehmen „gefüttert“ bekommen.

Wenn „Google”, „Facebook” bzw. „Meta”, „Twitter”, „Tiktok” etc. Algorithmen benutzen, um tatsächliche oder angebliche Misinformation zu identifizieren, als solche zu markieren, einzuschränken, zu löschen, dann stellt sich ohnehin die Frage, zu welchem Zweck diese Unternehmen die paar Leute finanzieren, die in Voll- oder Teilzeit bei „Fakten-Checker“-Unternehmen beschäftigt sind, oder anders gefragt: womit sind diese Leute beschäftigt? Eine mögliche Antwort ist, dass es ihre Aufgabe ist, die Tagespolitik im jeweiligen Land, in dem sie angesiedelt sind, zu beobachten, und proaktiv tätig zu werden, wenn sich ideologisch nicht genehme Nachrichten zu verbreiten drohen, die durch die Algorithmen nicht oder nur teilweise oder einfach zu spät entdeckt werden, dass sie sich also ins jeweilige nationale Schnüffler- und Denunziationsnetzwerk einfügen, aber ihre Aktivitäten ggf. über das IFCN abstimmen können. In jedem Fall ist eine ihrer Funktionen die des Sündenbockes, wenn öffentlich bekannt wird, dass die Korrektur angeblicher Misinformation ihrerseits tatsächlich eine Misinformation darstellt.

Und vielleicht ist das der Hauptgrund dafür, dass bei „Faken-Checker“-Unternehmen vor allem relativ junge Leute ohne nennenswerte berufliche oder akademische Leistungen und (dehalb) ohne erkennbare Karriere-Alternativen beschäftigt sind. Das trifft auch auf das „IFCN team“ zu, das aus sechs Personen besteht, die mit einigermaßen klangvollen, aber weitgehend inhaltsleeren, Tätigkeitsbezeichnungen versehen wurden. Der „International Training Manager“ z.B. hat einen BA in Journalismus und Massenkommunikation und einen MA in „international development studies with a concentration in democracy development“ vorzuweisen und hat immerhin schon einmal als Reporter gearbeitet. Der „Program Manager“ ist Mitbegründer des ersten türkischen „Fakten-checker“-Unternehmens, hat in der Türkei 120 Syrer auf ihre Lebensgeschichte hin befragt und hat einen BA in Geschichte und Politikwissenschaft from CUNY Brooklyn College erhalten und einen MA in „Internationalen Beziehungen“ von der Istanbul Bilgi-Universität. Der „Director“ des IFCN war bemerkenswerterweise Gründungsgeschäftsführer just desselben türkischen „Fakten-Checker“-Unternehmens wie der „Program Manager“ und hat vor seiner Mitgründung dieses Unternehmens ebenfalls an der Istanbul Bilgi-Universität „gearbeitet“ („worked at…“; als was auch immer), von der er anscheinend einen BA in „internationalen Beziehungen“ und einen MA in „Konfliktlösung“ erhalten hat.

Weit und breit findet sich keine Spur von auch nur rudimentärer Ausbildung in formaler oder informaler Logik bzw. „critical thinking“, Argumentation, Wissenschaftstheorie oder überhaupt Epistemologie, von Pädagogik/Didaktik oder sonst irgendetwas, was einen eher zum „Fakten-Checker“ qualifizieren würde als zum politischen Aktivisten. Es ist wert festgehalten zu werden, dass sich Personen, die von den genannten Feldern irgendetwas verstehen, anscheinend nicht um einen Posten als „Fakten-checker“ bemühen, weil sie um die massiven Probleme wissen, die sich mit dem „Fakten-checken“ verbinden, oder weil sie es einfach nicht nötig haben oder beides. Aber vielleicht sehe ich das falsch. Vielleicht ist eine solche Qualifikation gerade nicht notwendig für Leute, die bei „Fakten-Checkern“ angestellt sind, eben weil der „Check“ durch Algorithmen erledigt wird, die in den Digitale-Technologien-Unternehmen kreiert werden, während die Angestellten bei „Fakten-Checker“-Unternehmen „internationale Beziehungen“ aufbauen und pflegen sollen, also sich als Multiplikatoren vorgegebener Inhalte bzw. mit der Bildung von Netzwerken beschäftigen sollen, die die globale Gleichschaltung dessen, was als Wahrheit gelten soll und was als Falschheit, erfordert. Und wer weiß, vielleicht ist das „team“ des IFCN hierzu tatsächlich qualifiziert? (Der Autoritarismus, von dem “Korrekturen”, die “Fakten-checker” vorgenommen haben, zeugen, mag in diese Richtung weisen.)

Wie Toma und Scripcariu (2020: 65) betonen, haben „untereinander verbundene Ketten von falschen oder irreführenden Berichten …“, wie sie im Rahmen von Sponsoren- und Nutznießer-Netzwerken und den die Netzwerke pflegenden Angestellten von „Fakten-checker“-Unternehmen aufgrund bestimmter (Sponsoren-)Interessen geschaffen und verteilt werden, „reale Konsequenzen…“. Diese realen Konsequenzen können wir derzeit mit Bezug auf den Kampf beobachten, den Regierungen gegen ihre eigenen Bevölkerungen führen, aktuell u.a. in Sri Lanka, in Kanada, in Peru, in Spanien und – prominent – in den Niederlanden. Und das ist es, was Toma und Scripcariu als den „performativen Charakter“ von Misinformations-Ökosystemen – wie hier: dem globalen „Fakten-checker“-Misinformations-Ökosystem – bezeichnen:

Menschen leben in der von Misinformations-Ökosystemen geschaffenen Pseudo-Realität oder werden in sie hineingezwungen, wenn die Misinformationskampagenen nicht hinreichend gut funktionieren. Entscheidungen werden von politischen Akteuren vor dem Hintergrund einer bloß vorgegaukelten, aber nach Kräften in Szene gesetzten, Pseudo-Realität getroffen, die in der Realität massive negative Folgen für sehr viele Menschen produzieren, eben weil Misinformationen, die eine Pseudo-Realität erzeugen, notwendigerweise im faktischen Widerspruch zur Realität stehen, in der die Dinge anders funktionieren, andere Zusammenhänge bestehen als die durch die  Misinformations-Ökosysteme behaupteten und verbreiteten.

Ob sich politische Akteure, die sich hierbei zum Erfüllungsgehilfen machen, darüber bewußt sind, dass sie eine Pseudo-Realität vorgaukeln, sich quasi selbst als die Massen zu täuschen fähige Gaukler sehen, oder ob sie selbst Opfer der Inszenierung der Pseudo-Realität im Zuge des globalen Misinformations-Ökosystems „Faken-checker“ geworden sind, ist angesichts der massiven negativen Folgen, die sie in der „richtigen“ Realität produzieren – und zu verantworten haben – bis auf Weiteres ohne Bedeutung. Dringlich ist indessen, die Pseudo-Realität als solche auszuweisen und in diesem Zusammenhang auch „Fakten-checker“ als die Misinformierer auszuweisen, die sie nun leider einmal sind.

Literatur

Toma, Gabriel-Alexandru, & Scripcariu, Adina-Gabriela, 2020: Misinformation Ecosystems: A Typology of Fake News. Journal of Comparative Research in Anthropology and Sociology 11(2): 65-82.



Anregungen, Hinweise, Fragen, Kontakt? Redaktion @ sciencefiles.org


Texte, wie dieser, sind ein Grund dafür, dass versucht wird, ScienceFiles die finanzielle Grundlage zu entziehen.
Die Deutsche Bank und Paypal haben uns unsere Konten gekündigt.

Aber: Weil Sie uns unterstützen, lassen wir uns nicht unterkriegen.
Helfen Sie uns, ScienceFiles auf eine solide finanzielle Basis zu stellen:

Entweder direkt über die ScienceFiles-Spendenfunktion spenden [das ist sicher und Sie haben die volle Kontrolle über ihre Daten]:

Zum Spenden einfach klicken

Oder über unser Spendenkonto bei Halifax:

ScienceFiles Spendenkonto:

HALIFAX (Konto-Inhaber: Michael Klein):

IBAN: GB15 HLFX 1100 3311 0902 67
BIC: HLFXGB21B24


Wenn Sie ScienceFiles weiterhin lesen wollen, dann sind Sie jetzt gefordert.


Print Friendly, PDF & Email





Source link

Von Veritatis

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht.