Ein US-Aufklärungsflugzeug vom Typ U2: Wie über eine Konfrontation Jets zweier Länder berichtet wird, macht einen Unterschied. Das hilft AI-Spezialisten an der Universität Zürich im Kampf gegen «Fake News». (Foto:  Shutterstock)

Wie unterscheiden sich richtige Nachrichten von gefälschten, also von «Fake News»? Diese Frage steht im Zentrum neuster Forschung an der Universität Zürich und erhält inzwischen weltweite Aufmerksamkeit. Warum? Fast alle sind sich einig, dass «Fake News» negative Folgen für fast alle Lebensbereiche haben. Doch es erscheint als unlösbare Aufgabe, sie aus den Millionen von Meldungen und gerade aus den Social Media herauszufiltern. Besonders für Nachrichtenagenturen.

Karsten Donnay, Assistenzprofessor für politisches Verhalten und digitale Medien an der Universität Zürich, und sein Team forschen daran, einseitige Nachrichtenberichterstattung zu «erkennen und aufzudecken». Es ist einer der ersten ernsthaften Versuche, künstliche Intelligenz einzusetzen, um die Verbreitung falscher und irreführender Informationen im Internet zu bekämpfen. Grundlage sind Arbeiten zum Einsatz von künstlicher Intelligenz zur Erkennung von akademischen Plagiaten.

Das Projekt ist Teil der neuen Digital Society Initiative der Universität Zürich, einem interdisziplinären Netzwerk von Akademikern und Wissenschaftlern, die untersuchen, wie sich die Digitalisierung der Gesellschaft auf Kommunikation, Gesundheit, Arbeit, Gemeinschaft und Demokratie auswirkt.

Doch wie soll das Aufspüren von «Fake News» mit AI genau gehen? Donnay sagt dazu: «Das Framing der Nachrichten ist wichtig.» Und: «Es kommt darauf an, wie über Nachrichten berichtet wird.» Weiter fügt er an, dass es besonders wichtig sei, dass die Menschen in der Lage seien, «parteiische, falsche und oft sensationelle Informationen zu erkennen, die unter dem Deckmantel der Nachrichtenberichterstattung verbreitet werden».

Schon normale Nachrichten können Verzerrungen aufweisen

Donnay liefert dazu auch ein Beispiel. Es sind zwei unterschiedliche Sätze, die jedoch dasselbe Ereignis beschreiben:

«U.N.-Waffeninspektoren sagten, sie hätten zwei U-2-Aufklärungsflugzeuge über dem Irak aus Sicherheitsgründen abgezogen.»

«Irakische Kampfjets bedrohten zwei amerikanische U-2-Aufklärungsflugzeuge und zwangen sie, ihren Einsatz abzubrechen und zurückzukehren.»

Im ersten Satz kommen die Worte «zurückgezogen», «Aufklärung» und «Sicherheit» relativ neutral daher. Im zweiten Satz hingegen bringen die Worte «bedroht», «Überwachung» und «erzwingen» einen bedrohlicheren Ton in die Nachricht. Beide Meldungen mögen technisch korrekt sein, aber die Worte vermitteln unterschiedliche subtextuelle Bedeutungen, so dass ihr Framing unterschiedlich wird, wie Donnay erklärt.

Vorerst muss die künstliche Intelligenz aufgebaut und trainiert werden

Laut Donnay ist das ultimative Ziel des Projekts, eine Website zur Nachrichtenaggregation zu erstellen, die dann ein AI-Tool verwendet, um Verzerrungen und Täuschungen in den täglichen Nachrichten zu erkennen. Daraufhin lassen sich die Geschichten auf eine ideologisch neutrale Art und Weise sortieren und präsentieren, so dass die Leser leicht die Ausrichtung verstehen können, der sie hoffentlich vertrauen werden. Das Projekt befindet sich jedoch noch in der Anfangsphase, und die Schwierigkeiten sind gewaltig. Das bedeutet, dass das Tool in der Lage sein muss, Nuancen in der Sprache und im Kontext zu erkennen, die selbst sorgfältige menschliche Leser nur schwer unterscheiden können.

Einem Computer etwas beibringen, was nicht einmal alle Menschen können

Einen Computer so zu programmieren, dass er menschliche Verzerrungen in Texten erkennt, bedeutet im Wesentlichen, ihm das Lesen beizubringen. Aber das Lesen selbst ist ein komplexer mentaler Prozess, den Wissenschaftler nicht vollständig verstehen. Künstliche Intelligenz ist nur so intelligent wie die Programmierung und die Daten, die sie unterstützen. Nichtsdestotrotz versucht Donnays Team, seiner AI beizubringen, Verzerrungen zu erkennen, indem es die unterbewussten Prozesse nachahmt, mit denen Menschen den Wahrheitsgehalt von Informationen bewerten, die sie aufnehmen. Leider sind auch Menschen nicht sehr gut darin, Voreingenommenheit zu erkennen; und die ganze Idee, den Grad der «Wahrheit» in einer bestimmten Nachrichtengeschichte zu bestimmen. Wenn der Terrorist des einen ein «Freiheitskämpfer» des anderen ist, dann ist die Wahrheit zumindest teilweise eine Frage der Perspektive, wie es in einem Blog bei Thomson Reuters heisst, und auf dem dieser Artikel aufbaut.

Wie Donnay weiter beschreibt, beginnt die Schwierigkeit bei der Lösung des Fake-News-Problems mit der Erkenntnis, dass der Prozess des Sammelns, Berichtens, Schreibens, Redigierens und Verbreitens der Nachrichten selbst unvollkommen ist. Nachrichtenorganisationen haben zum Beispiel Eigentümer, Werbekunden und Zielgruppen, und diese Faktoren beeinflussen die Auswahl und Präsentation von Geschichten. Ausserdem ist jeder Satz, den ein Autor produziert, eine Reihe von Ermessensentscheidungen darüber, welche Worte er verwendet und welche Ideen er hervorhebt, die alle eine Reflexion von Bildung, Erfahrung, Kultur und so weiter sind. Auch die Perspektive des Lesers ist zu berücksichtigen.

Eine der ersten Herausforderungen, vor denen Donnay und sein Team stehen, ist die Aufgabe, einen ausreichend grossen Datensatz mit sprachlichen Beispielen zu erstellen, den ein KI-Tool als Rahmen für die Analyse nutzen kann. Frühere Versuche, «Wörterbücher» von Wörtern und Phrasen zu erstellen, hätten nicht besonders gut funktioniert, sagt Donnay. Stattdessen versucht sein Team, einen gründlicheren Deep-Learning-Ansatz zu entwickeln, der eine grosse Menge an annotierten Daten erfordert.

Stimmungsanalyse als Ausgangsaufgabe

In einem Pilotprojekt konzentrierte sich das Team zunächst auf die einfachere Aufgabe der Stimmungsanalyse, um zu veranschaulichen, wie dieser Ansatz verwendet werden kann, um den Grad zu gewichten, in dem Ideen in einer Nachrichtenmeldung als «positiv» oder «negativ» eingeordnet werden. Die nächste grosse Herausforderung bestand darin, die Logik der Stimmungsanalyse zu erweitern, um eine annotierte Datenbank aufzubauen, die gross genug ist, um neuronale Modellierungstechniken anzuwenden, die nachahmen, wie das menschliche Gehirn komplexere Wortbedeutungen und Absichten ableitet.

Ein Team von Hunderten von Codern analysierte und bewertete Zehntausende von Sätzen, um einen neuen Benchmark-Datensatz für die Erkennung von Medienverzerrungen zu erstellen. Sobald das KI-Tool genügend Beispiele «gelernt» hat, um Einseitigkeitsprobleme auf der Ebene der Wortwahl und der Satzstruktur zu erkennen, kann es seine Analyse auf den grösseren Kontext von Absätzen und ganzen Geschichten ausweiten.

Um jedoch eine Nachrichtengeschichte auf Verzerrungen zu analysieren und mit anderen Geschichten zum gleichen Thema zu vergleichen, muss das KI-Tool in der Lage sein zu erkennen, dass die Kernthemen und Konzepte, die in mehreren Geschichten diskutiert werden, miteinander verbunden sind. «Hierfür gibt es keine fertigen Tools, die wirklich gut funktionieren, weshalb wir unseren eigenen Ansatz entwickelt haben», erklärt Donnay. Dieser Ansatz, der von einem eigenen Team entwickelt wurde, beinhaltet die Verwendung einer sechsstufigen Zusammenführungsheuristik, um Themen und Konzepte zu identifizieren, die für jede Geschichte zentral sind, sowie andere Signifikanten wie kontextuelle Hinweise und Verbwahlen.

Ein sehr komplexer Prozess. Donnay sagt denn auch: «Uns ist klar, dass dies schrittweise geschehen muss.» Und der nächste Schritt – die Erweiterung der Fähigkeiten des KI-Tools zur Identifizierung falscher und irreführender Informationen oder «Fake News» – und nicht einfach nur parteiischer Nachrichten – ist ein grosser Schritt.

Sind Nachrichtenquellen vertrauenswürdig oder nicht?

Laut Donnay unterscheiden sich «Fake News» strukturell vom Framing, das bei der Bestimmung von Voreingenommenheit zum Einsatz kommt, da die Identifizierung von Fälschungen die Unterscheidung zwischen «vertrauenswürdigen» und «nicht vertrauenswürdigen» Nachrichtenquellen sowie Fakten, Lügen, Gerüchten und Anspielungen beinhaltet. «Es ist sehr schwer, den Wahrheitsgehalt von Nachrichten zu bestimmen», räumt Donnay ein und fügt hinzu, dass das Framing von Nachrichtengeschichten selbst inhärente Verzerrungen hervorrufe und dass das Verständnis dafür ein erster wichtiger Schritt zu ausgewogeneren und vertrauenswürdigeren Nachrichten sei.

Selbst wenn die von Donnay angedachte Website zur Nachrichtenaggregation irgendwann einsatzbereit sein wird, gibt es keine Garantie dafür, dass die Menschen ihrem Urteil vertrauen werden. Die Seite wäre auch als globale Ressource nützlicher, wenn sie in anderen Sprachen als Englisch funktionieren würde. Das aber sei eine komplett andere Herausforderung.

«Dieses Jahr, wenn alles fertig ist, werden wir ein gross angelegtes Experiment mit dem endgültigen Tool durchführen», verspricht Donnay. Das ist der «sozialwissenschaftliche» Teil des Experiments, der Teil, in dem Leserinnen und Leser auf die von der KI ausgewählten Inhalte reagieren und berichten, ob sie einen Unterschied in der Darstellung der Fakten erkennen können.

Die «Wahrheit» über Nachrichten zu finden, mag natürlich zu viel verlangt sein, aber jeder Fortschritt in Richtung einer grundlegenden Übereinstimmung der Fakten wäre ein Schritt in die richtige Richtung. Denn nur so wird es möglich sein, «Fake News» den Sauerstoff zu entziehen.

«Wucht des Wandels»

Die Innovation unserer Zeit ist die Digitalisierung - sie weckt auch Ängste. Historiker Tobias Straumann über die Kraft des Neuen.

Plädoyer für den weltoffenen Kleinstaat

Konrad Hummler und Franz Jaeger geben Ende Juni ein Buch über die Schweiz heraus. Sie wollen eine Identitätsdebatte anstossen. Weshalb verraten sie im ersten Teil des influence-Gesprächs.

«Jedes Departement hat seine Kultur»

Was verbindet das Verteidigungsdepartement VBS mit dem Verkehrs- und Energiedepartement UVEK, wo liegen die Unterschiede? Toni Eder kennt beide als Generalsekretär.

«Polizei und Behörden müssen wissen, wer da ist»

Florian Düblin, Generalsekretär der Justiz- und Polizeidirektorenkonferenz, erklärt, wie die Ukraine-Krise die Sicherheitsbehörden in den Kantonen fordert – und warum ein Nein zu Frontex katastrophal wäre.

Chatbots gewinnen an Bedeutung

Fünf Schritte, um sich auf die nächste Krise vorzubereiten - und was im Kontakt mit Medienschaffenden alles schief laufen kann.

«Corona hat uns ins Auge des Hurrikans gespült»

Für Matthias Schnyder, Generalsekretär der Volkswirtschaftsdirektorenkonferenz, hat die enge Abstimmung zwischen Bund und Kantonen in der Corona-Krise die Vollzugstauglichkeit der Instrumente verstärkt.

«Niederlagen sind auch wertvoll»

Weltraumforscherin Salome Gruchola erklärt, wie sie ein Instrument baut, um Leben im All nachzuweisen.

«Der Zivilschutz muss wieder kriegstüchtig werden»

Alexander Krethlow, Generalsekretär der Regierungskonferenz Militär, Zivilschutz und Feuerwehr, zu den Lehren aus Ukrainekrieg und Nahostkonflikt.

«Der perfekte Ort für Friedensgespräche»

Terrorismusexpertin Christina Schori Liang erklärt, welche Rolle die Schweiz einnehmen soll – wenn die Kriegsparteien so weit sind, an einem Tisch zu sitzen.