Ein US-Aufklärungsflugzeug vom Typ U2: Wie über eine Konfrontation Jets zweier Länder berichtet wird, macht einen Unterschied. Das hilft AI-Spezialisten an der Universität Zürich im Kampf gegen “Fake News”. (Foto:  Shutterstock)

Wie unterscheiden sich richtige Nachrichten von gefälschten, also von «Fake News»? Diese Frage steht im Zentrum neuster Forschung an der Universität Zürich und erhält inzwischen weltweite Aufmerksamkeit. Warum? Fast alle sind sich einig, dass «Fake News» negative Folgen für fast alle Lebensbereiche haben. Doch es erscheint als unlösbare Aufgabe, sie aus den Millionen von Meldungen und gerade aus den Social Media herauszufiltern. Besonders für Nachrichtenagenturen.

Karsten Donnay, Assistenzprofessor für politisches Verhalten und digitale Medien an der Universität Zürich, und sein Team forschen daran, einseitige Nachrichtenberichterstattung zu «erkennen und aufzudecken». Es ist einer der ersten ernsthaften Versuche, künstliche Intelligenz einzusetzen, um die Verbreitung falscher und irreführender Informationen im Internet zu bekämpfen. Grundlage sind Arbeiten zum Einsatz von künstlicher Intelligenz zur Erkennung von akademischen Plagiaten.

Das Projekt ist Teil der neuen Digital Society Initiative der Universität Zürich, einem interdisziplinären Netzwerk von Akademikern und Wissenschaftlern, die untersuchen, wie sich die Digitalisierung der Gesellschaft auf Kommunikation, Gesundheit, Arbeit, Gemeinschaft und Demokratie auswirkt.

Doch wie soll das Aufspüren von «Fake News» mit AI genau gehen? Donnay sagt dazu: «Das Framing der Nachrichten ist wichtig.» Und: «Es kommt darauf an, wie über Nachrichten berichtet wird.» Weiter fügt er an, dass es besonders wichtig sei, dass die Menschen in der Lage seien, «parteiische, falsche und oft sensationelle Informationen zu erkennen, die unter dem Deckmantel der Nachrichtenberichterstattung verbreitet werden».

Schon normale Nachrichten können Verzerrungen aufweisen

Donnay liefert dazu auch ein Beispiel. Es sind zwei unterschiedliche Sätze, die jedoch dasselbe Ereignis beschreiben:

«U.N.-Waffeninspektoren sagten, sie hätten zwei U-2-Aufklärungsflugzeuge über dem Irak aus Sicherheitsgründen abgezogen.»

«Irakische Kampfjets bedrohten zwei amerikanische U-2-Aufklärungsflugzeuge und zwangen sie, ihren Einsatz abzubrechen und zurückzukehren.»

Im ersten Satz kommen die Worte «zurückgezogen», «Aufklärung» und «Sicherheit» relativ neutral daher. Im zweiten Satz hingegen bringen die Worte «bedroht», «Überwachung» und «erzwingen» einen bedrohlicheren Ton in die Nachricht. Beide Meldungen mögen technisch korrekt sein, aber die Worte vermitteln unterschiedliche subtextuelle Bedeutungen, so dass ihr Framing unterschiedlich wird, wie Donnay erklärt.

Vorerst muss die künstliche Intelligenz aufgebaut und trainiert werden

Laut Donnay ist das ultimative Ziel des Projekts, eine Website zur Nachrichtenaggregation zu erstellen, die dann ein AI-Tool verwendet, um Verzerrungen und Täuschungen in den täglichen Nachrichten zu erkennen. Daraufhin lassen sich die Geschichten auf eine ideologisch neutrale Art und Weise sortieren und präsentieren, so dass die Leser leicht die Ausrichtung verstehen können, der sie hoffentlich vertrauen werden. Das Projekt befindet sich jedoch noch in der Anfangsphase, und die Schwierigkeiten sind gewaltig. Das bedeutet, dass das Tool in der Lage sein muss, Nuancen in der Sprache und im Kontext zu erkennen, die selbst sorgfältige menschliche Leser nur schwer unterscheiden können.

Einem Computer etwas beibringen, was nicht einmal alle Menschen können

Einen Computer so zu programmieren, dass er menschliche Verzerrungen in Texten erkennt, bedeutet im Wesentlichen, ihm das Lesen beizubringen. Aber das Lesen selbst ist ein komplexer mentaler Prozess, den Wissenschaftler nicht vollständig verstehen. Künstliche Intelligenz ist nur so intelligent wie die Programmierung und die Daten, die sie unterstützen. Nichtsdestotrotz versucht Donnays Team, seiner AI beizubringen, Verzerrungen zu erkennen, indem es die unterbewussten Prozesse nachahmt, mit denen Menschen den Wahrheitsgehalt von Informationen bewerten, die sie aufnehmen. Leider sind auch Menschen nicht sehr gut darin, Voreingenommenheit zu erkennen; und die ganze Idee, den Grad der «Wahrheit» in einer bestimmten Nachrichtengeschichte zu bestimmen. Wenn der Terrorist des einen ein «Freiheitskämpfer» des anderen ist, dann ist die Wahrheit zumindest teilweise eine Frage der Perspektive, wie es in einem Blog bei Thomson Reuters heisst, und auf dem dieser Artikel aufbaut.

Wie Donnay weiter beschreibt, beginnt die Schwierigkeit bei der Lösung des Fake-News-Problems mit der Erkenntnis, dass der Prozess des Sammelns, Berichtens, Schreibens, Redigierens und Verbreitens der Nachrichten selbst unvollkommen ist. Nachrichtenorganisationen haben zum Beispiel Eigentümer, Werbekunden und Zielgruppen, und diese Faktoren beeinflussen die Auswahl und Präsentation von Geschichten. Ausserdem ist jeder Satz, den ein Autor produziert, eine Reihe von Ermessensentscheidungen darüber, welche Worte er verwendet und welche Ideen er hervorhebt, die alle eine Reflexion von Bildung, Erfahrung, Kultur und so weiter sind. Auch die Perspektive des Lesers ist zu berücksichtigen.

Eine der ersten Herausforderungen, vor denen Donnay und sein Team stehen, ist die Aufgabe, einen ausreichend grossen Datensatz mit sprachlichen Beispielen zu erstellen, den ein KI-Tool als Rahmen für die Analyse nutzen kann. Frühere Versuche, «Wörterbücher» von Wörtern und Phrasen zu erstellen, hätten nicht besonders gut funktioniert, sagt Donnay. Stattdessen versucht sein Team, einen gründlicheren Deep-Learning-Ansatz zu entwickeln, der eine grosse Menge an annotierten Daten erfordert.

Stimmungsanalyse als Ausgangsaufgabe

In einem Pilotprojekt konzentrierte sich das Team zunächst auf die einfachere Aufgabe der Stimmungsanalyse, um zu veranschaulichen, wie dieser Ansatz verwendet werden kann, um den Grad zu gewichten, in dem Ideen in einer Nachrichtenmeldung als «positiv» oder «negativ» eingeordnet werden. Die nächste grosse Herausforderung bestand darin, die Logik der Stimmungsanalyse zu erweitern, um eine annotierte Datenbank aufzubauen, die gross genug ist, um neuronale Modellierungstechniken anzuwenden, die nachahmen, wie das menschliche Gehirn komplexere Wortbedeutungen und Absichten ableitet.

Ein Team von Hunderten von Codern analysierte und bewertete Zehntausende von Sätzen, um einen neuen Benchmark-Datensatz für die Erkennung von Medienverzerrungen zu erstellen. Sobald das KI-Tool genügend Beispiele «gelernt» hat, um Einseitigkeitsprobleme auf der Ebene der Wortwahl und der Satzstruktur zu erkennen, kann es seine Analyse auf den grösseren Kontext von Absätzen und ganzen Geschichten ausweiten.

Um jedoch eine Nachrichtengeschichte auf Verzerrungen zu analysieren und mit anderen Geschichten zum gleichen Thema zu vergleichen, muss das KI-Tool in der Lage sein zu erkennen, dass die Kernthemen und Konzepte, die in mehreren Geschichten diskutiert werden, miteinander verbunden sind. «Hierfür gibt es keine fertigen Tools, die wirklich gut funktionieren, weshalb wir unseren eigenen Ansatz entwickelt haben», erklärt Donnay. Dieser Ansatz, der von einem eigenen Team entwickelt wurde, beinhaltet die Verwendung einer sechsstufigen Zusammenführungsheuristik, um Themen und Konzepte zu identifizieren, die für jede Geschichte zentral sind, sowie andere Signifikanten wie kontextuelle Hinweise und Verbwahlen.

Ein sehr komplexer Prozess. Donnay sagt denn auch: «Uns ist klar, dass dies schrittweise geschehen muss.» Und der nächste Schritt – die Erweiterung der Fähigkeiten des KI-Tools zur Identifizierung falscher und irreführender Informationen oder «Fake News» – und nicht einfach nur parteiischer Nachrichten – ist ein grosser Schritt.

Sind Nachrichtenquellen vertrauenswürdig oder nicht?

Laut Donnay unterscheiden sich «Fake News» strukturell vom Framing, das bei der Bestimmung von Voreingenommenheit zum Einsatz kommt, da die Identifizierung von Fälschungen die Unterscheidung zwischen «vertrauenswürdigen» und «nicht vertrauenswürdigen» Nachrichtenquellen sowie Fakten, Lügen, Gerüchten und Anspielungen beinhaltet. «Es ist sehr schwer, den Wahrheitsgehalt von Nachrichten zu bestimmen», räumt Donnay ein und fügt hinzu, dass das Framing von Nachrichtengeschichten selbst inhärente Verzerrungen hervorrufe und dass das Verständnis dafür ein erster wichtiger Schritt zu ausgewogeneren und vertrauenswürdigeren Nachrichten sei.

Selbst wenn die von Donnay angedachte Website zur Nachrichtenaggregation irgendwann einsatzbereit sein wird, gibt es keine Garantie dafür, dass die Menschen ihrem Urteil vertrauen werden. Die Seite wäre auch als globale Ressource nützlicher, wenn sie in anderen Sprachen als Englisch funktionieren würde. Das aber sei eine komplett andere Herausforderung.

«Dieses Jahr, wenn alles fertig ist, werden wir ein gross angelegtes Experiment mit dem endgültigen Tool durchführen», verspricht Donnay. Das ist der «sozialwissenschaftliche» Teil des Experiments, der Teil, in dem Leserinnen und Leser auf die von der KI ausgewählten Inhalte reagieren und berichten, ob sie einen Unterschied in der Darstellung der Fakten erkennen können.

Die «Wahrheit» über Nachrichten zu finden, mag natürlich zu viel verlangt sein, aber jeder Fortschritt in Richtung einer grundlegenden Übereinstimmung der Fakten wäre ein Schritt in die richtige Richtung. Denn nur so wird es möglich sein, «Fake News» den Sauerstoff zu entziehen.

Wahlkampf im Spannungsfeld von Person und Partei

Die National- und Ständeratswahlen machen das Jahr 2023 wieder einmal zu einem intensiven Politjahr. Was es für die Kandidierenden zu beachten gilt.

Das Vertrauen in die Medien schwindet

Wie Schweizerinnen und Schweizer mit News umgehen, welchen Marken sie vertrauen und welche Medien sie nutzen.

«Der Frauenstreik lag vom Timing her günstig»

Nach der Frauenwahl vom 20. Oktober erklärt die Politologin Sarah Bütikofer, warum es zu diesen historischen Umwälzungen kam.

Kranke Entwicklung

Die Cyberkriminalität wird immer beängstigender. Hackerangriffe auf Spitäler und Herzschrittmacher können Menschen in Lebensgefahr bringen.

Diese Marken haben Zukunft in der Schweiz

Warum Post, Twint und Migros mit den Techfirmen mithalten können.

Die häufigste Ursache von Cyber-Pannen?

Menschliches Versagen

Warum der Wachmacher gut für die Gesundheit ist

Im Gegensatz zur landläufigen Meinung können drei bis vier Tassen Kaffee pro Tag sogar vor schweren Krankheiten schützen.

Vier Wege, um die Zeit in den Griff zu kriegen

Wie der US-Unternehmer und Berater Banks Benitez vorgeht, damit er seine Arbeitswoche erfolgreich gestalten kann.