Künstliche Intelligenz ist ein Werkzeug, das menschliche Journalisten unterstützt, aber nie vollständig ersetzt. (Foto: shutterstock)

In der letzten influence-Ausgabe haben wir über die Zukunft des Journalismus nachgedacht. Die Ankündigung des mächtigen Chefs des Axel-Springer-Konzerns, Mathias Döpfner, bis 2030 auf «digital only» zu setzen und die vielen Newsjournalisten durch Künstliche Intelligenz, namentlich ChatGPT, zu ersetzen, hat für zahlreiche Diskussionen gesorgt.

Wir haben die Künstliche Intelligenz direkt mit der Frage konfrontiert: «Taugt ChatGPT, um journalistische Texte zu schreiben?» Die differenzierte Antwort, die sowohl Vor- als auch Nachteile umfasst, möchten wir Ihnen nicht vorenthalten. Da wir überzeugt sind, dass uns mit ChatGPT ein grosser Umbruch bevorsteht, vergleichbar mit der Einführung von Google oder des Smartphones, werden wir Sie über diese Entwicklungen auf dem Laufenden halten, getreu dem Motto eines grossen Schweizer Medienhauses: «Wir bleiben dran!»

Antwort von ChatGPT 

Künstliche Intelligenz (KI), insbesondere Natural-Language-Processing-Modelle wie GPT-4, haben in den letzten Jahren enorme Fortschritte gemacht und können heute eine Vielzahl von Texten, einschliesslich journalistischer Texte, generieren. Tatsächlich nutzen einige Nachrichtenorganisationen bereits KI-Systeme, um grundlegende Berichte und Nachrichtenartikel zu erstellen. Trotzdem gibt es bei der Verwendung von KI im Journalismus sowohl Vor- als auch Nachteile.

Vorteile: 

  1. Effizienz: KI kann grosse Mengen an Informationen schnell verarbeiten und in kürzester Zeit Artikel erstellen.
  2. Kosteneffektivität: KI kann dazu beitragen, die Kosten für die Erstellung von Inhalten zu reduzieren, indem sie menschliche Arbeitskraft ergänzt oder ersetzt.
  3. Skalierbarkeit: Künstliche Intelligenz kann eine grosse Anzahl von Artikeln in verschiedenen Themenbereichen und auf verschiedenen Kompetenzniveaus generieren.

Nachteile:

  1. Mangelnde Kreativität: KI-Systeme können Schwierigkeiten haben, kreative oder tiefgründige Artikel zu verfassen, die menschliche Emotionen, Intuition und Erfahrung erfordern.
  2. Ethik und Verantwortlichkeit: Es kann schwierig sein, die Verantwortlichkeit für Fehler oder Fehlinformationen in von KI generierten Artikeln zu bestimmen.
  3. Verzerrungen: KI-Modelle könnten ungewollt Verzerrungen in den generierten Inhalten widerspiegeln, die aus den Trainingsdaten stammen.

Obwohl KI im Journalismus nützlich sein kann, sollte sie als Werkzeug betrachtet werden, das menschliche Journalisten unterstützt und nicht vollständig ersetzt. Es ist wichtig, dass Redaktionen weiterhin auf menschliche Fähigkeiten wie kritisches Denken, ethische Überlegungen und das Verständnis von Kontext und Nuancen setzen, um qualitativ hochwertige journalistische Inhalte zu gewährleisten.

Warum Liebe und Nette bessere Wahlchancen haben

Die aktuelle Wachstumsschwäche verstellt den langfristigen Blick auf die steigenden Compliance-Anforderungen

Digitales Business und die Frauen

Eine repräsentative Umfrage zeigt, wo die grössten Herausforderungen der Verwaltungsräte liegen.

Neue Weltordnung, neue Regeln

Welche Prioritäten Wirtschaftsführer setzen sollten, um in einer multipolaren Welt wettbewerbsfähig zu bleiben

Der Mythos der «undatebaren» Wählerinnen und Wähler

Warum der Dating-Markt Einfluss auf die Stabilität der Demokratie hat

Kann AI das «Fake News»-Problem lösen?

Forscher der Universität Zürich versuchen Verzerrungen in der Nachrichtenberichterstattung zu identifizieren.

Es braucht Vertrauen

Eine tiefere Spaltung der polarisierten Gesellschaft in Sachen KI muss verhindert werden.

Das Arbeitsklima ist Chefsache

Ob Angst vor der Rückkehr aus dem Homeoffice oder Überbelastung bis zum Burnout: Vier Methoden, wie Vorgesetzte Stress reduzieren können.

«Aufruf zum Vegetarismus, und die Hälfte der Mitglieder ist weg»

SP-Co-Generalsekretärin Rebekka Wyler erklärt, was ihre Aufgabe besonders anspruchsvoll macht, was die Generalsekretäre über die Parteigrenzen hinweg verbindet, und worin ihre Macht besteht, obwohl sie keine Befehle erteilen können.

Wie X den Algorithmus manipulierte

Australische Forscher zeigen, warum Tweets von Elon Musk viel stärker beachtet wurden