Die Artificial intelligence – auf Deutsch künstliche Intelligenz  – ist der Versuch, menschliches Lernen und Denken auf einen Computer zu übertragen. Der Computer soll eine Art eigenständige Intelligenz entwickeln, die ihm hilft, selbstständig Funktionen auszuführen, welche zuvor nicht programmiert werden mussten. (Foto: Shutterstock)

Schon seit Jahrhunderten studieren Denker, Erfinder und Wissenschaftler am Bau von künstlicher Intelligenz (AI) herum. Auch in der Literatur hat dieser Urwunsch Spuren hinterlassen. Man denke nur an Mary Shelleys Frankenstein. Den eigentlichen Begriff «Artificial Intelligence» verwendete der Engländer John McCarthy dann 1956 erstmals an der Tagung «Summer Research Project on Artificial Intelligence». Seither gingen aus Computerprogrammen selbstlernende Algorithmen hervor. Doch erst seit Ende der 2000er-Jahre machen sich die eigentliche Anwendungen der AI-Technologie auch in unserem Alltag breit. Wie kam es dazu?

Explodierende Datenmengen forderten nach einer Antwort

Die Verarbeitung massiver Datenmengen in einer angemessenen Zeitspanne ist mit herkömmlichen statistischen Methoden nicht mehr möglich. Die Start-ups im Silicon Valley machten ihren Service für User vor allem deshalb kostenlos nutzbar, weil sie im Gegenzug auf die Bereitschaft der Nutzerinnen und Nutzer zählen konnten, dass sie ihre Daten teilen würden. Damit erhielten die Tech-Riesen Zugang zu einer schier unvorstellbar grossen Menge an Daten, aus denen man noch nie dagewesene Erkenntnisse über das menschliche Verhalten ziehen konnte.

Doch die traditionellen statistischen Lösungen hatten sich zuvor typischerweise auf feste Analysen konzentriert, die wiederum auf die verfügbaren Stichproben beschränkt sind. Diese waren nur auf einen bestimmten Zeitpunkt beschränkt und lieferten unter Umständen sogar trügerische Schlussfolgerungen.

Als Antwort darauf begannen die Ingenieure automatische Analysen zu programmieren, die die gleiche Analyse schneller und häufiger durchführen konnten. Im Fachjargon hiess das Cognitive-Computing. Das Ziel ist es, menschliche Denkprozesse in einem computergestützten Modell zu imitieren. Mit Hilfe selbstlernender kognitiver Algorithmen, welche Data Mining, maschinelles Lernen, Mustererkennung und natürliche Sprachverarbeitung nutzen, ahmt der Computer die Arbeitsweise des menschlichen Gehirns nach.

Das bedeutet, Computerprogramme zu bauen, die menschliche Intelligenz imitieren und in einem zweiten Schritt in der Lage sind, sich selbst zu verbessern. Das wiederum wird unter maschinellem Lernen verstanden. Kurz: Die Spezialisten machten sich an die Entwicklung schneller, effizienter und kognitiver Algorithmen.

Diese ermöglichen die Echtzeitverarbeitung riesiger Datenmengen. Sie machen darin enthaltene Muster erkennbar und liefern darauf basierend präzise Vorhersagen. Diese können unterschiedlichste Empfehlungen sein, etwa welches die richtigen Produkte für eine bestimmte Jahreszeit sind oder wie eine Kundensegmentierung vorgenommen werden soll. Sie helfen Betrug und Risiken zu identifizieren oder die Prioritäten in der Kundenbindung zu setzen.

Was die Lernalgorithmen von den traditionellen statistischen Techniken unterscheidet, ist, dass ihr Schwerpunkt auf Echtzeit- und hoch skalierbaren Vorhersage-Modellen liegt. Ihre vollautomatischen Methoden erleichtern allesamt die Aufgaben von Datenwissenschaftlern markant.

Was kann das kognitive Computing nun leisten?

Man kann es an einem Beispiel aus dem Gesundheitswesen zeigen: Hier analysieren inzwischen Algorithmen Röntgen-, MRI- oder CT-Bilder. Weil man sie mit einer riesigen Menge schon bestimmter Anomalien trainiert hat, können sie eine Abweichung von der Norm schneller, genauer und zuverlässiger als ein Mensch erkennen. Mit anderen Worten: Das Ziel dieser Algorithmen ist es aber nicht, den Arzt oder die Ärztin zu ersetzen. Vielmehr sollen sie deren Fähigkeiten erweitern, indem sich die Mediziner für ihre Diagnose auf eine riesige Datenmenge abstützen können, die kein Mensch je verarbeiten und im Kopf behalten könnte.

Oder man könnte es an einem Beispiel aus der Sozialhilfe im Vereinigten Königreich zeigen. Eine Untersuchung im Auftrag des Essex County Council ergab, dass die öffentliche Hand Gelder im Schulwesen besser einsetzen könnte, wenn man statt Symptomen die Ursachen von Lernschwierigkeiten beseitigen könnte. Dafür aber müsste man bestimmte Kinder in eine spezielle Frühförderung schicken können. Wobei man aus Gründen der Gleichbehandlung und wegen Diskriminierungsverboten weder Eltern noch gefährdete Kinder präventiv dazu verpflichten wollte.

In beiden notwendigen Schritten kamen erwähnte Logarithmen zur Anwendung: Gestützt auf Daten von Schulbehörden und Sozialämtern, analysierte man Zehntausende Werdegänge von Schülerinnen und Schülern und konnte so Muster abgrenzen, welche Faktoren im Leben eines Kindes potenziell negative Folgen haben können. Damit konnten die Behörden gefährdete Kleinkinder im ganzen County auffinden. Nun musste man nur noch sicherstellten, dass die Kinder auch von den Hilfsmassnahmen profitierten. Der einzige vorschriftsgemässe Weg: Man müsste die entsprechenden Angebote für die freiwillige, kostenlose Frühförderung exakt über das Gebiet verteilen, damit möglichst viele der gefährdeten Kinder in den Genuss kämen. Auch diese Aufgaben liessen die Verantwortlichen von einem Computer erledigen, der die besten Orte identifizierte. Kein Mensch hätte so viele Daten in so kurzer Zeit derart bearbeiten können. Auch hier: Die Sozialarbeiter und Lehrerinnen werden die Logarithmen nicht ersetzen können. Sie helfen ihnen aber in der Arbeit, wenn man die Ressourcen dank der künstlichen Intelligenz effektiver verteilen kann. Denn jedes Jahr lässt das County nun der Logarithmus durchrattern und weiss nun, wo es die Schwerpunkte in dieser Arbeit setzen muss.

Was die beiden Beispiele aber gleichzeitig zeigen: Diese Technologien versprechen uns eine Ära, in der Computer das menschliche Wissen und den menschlichen Einfallsreichtum auf völlig neue Weise ergänzen können.

Wenn die Gesellschaft zielgerichtet manipuliert wird

Für den Oxford-Professor Philip N. Howard gehört Fake-News auch im Westen zu gängigen politischen Strategien.

«Wir passen bei einer Prüfung immer extrem auf»

Michel Huissoud, Direktor der Eidgenössischen Finanzkontrolle EFK, über die Macht der Transparenz – und die magischen Finger seiner Kontrolleure, die Geld sparen und heilen.

Was Pfizer, SpaceX und Epic Games besser machen

Ranking der weltweit innovativsten Unternehmen im Corona-Jahr 2020.

Wie finde ich meine beste Work-Life Balance?

Ab fünf Stunden Freizeit pro Tag sinkt das Wohlbefinden: Studien zeigen, dass Harmonie zwischen Privatleben und Beruf aussieht.

«Da müsste die Frauenallianz spielen»

Die grünliberale Berner Nationalrätin Melanie Mettler ist Co-Präsidentin der Frauengruppe im Parlament. Sie erklärt, warum die Pensionskassenreform für ihre Klientel wichtig ist.

«Ich will die Komfortzone verlassen»

Aufbruch zu einer abenteuerlichen Reise als erster Mensch mit einem E-Bike von Zürich nach Peking.

«Die Schweiz findet weltweit Anerkennung und Sympathie»

Weshalb die Schweiz inspiriert und in Europa nicht Trittbrettfahrerin sein darf – Avenir-Suisse-Direktor Gerhard Schwarz im Gespräch.

«Die Schweiz ist dem Silicon Valley 24 Monate voraus»

Mathias Ruch ist ein profunder Kenner des Crypto Valley. Der Berater und Investor von Lakeside Partners weiss, wie es zum Blockchain-Boom kam und was noch kommen wird.

So kommunizieren Sie erfolgreich in einer Krise

Sieben Erkenntnisse für Firmen und Führungskräfte