Die Artificial intelligence – auf Deutsch künstliche Intelligenz  – ist der Versuch, menschliches Lernen und Denken auf einen Computer zu übertragen. Der Computer soll eine Art eigenständige Intelligenz entwickeln, die ihm hilft, selbstständig Funktionen auszuführen, welche zuvor nicht programmiert werden mussten. (Foto: Shutterstock)

Schon seit Jahrhunderten studieren Denker, Erfinder und Wissenschaftler am Bau von künstlicher Intelligenz (AI) herum. Auch in der Literatur hat dieser Urwunsch Spuren hinterlassen. Man denke nur an Mary Shelleys Frankenstein. Den eigentlichen Begriff «Artificial Intelligence» verwendete der Engländer John McCarthy dann 1956 erstmals an der Tagung «Summer Research Project on Artificial Intelligence». Seither gingen aus Computerprogrammen selbstlernende Algorithmen hervor. Doch erst seit Ende der 2000er-Jahre machen sich die eigentliche Anwendungen der AI-Technologie auch in unserem Alltag breit. Wie kam es dazu?

Explodierende Datenmengen forderten nach einer Antwort

Die Verarbeitung massiver Datenmengen in einer angemessenen Zeitspanne ist mit herkömmlichen statistischen Methoden nicht mehr möglich. Die Start-ups im Silicon Valley machten ihren Service für User vor allem deshalb kostenlos nutzbar, weil sie im Gegenzug auf die Bereitschaft der Nutzerinnen und Nutzer zählen konnten, dass sie ihre Daten teilen würden. Damit erhielten die Tech-Riesen Zugang zu einer schier unvorstellbar grossen Menge an Daten, aus denen man noch nie dagewesene Erkenntnisse über das menschliche Verhalten ziehen konnte.

Doch die traditionellen statistischen Lösungen hatten sich zuvor typischerweise auf feste Analysen konzentriert, die wiederum auf die verfügbaren Stichproben beschränkt sind. Diese waren nur auf einen bestimmten Zeitpunkt beschränkt und lieferten unter Umständen sogar trügerische Schlussfolgerungen.

Als Antwort darauf begannen die Ingenieure automatische Analysen zu programmieren, die die gleiche Analyse schneller und häufiger durchführen konnten. Im Fachjargon hiess das Cognitive-Computing. Das Ziel ist es, menschliche Denkprozesse in einem computergestützten Modell zu imitieren. Mit Hilfe selbstlernender kognitiver Algorithmen, welche Data Mining, maschinelles Lernen, Mustererkennung und natürliche Sprachverarbeitung nutzen, ahmt der Computer die Arbeitsweise des menschlichen Gehirns nach.

Das bedeutet, Computerprogramme zu bauen, die menschliche Intelligenz imitieren und in einem zweiten Schritt in der Lage sind, sich selbst zu verbessern. Das wiederum wird unter maschinellem Lernen verstanden. Kurz: Die Spezialisten machten sich an die Entwicklung schneller, effizienter und kognitiver Algorithmen.

Diese ermöglichen die Echtzeitverarbeitung riesiger Datenmengen. Sie machen darin enthaltene Muster erkennbar und liefern darauf basierend präzise Vorhersagen. Diese können unterschiedlichste Empfehlungen sein, etwa welches die richtigen Produkte für eine bestimmte Jahreszeit sind oder wie eine Kundensegmentierung vorgenommen werden soll. Sie helfen Betrug und Risiken zu identifizieren oder die Prioritäten in der Kundenbindung zu setzen.

Was die Lernalgorithmen von den traditionellen statistischen Techniken unterscheidet, ist, dass ihr Schwerpunkt auf Echtzeit- und hoch skalierbaren Vorhersage-Modellen liegt. Ihre vollautomatischen Methoden erleichtern allesamt die Aufgaben von Datenwissenschaftlern markant.

Was kann das kognitive Computing nun leisten?

Man kann es an einem Beispiel aus dem Gesundheitswesen zeigen: Hier analysieren inzwischen Algorithmen Röntgen-, MRI- oder CT-Bilder. Weil man sie mit einer riesigen Menge schon bestimmter Anomalien trainiert hat, können sie eine Abweichung von der Norm schneller, genauer und zuverlässiger als ein Mensch erkennen. Mit anderen Worten: Das Ziel dieser Algorithmen ist es aber nicht, den Arzt oder die Ärztin zu ersetzen. Vielmehr sollen sie deren Fähigkeiten erweitern, indem sich die Mediziner für ihre Diagnose auf eine riesige Datenmenge abstützen können, die kein Mensch je verarbeiten und im Kopf behalten könnte.

Oder man könnte es an einem Beispiel aus der Sozialhilfe im Vereinigten Königreich zeigen. Eine Untersuchung im Auftrag des Essex County Council ergab, dass die öffentliche Hand Gelder im Schulwesen besser einsetzen könnte, wenn man statt Symptomen die Ursachen von Lernschwierigkeiten beseitigen könnte. Dafür aber müsste man bestimmte Kinder in eine spezielle Frühförderung schicken können. Wobei man aus Gründen der Gleichbehandlung und wegen Diskriminierungsverboten weder Eltern noch gefährdete Kinder präventiv dazu verpflichten wollte.

In beiden notwendigen Schritten kamen erwähnte Logarithmen zur Anwendung: Gestützt auf Daten von Schulbehörden und Sozialämtern, analysierte man Zehntausende Werdegänge von Schülerinnen und Schülern und konnte so Muster abgrenzen, welche Faktoren im Leben eines Kindes potenziell negative Folgen haben können. Damit konnten die Behörden gefährdete Kleinkinder im ganzen County auffinden. Nun musste man nur noch sicherstellten, dass die Kinder auch von den Hilfsmassnahmen profitierten. Der einzige vorschriftsgemässe Weg: Man müsste die entsprechenden Angebote für die freiwillige, kostenlose Frühförderung exakt über das Gebiet verteilen, damit möglichst viele der gefährdeten Kinder in den Genuss kämen. Auch diese Aufgaben liessen die Verantwortlichen von einem Computer erledigen, der die besten Orte identifizierte. Kein Mensch hätte so viele Daten in so kurzer Zeit derart bearbeiten können. Auch hier: Die Sozialarbeiter und Lehrerinnen werden die Logarithmen nicht ersetzen können. Sie helfen ihnen aber in der Arbeit, wenn man die Ressourcen dank der künstlichen Intelligenz effektiver verteilen kann. Denn jedes Jahr lässt das County nun der Logarithmus durchrattern und weiss nun, wo es die Schwerpunkte in dieser Arbeit setzen muss.

Was die beiden Beispiele aber gleichzeitig zeigen: Diese Technologien versprechen uns eine Ära, in der Computer das menschliche Wissen und den menschlichen Einfallsreichtum auf völlig neue Weise ergänzen können.

«Als Chef muss ich zeigen, dass es möglich ist, ein Sabbatical zu nehmen»

Weshalb der BLS-Chef Bernhard Guillelmon Führungskräfte rät, eine Auszeit zu nehmen.

«Es ist extrem kompetitiv»

Weltraumforscherin Salome Gruchola erklärt, wie sie ein Instrument baut, um Leben im All nachzuweisen.

Wahlen durch KI sind kein Alptraum

Die aktuelle Wachstumsschwäche verstellt den langfristigen Blick auf die steigenden Compliance-Anforderungen

Diese Marken haben Zukunft in der Schweiz

Warum Post, Twint und Migros mit den Techfirmen mithalten können.

«Heute würde die AHV nicht mehr eingeführt»

Rosmarie Dormann hat im Nationalrat eine ganze Reihe von AHV-Revisionsversuchen mitgestaltet – und dabei Gemeinsamkeiten ausgemacht. Heute vermisst sie die Solidarität.

«Es gibt Frustration über das Verhalten der Schweiz»

Die EU-Spezialistin Stefanie Walter analysiert in Umfragen, wie die EU-Bevölkerung auf den Brexit reagiert.

Chatbots gewinnen an Bedeutung

Fünf Schritte, um sich auf die nächste Krise vorzubereiten - und was im Kontakt mit Medienschaffenden alles schief laufen kann.

Kein Spitzenplatz für die Schweiz

Die Forscher beim WEF rechnen mit einem einzigartigen, unsicheren und turbulenten Jahrzehnt

Was Chefs von Niederreiter & Co. lernen können

Sportlerinnen und Sportler kommunizieren oft in Ausnahmensituationen – drei Beispiele von gelungenen und missglückten Auftritten