Die Artificial intelligence – auf Deutsch künstliche Intelligenz  – ist der Versuch, menschliches Lernen und Denken auf einen Computer zu übertragen. Der Computer soll eine Art eigenständige Intelligenz entwickeln, die ihm hilft, selbstständig Funktionen auszuführen, welche zuvor nicht programmiert werden mussten. (Foto: Shutterstock)

Schon seit Jahrhunderten studieren Denker, Erfinder und Wissenschaftler am Bau von künstlicher Intelligenz (AI) herum. Auch in der Literatur hat dieser Urwunsch Spuren hinterlassen. Man denke nur an Mary Shelleys Frankenstein. Den eigentlichen Begriff «Artificial Intelligence» verwendete der Engländer John McCarthy dann 1956 erstmals an der Tagung «Summer Research Project on Artificial Intelligence». Seither gingen aus Computerprogrammen selbstlernende Algorithmen hervor. Doch erst seit Ende der 2000er-Jahre machen sich die eigentliche Anwendungen der AI-Technologie auch in unserem Alltag breit. Wie kam es dazu?

Explodierende Datenmengen forderten nach einer Antwort

Die Verarbeitung massiver Datenmengen in einer angemessenen Zeitspanne ist mit herkömmlichen statistischen Methoden nicht mehr möglich. Die Start-ups im Silicon Valley machten ihren Service für User vor allem deshalb kostenlos nutzbar, weil sie im Gegenzug auf die Bereitschaft der Nutzerinnen und Nutzer zählen konnten, dass sie ihre Daten teilen würden. Damit erhielten die Tech-Riesen Zugang zu einer schier unvorstellbar grossen Menge an Daten, aus denen man noch nie dagewesene Erkenntnisse über das menschliche Verhalten ziehen konnte.

Doch die traditionellen statistischen Lösungen hatten sich zuvor typischerweise auf feste Analysen konzentriert, die wiederum auf die verfügbaren Stichproben beschränkt sind. Diese waren nur auf einen bestimmten Zeitpunkt beschränkt und lieferten unter Umständen sogar trügerische Schlussfolgerungen.

Als Antwort darauf begannen die Ingenieure automatische Analysen zu programmieren, die die gleiche Analyse schneller und häufiger durchführen konnten. Im Fachjargon hiess das Cognitive-Computing. Das Ziel ist es, menschliche Denkprozesse in einem computergestützten Modell zu imitieren. Mit Hilfe selbstlernender kognitiver Algorithmen, welche Data Mining, maschinelles Lernen, Mustererkennung und natürliche Sprachverarbeitung nutzen, ahmt der Computer die Arbeitsweise des menschlichen Gehirns nach.

Das bedeutet, Computerprogramme zu bauen, die menschliche Intelligenz imitieren und in einem zweiten Schritt in der Lage sind, sich selbst zu verbessern. Das wiederum wird unter maschinellem Lernen verstanden. Kurz: Die Spezialisten machten sich an die Entwicklung schneller, effizienter und kognitiver Algorithmen.

Diese ermöglichen die Echtzeitverarbeitung riesiger Datenmengen. Sie machen darin enthaltene Muster erkennbar und liefern darauf basierend präzise Vorhersagen. Diese können unterschiedlichste Empfehlungen sein, etwa welches die richtigen Produkte für eine bestimmte Jahreszeit sind oder wie eine Kundensegmentierung vorgenommen werden soll. Sie helfen Betrug und Risiken zu identifizieren oder die Prioritäten in der Kundenbindung zu setzen.

Was die Lernalgorithmen von den traditionellen statistischen Techniken unterscheidet, ist, dass ihr Schwerpunkt auf Echtzeit- und hoch skalierbaren Vorhersage-Modellen liegt. Ihre vollautomatischen Methoden erleichtern allesamt die Aufgaben von Datenwissenschaftlern markant.

Was kann das kognitive Computing nun leisten?

Man kann es an einem Beispiel aus dem Gesundheitswesen zeigen: Hier analysieren inzwischen Algorithmen Röntgen-, MRI- oder CT-Bilder. Weil man sie mit einer riesigen Menge schon bestimmter Anomalien trainiert hat, können sie eine Abweichung von der Norm schneller, genauer und zuverlässiger als ein Mensch erkennen. Mit anderen Worten: Das Ziel dieser Algorithmen ist es aber nicht, den Arzt oder die Ärztin zu ersetzen. Vielmehr sollen sie deren Fähigkeiten erweitern, indem sich die Mediziner für ihre Diagnose auf eine riesige Datenmenge abstützen können, die kein Mensch je verarbeiten und im Kopf behalten könnte.

Oder man könnte es an einem Beispiel aus der Sozialhilfe im Vereinigten Königreich zeigen. Eine Untersuchung im Auftrag des Essex County Council ergab, dass die öffentliche Hand Gelder im Schulwesen besser einsetzen könnte, wenn man statt Symptomen die Ursachen von Lernschwierigkeiten beseitigen könnte. Dafür aber müsste man bestimmte Kinder in eine spezielle Frühförderung schicken können. Wobei man aus Gründen der Gleichbehandlung und wegen Diskriminierungsverboten weder Eltern noch gefährdete Kinder präventiv dazu verpflichten wollte.

In beiden notwendigen Schritten kamen erwähnte Logarithmen zur Anwendung: Gestützt auf Daten von Schulbehörden und Sozialämtern, analysierte man Zehntausende Werdegänge von Schülerinnen und Schülern und konnte so Muster abgrenzen, welche Faktoren im Leben eines Kindes potenziell negative Folgen haben können. Damit konnten die Behörden gefährdete Kleinkinder im ganzen County auffinden. Nun musste man nur noch sicherstellten, dass die Kinder auch von den Hilfsmassnahmen profitierten. Der einzige vorschriftsgemässe Weg: Man müsste die entsprechenden Angebote für die freiwillige, kostenlose Frühförderung exakt über das Gebiet verteilen, damit möglichst viele der gefährdeten Kinder in den Genuss kämen. Auch diese Aufgaben liessen die Verantwortlichen von einem Computer erledigen, der die besten Orte identifizierte. Kein Mensch hätte so viele Daten in so kurzer Zeit derart bearbeiten können. Auch hier: Die Sozialarbeiter und Lehrerinnen werden die Logarithmen nicht ersetzen können. Sie helfen ihnen aber in der Arbeit, wenn man die Ressourcen dank der künstlichen Intelligenz effektiver verteilen kann. Denn jedes Jahr lässt das County nun der Logarithmus durchrattern und weiss nun, wo es die Schwerpunkte in dieser Arbeit setzen muss.

Was die beiden Beispiele aber gleichzeitig zeigen: Diese Technologien versprechen uns eine Ära, in der Computer das menschliche Wissen und den menschlichen Einfallsreichtum auf völlig neue Weise ergänzen können.

«Es gibt auf beiden Seiten Ängste»

Thierry Steinert, Stadtpräsident/ Syndic der Stadt Freiburg/Fribourg, über den Sprachenstreit in der Schweiz

EU und Facebook steuern auf einen Konflikt zu

Mit Natotargeting verletzt der Tech-Gigant wohl Vorgaben des europäischen Datenschutzes.

«Wir passen bei einer Prüfung immer extrem auf»

Michel Huissoud, Direktor der Eidgenössischen Finanzkontrolle EFK, über die Macht der Transparenz – und die magischen Finger seiner Kontrolleure, die Geld sparen und heilen.

«Heute würde die AHV nicht mehr eingeführt»

Rosmarie Dormann hat im Nationalrat eine ganze Reihe von AHV-Revisionsversuchen mitgestaltet – und dabei Gemeinsamkeiten ausgemacht. Heute vermisst sie die Solidarität.

«Wie kreativ ist ein System, das unter höchstem Druck steht?»

Zukunftsforscherin Karin Frick erwartet einen beschleunigten Strukturwandel, im Guten wie im Schlechten.

Warum Blockchain Transparenz in die Verwaltung bringt

Beschaffungswesen, Grundbuchämter und öffentliche Zuschüsse: Diese drei Beispiele zeigen das Potenzial der Blockchain-Technologie.

Weshalb die Fusion von Gemeinden scheitert

Eine Wegweisung für die lokalen Behörden, wenn es darum geht, mit einem Projekt eine Mehrheit zu bekommen.

Schluss mit der Schwarzmalen!

Weshalb Optimismus für den Fortschritt so wichtig ist und die Optimisten die wahren Innovatoren sind.

Diese acht Fakten zum World Wide Web sollten Sie kennen

Wie das globale Netz vor 30 Jahren entstand und welche Gefahren heute drohen.