zurück zum Artikel

"Ich sehe KI als Herausforderung für die Menschheit" – Interview mit Christian J. Meier

Matthias Parbel

(Bild: Polarise/dpunkt)

Nach allgemeinverständlichen Sachbüchern über Nanotechnologie und Quantencomputer hat der promovierte Physiker Christian J. Meier nun seinen ersten Techno-Thriller "K.I. – Wer das Schicksal programmiert" vorgelegt.

Christian J. Meier folgte nach einer Promotion in Physik seinem Traum und wurde Journalist und Autor. Neben Artikeln über Forschung, Technik und Digitalisierung hat er drei Sachbücher verfasst – unter anderen zu den Themen Nanotechnologie und Quantencomputer. Unter dem Titel "K.I. – Wer das Schicksal programmiert" legt er nun sein Debut eines Techno-Thrillers vor, der einen realistischen Plot und Dystopie in einer spannenden Mischung verbindet.

heise Developer: Herr Meier, Sie haben bereits drei allgemeinverständliche Sachbücher zu Themen wie Nanotechnologie und Quantencomputer geschrieben. Warum jetzt ein Thriller und kein Sachbuch über Künstliche Intelligenz und Digitalisierung?

Christian J. Meier: Ich wollte schon lange einen Thriller schreiben, da ich selbst gerne Storys und Thriller lese, die Zukunftsszenarien schildern. KI ist ein aktuelles und vielschichtiges Thema, nicht nur technisch, sondern auch gesellschaftlich und ethisch. Eine breite Debatte darüber, welche KI wir wollen und welche nicht, findet kaum statt, obwohl es viele Sachbücher und journalistische Beiträge zum Thema gibt.

Ich glaube, mit einem Thriller erreicht man mehr Menschen. Ein lebendiges Zukunftsszenario schafft Unmittelbarkeit. Es unterhält den Leser und sensibilisiert ihn zugleich. Es macht ihn vielleicht neugierig auf die Fragen, die eine übermächtige KI aufwirft. Schon beim Schreiben meines Sachbuchs über Quantencomputer hatte ich das Gefühl, dass manche Aspekte besser mit einer fiktionalen Erzählung zu vermitteln wären. Da ich inzwischen einige Kurzgeschichten publiziert habe, sah ich mich gerüstet für einen KI-Thriller.

Mehr Infos

KI und Ethik auf der data2day 2019

Am 23. Oktober liest Christian J. Meier im Rahmen der data2day 2019 [1] in Ludwigshafen aus seinem neuen Buch vor.
Künstliche Intelligenz und Ethik sowie die Frage der Nachvollziehbarkeit von algorithmischen Entscheidungen spielen außerdem in Keynotes und Vorträgen [2] der Konferenz vom 22. bis 24.10. eine wichtige Rolle.

heise Developer: In Ihrem Thriller spielt die prognostische KI "Laplace", die mögliche Szenarien in der Zukunft nach Wahrscheinlichkeiten berechnet, eine wichtige Rolle. Wie weit haben Sie sich hier an realen Entwicklungen orientiert?

Meier: Eine Inspiration war das Computersystem "Aladdin" des weltweit größten Vermögensverwalters Blackrock. Es beobachtet ständig das Netz nach wirtschaftlich relevanter Information, etwa dem Erwähnen bestimmter Aktien in sozialen Medien. Aladdin kombiniert die Daten, um Risiken von Finanzgeschäften einzuschätzen. Die Maschine verschafft Blackrock einen Wissensvorsprung. Der Boss von Blackrock, Larry Fink, gilt als besessen von Risikoprognosen. Er selbst hatte sich in den 1980er-Jahren gigantisch verspekuliert. Das ist eine Parallele zu meinem Protagonisten Patrick Reinerts, der Laplace entwickelt hat: Er hat die Obsession, überraschende Katastrophen, sogenannte "Black Swans", zu verhüten. Laplace soll nicht nur wie Aladdin die Finanzwelt kennen, sondern möglichst alles unter der Sonne.

Eine weitere Anregung für Laplace gab mir das Buch "The Master Algorithm" von Pedro Domingos von der University of Washington. Darin beschreibt der Informatiker den Weg zu einer universellen Lernmaschine, also einen Algorithmus, der alle Aspekte des menschlichen Lernens umsetzt. Dieses Programm könnte die ganze Welt verstehen und dadurch verlässliche Prognosen erstellen. Die einzelnen Zutaten dafür seien schon da, schreibt Domingos. Verschiedene Verfahren des maschinellen Lernens imitieren unterschiedliche Facetten der Lernfähigkeit des Menschen, wie Analogien oder logische Schlüsse zu ziehen. Man müsse nur noch die Schulen des Machine Learnings vereinigen, meint Domingos. Klingt einfach, ist es aber nicht.

Ich habe mir vorgestellt, was passiert, wenn Domingos universeller Lerner in einer weiterentwickelten Version eines neuromorphen Computers verwirklicht wird, der verdrahtet ist wie das Gehirn. So eine Maschine würde nicht nur lernen wie ein Mensch, sondern auch sehr viel schneller.

heise Developer: Ohne zu viel verraten zu wollen, aber ist das Thriller-Szenario rund um Gaia, also die beinahe Allmacht einer kommerziellen KI, die wie eine Blackbox ins Leben ihrer Nutzer eingreift, noch sehr fiktional oder wie weit stimmt das Szenario mit den Bestrebungen der Tech-Riesen überein?

Meier: Ich habe mich auch hier an realen Entwicklungen orientiert. Der fiktive Cloud-Konzern Gaia ist eine Mischung aus Amazon und Google. Diese Unternehmen wollen KI zu einer Infrastruktur machen, die in alle Lebensbereiche eindringt. Manche Leute stellen sich Alexa ins Schlafzimmer! Aber nicht nur das. Beide Firmen bauen die künftigen Plattformen für KI. Googles Android-Smartphones gehören dazu.

Amazon bietet KI-Dienstleistungen auf seiner Cloud an, die unter anderem Volkswagen nutzen will, um seine Produktionsprozesse zu verbessern. In Zukunft könnte, wie in meinem Thriller, das, was wir Industrie 4.0 nennen, zum Gutteil auf Amazons Servern stattfinden. Auch Firmen und Behörden im Gesundheitswesen nutzen die Amazon-Cloud. Die Tech-Riesen verfügen zudem über den Rohstoff, den KI zum Lernen nutzt: Daten aus allen Lebensbereichen wie Konsum, Kommunikation, Verkehr, Industrie, Logistik und Gesundheit. Man denke nur daran, dass die Google-Schwesterfirma Waymo autonome Autos entwickelt, die im Grunde Datenstaubsauger sind. Kurz gesagt: Diese Unternehmen, aber auch deren chinesische Pendants wie Alibaba oder Tencent, werden die KI-Infrastruktur beherrschen, wenn die Gesellschaft das zulässt.

Fiktional in meinem Thriller ist natürlich, dass es eine KI gibt, die Krebs und andere Krankheiten perfekt versteht und Patienten wie ferngewartete Maschinen kuriert. Ich halte das aber nicht für unmöglich. Schon heute wird KI in der Medizin eingesetzt. Bei speziellen Diagnosen sind Algorithmen schneller und treffsicherer als Ärzte. Dass man den Menschen zumindest teilweise aus der Schleife nimmt, ist naheliegend und wohl auch verantwortbar.

Christian J. Meier folgte nach einer Promotion in Physik seinem Traum und wurde Journalist und Autor. Nach allgemeinverständlichen Sachbüchern über Nanotechnologie und Quantencomputer hat er nun seinen ersten Techno-Thriller "K.I. – Wer das Schicksal programmiert" vorgelegt.

Christian J. Meier folgte nach einer Promotion in Physik seinem Traum und wurde Journalist und Autor. Nach allgemeinverständlichen Sachbüchern über Nanotechnologie und Quantencomputer hat er nun seinen ersten Techno-Thriller "K.I. – Wer das Schicksal programmiert" vorgelegt.

(Bild: Polarise/dpunkt)

heise Developer: In diesen Tagen ist die Rede von der Verantwortung der Wissenschaftler und Entwickler beim Gestalten von Algorithmen und KI? Wie sehen Sie das, diese Verantwortung stellt schließlich auch einen Aspekt in Ihrem Buch dar?

Meier: Forscher machen sich zu wenig Gedanken über die Folgen ihrer Entwicklungen. Man redet die KI kleiner, als sie ist. Ein Argument lautet, dass heutige KI zur Erledigung spezifischer, enger Aufgaben trainiert wird beispielsweise Spracherkennung oder spezielle Diagnosen wie Hautkrebs. Sie ist quasi ein "Fachidiot". So hält man argumentativ einen Sicherheitsabstand von Dystopien aus der Science-Fiction mit selbstlernenden, selbstverbessernden, menschenähnlichen Maschinen wie dem "Terminator".

Diese Distanz untermauert man gerne mit dem Hinweis, dass KI die menschliche Intelligenz nie erreichen wird, weil sie auf Algorithmen basiert, das natürliche Gehirn jedoch nicht. Meines Erachtens ist das eine Glaubensfrage. De facto trifft KI immer mehr Entscheidungen, die zuvor von Menschen getroffen wurden. Das Entscheidende ist, dass KI einen Handlungsspielraum hat. KI kann überraschen. Könnte sie das nicht, dann wäre sie einfach nur herkömmliche Technik, die ein klar definiertes Ergebnis produziert.

Dass KI in der Praxis dem Menschen immer ähnlicher handelt, wirft tief greifende Fragen auf, etwa nach der Zurechnungsfähigkeit. Welche Fehler darf eine KI machen? KI läutet eine neue Epoche ein, ein neues Maschinenzeitalter. Derzeit schlittern wir auf der Jagd nach immer neuen Produktinnovationen blind in diese Ära. Ganz im Gegensatz übrigens zu China. Dort hat der Staat eine klare KI-Strategie: Er sieht in ihr ein Werkzeug, um zur weltweit führenden Macht zu werden, wirtschaftlich, politisch und bis Mitte des Jahrhunderts auch militärisch. Die Antwort des Westens darauf steht aus.

heise Developer: Durch die aktuellen und zukünftigen Möglichkeiten werden immer häufiger auch Forderungen nach einer Ethik für Künstliche Intelligenz laut. Was ist Ihre Meinung dazu und wie könnte eine solche Ethik in Ansätzen aussehen?

Meier: Eine Ethik für KI halte ich für unumgänglich. Schließlich entwickelt sich KI zu einer Infrastruktur. Es gibt ein Ungleichgewicht zwischen dem Interesse der Industrie, ständig Produkte auf den Markt zu werfen und der Gesellschaft, die Anspruch auf eine sichere KI hat. Beim autonomen Fahren wundert mich, wie zielstrebig es entwickelt und als quasi sichere Zukunft verkündet wird, obwohl man in praktisch unentscheidbare ethische Dilemmata gerät. Hier zeigt sich das Problem des Handlungsspielraums. Was tut ein autonomes Fahrzeug in einer Dilemmasituation? Eine Gruppe alter Menschen überfahren oder eine Mutter mit Kind? Soll das ein Zufallsgenerator entscheiden? Dass autonome Fahrzeuge gar keine Unfälle mehr bauen, die Industrie verkauft das als "Vision Zero", glaube ich nicht.

Polarise

"K.I. – Wer das Schicksal programmiert" von Christian J. Meier

(Bild: Polarise/dpunkt)

Meiner Wahrnehmung nach verhalten sich Gesellschaft und Politik gegenüber der Industrie zu passiv. Warum wird die Forderung nach einer sicheren, ethisch vertretbaren KI nicht lauter?

Wichtig wäre zum Beispiel mehr Forschung zu ethischer KI, etwa wie die Entscheidungen einer KI transparent gemacht werden können. Noch wichtiger: Der Staat muss die Rahmenbedingungen setzen, und zwar nicht nur im Interesse der Hersteller. Die amerikanische Zukunftsforscherin Amy Webb empfiehlt, den Vermarktungsdruck von Firmen wie Apple oder Amazon zu nehmen, damit sie nicht im Monatstakt neue Gadgets auf den Markt werfen müssen. Zusammen mit den Regierungen sollten sie eine KI-Strategie entwickeln und langfristige Projekte fördern, deren Sicherheit garantiert ist.

Ich sehe KI als Herausforderung für die Menschheit wie den Klimawandel. Alle müssen sich an einen Tisch setzen. Auch der Westen und China. Eine Situation, in der eine Seite die Superintelligenz entwickelt, damit sie schneller ist als die gegnerische Partei, kann in der Apokalypse enden. Ein KI-Wettrüsten sehe ich als genauso bedrohlich an wie das atomare Wettrüsten. (map [3])


URL dieses Artikels:
https://www.heise.de/-4543977

Links in diesem Artikel:
[1] https://www.data2day.de/?source=11
[2] https://www.data2day.de/programm.php?source=11
[3] mailto:map@ix.de