Wohin soll’s gehen?

Mit neuen Technologien greifen wir in die Natur ein und formen sie nach unserem Willen. Doch damit ist auch unsere Verantwortung so groß wie nie zuvor. Eine Hilfe für den moralischen Kompass.

In Pocket speichern vorlesen Druckansicht
Lesezeit: 2 Min.
Von
  • Ralf Grötker

Dieser Text-Ausschnitt ist der aktuellen Print-Ausgabe der Technology Review entnommen. Das Heft ist ab 14.9.2017 im gut sortierten Zeitschriftenhandel und im heise shop erhältlich.

Die grundsätzliche Frage, ob Menschen Schöpfer spielen sollten, ist längst beantwortet. Denn von Beginn der Menschheitsgeschichte an greifen wir in die Natur ein und formen sie nach unserem Willen. Nun geben uns neue Technologien wie das Gen-Editing oder die künstliche Intelligenz mehr Macht als je zuvor. Doch damit ist auch unsere Verantwortung so groß wie nie zuvor.

Was früher das Schicksal war, ist heute eine Entscheidung. Wir müssen sie treffen, ob zur Genveränderung unserer Kinder oder der Frage, welchen Einfluss wir einer KI geben wollen. Denn keine Entscheidung ist auch eine.

Gleichzeitig rücken die Technologien immer näher an den Menschen heran. Die Entscheidungen werden damit zunehmend persönlicher. Wir haben 12 große Fragen zusammengetragen, die auf uns warten – und nach den Antworten gesucht.

In vielen Lebensbereichen steuert künstliche Intelligenz bereits das Geschehen – zumindest zeitweise. An den Autopiloten im Flugzeug, automatisierte Kreditwürdigkeitsprüfungen und algorithmengesteuerten Aktienhandel haben wir uns gewöhnt. In der Medizin bekommt künstliche Intelligenz immer größere Bedeutung bei Diagnose und Therapie. KI-Systeme für die Leistungsbeurteilung von Studierenden und Arbeitnehmern befinden sich im Praxistest. Regulär eingesetzt wird auch Predictive Policing – vorausschauende Polizeiarbeit –, um damit Straftaten zu verhindern. Das Instrumentarium, auch aus dem Film „Minority Report“ bekannt, nutzt seit 2012 unter anderem das Santa Cruz Police Department in den USA. Noch treffen die Systeme aber keine weitreichenden Entscheidungen. Sie verschreiben keine Medikamente und fällen keine Gerichtsurteile. Viele Forscher sind jedoch überzeugt, dass dies in wenigen Jahren kommen wird. Aber wäre der Schritt auch ethisch vertretbar?

Viele Experten sind der Ansicht, dass es eine Grenze geben muss. „Entscheidungen, die mit der Ausübung von körperlicher Gewalt einhergehen, dürfen nicht an Maschinen delegiert werden“ – so lautet beispielsweise der Konsens, auf den sich das International Committee for Robot Arms Control verständigt hat.

(rot)