Künstliche Intelligenz zwischen Hype und Dämon

Künstlicher Intelligenz werden oft übermenschliche Fähigkeiten zugeschrieben. Das provoziert Ängste und lenkt von den realen Einsatzzwecken und Gefahren ab.

In Pocket speichern vorlesen Druckansicht 27 Kommentare lesen
2 Hände halten jeweils einen Stift, der binären Code schreibt

(Bild: Andreas Martini)

Lesezeit: 5 Min.

Der Begriff Künstliche Intelligenz (KI) ist heutzutage allgegenwärtig und wird so inflationär benutzt, dass seine Definitionsgrenzen mehr und mehr verschwimmen. Smartphonehersteller werben mit KI, wenn sie Fotos der Anwender automatisch in Alben sortieren. Autohersteller werben mit KI, wenn ihr Navigationssystem den nächsten Stau umfährt. Und Start-ups werben mit KI, um Investoren anzulocken.

Da verliert man als Anwender leicht den Überblick und echauffiert sich mit Witzen, wenn eine KI mal wieder ihr Werbeversprechen nicht einlösen kann und dümmste Fehler begeht. Dabei ist die Differenz zwischen Erwartungshaltung und Realität bereits im unscharfen Begriff "Intelligenz" angelegt. Er suggeriert, dass eine Maschine schlauer sein könnte als ein Mensch. Das trifft aber nur auf ganz spezielle Anwendungsfälle zu und hängt sehr stark davon ab, mit welchen Daten eine KI trainiert wurde und welche Algorithmen überhaupt dahinterstecken.

Allerdings gibt es durchaus zahlreiche Beispiele, in denen KI die Produktivität erhöht, etwa beim Erkennen falsch eingebauter Autoteile oder Aussortieren giftiger Getreidekörner. Dieses Steigerungspotenzial ist der Grund, warum viele Unternehmen enorme Ressourcen in die Entwicklung von KI-Systemen stecken und sich einen Vorteil im internationalen Wettbewerb erhoffen. Dabei möchten sie ungern durch Gesetze gegängelt werden.

Mehr Infos

Einzelne KI-Erfolge lassen sich aber nicht verallgemeinern. Wenn Sie einen Nagel in die Wand schlagen wollen, greifen Sie zu einem Hammer. Der taugt aber wenig, um den Nagel wieder herauszuziehen. Das geht besser mit einer Zange. Und genauso muss man auch bei KI- beziehungsweise Machine-Learning-Systemen differenzieren: Mal lässt sich ein Problem am besten mit einem Deep-Learning-Ansatz lösen, mal eignet sich ein klassisches statistisches Verfahren, mal ist jede Form von KI überfordert. Kluge Entwickler betreiben KI nicht um jeden Preis, sondern mit Augenmaß.

Gesellschaft oder Betroffene können allerdings kaum durchblicken, wie genau ein als KI bezeichnetes System Daten klassifiziert, weil sich der Begriff "Künstliche Intelligenz" mittlerweile als Sammelbegriff für nahezu alle Methoden des maschinellen Lernens etabliert hat: von klassischen statistischen Methoden wie Entscheidungsbäumen bis hin zu künstlichen neuronalen Netzen beziehungsweise tiefen Faltungsnetzen (Deep Convolutional Neural Network, Deep CNN). Letztere haben Bild- und Spracherkennung erst möglich gemacht, weil sie sich komplexe Charakteristika recht eigenständig aus Trainingsdaten erschließen.

Die EU fasst den Begriff in ihrem Entwurf zum "Artificial Intelligence Act", der die Technik regulieren soll, übrigens besonders weit: Der AI Act versteht unter KI prinzipiell alle Techniken des maschinellen Lernens, statistische Verfahren sowie logik- und wissensgestützte Konzepte. Damit stiftet er ähnlich viel Verwirrung wie Unternehmen, die zu Werbezwecken jede denkbare Art von Software als KI titulieren.

Damit der Mensch mit der KI (hier der Roboter Uli im Ozeaneum Stralsund) auf Augenhöhe bleibt, muss er ihre Algorithmen und Trainingsdaten kontrollieren.

(Bild: Stefan Sauer/dpa)

Präziser ist deshalb, von klassischem Maschinenlernen oder künstlichen neuronalen Netzen zu sprechen: Sie alle gehen letztlich auf statistische Verfahren mit ähnlichen Grundprinzipien zurück. Das zeigt, wie begrenzt die bisherigen KI-Ansätze doch sind und wie sich ihre Trainingskonzepte vom Lernprozess eines Menschen unterscheiden.

Das macht KI für Unternehmen nicht weniger wertvoll, dekonstruiert aber ihre scheinbare Überlegenheit. Dies wird umso wichtiger, je mehr risikoreiche Aufgaben Wirtschaft und Staat künftig an KI-Systeme delegieren wollen, bei denen Fehler fatale Folgen haben können. Dazu braucht es einen nüchternen Blick auf die Technik und den Willen, die Prozesse vom Training bis hin zum Ergebnis nachvollziehbar zu gestalten. Sonst zahlen Menschen unangemessen hohe Versicherungsprämien oder werden bei Bewerbungen willkürlich aussortiert.

Die Betroffenen müssen stets nachvollziehen können, warum eine Entscheidung über sie gefällt wurde. Das soll künftig laut dem geplanten AI Act der EU europaweit gelten. Je nach Risikostufe dürfen in bestimmten Arbeitsbereichen nur relativ einfache Algorithmen zum Einsatz kommen oder Entscheidungen müssen von Menschen getroffen werden. Das ist eventuell weniger effizient als Automation durch tiefe neuronale Netzwerke, dafür behält der Mensch die Kontrolle.

Mehr zum Thema:

KI: Niedersachsen fördert Künstliche Intelligenz mit 350 Millionen Euro

Roboter entlasten Pflegekräfte, Algorithmen warnen vor Hochwasser, Sensoren bewachen den Stall: Niedersachsen will mit einigen Millionen KI-Projekte fördern.

Das ist wichtig, denn einer KI können leicht auch systematische Fehler unterlaufen, wenn man sie mit schlecht kuratierten Daten trainiert. Es genügen bereits kleine Bildstörungen oder Wasserzeichen in großen Trainingsdatenbanken, um eine KI auf den Holzweg zu schicken. So entstehen Fehler, die etwa bei der Beurteilung von Melanomen oder der Zielauswahl von Luftabwehrsystemen tödliche Auswirkungen haben können.

Wichtig ist, dass diese Probleme und die Lösungsansätze nicht nur von ein paar Wissenschaftlern und Informatikern verstanden werden, sondern eine breite gesellschaftliche Diskussion einsetzt. Insbesondere müssen Entscheider in den Vorständen und in der Politik die KI-Systeme einer kritischen Bewertung unterziehen sowie Vor- und Nachteile gut abwägen. Nur dann kann die Gesellschaft von den Stärken der Technik profitieren, ohne wegen ihrer Intransparenz die Kontrolle zu verlieren.

c’t – Europas größtes IT- und Tech-Magazin

Alle 14 Tage präsentiert Ihnen Deutschlands größte IT-Redaktion aktuelle Tipps, kritische Berichte, aufwendige Tests und tiefgehende Reportagen zu IT-Sicherheit & Datenschutz, Hardware, Software- und App-Entwicklungen, Smart Home und vielem mehr. Unabhängiger Journalismus ist bei c't das A und O.

(hag)