Keine "Künstliche Intelligenz": Think-Tank umschreibt "Maschinenlernen" etc.

Das renommierte Center on Privacy and Technology will fortan etwa "Maschinentrainieren" statt "Maschinenlernen" verwenden. Das sei ganz im Sinne Alan Turings.

In Pocket speichern vorlesen Druckansicht 49 Kommentare lesen

(Bild: Blue Planet Studio/Shutterstock.com)

Lesezeit: 4 Min.

Beim Versuch, "die Schäden digitaler Technologien aufzudecken und abzumildern", will ein renommierter US-amerikanischer Think-Tank fortan darauf verzichten, die englischen Begriffe für "künstliche Intelligenz", "KI" und "maschinelles Lernen" zu verwenden. Zur Begründung beruft sich die Direktorin des "Centers on Privacy and Technology" an der Georgetown-Universität auf den bedeutenden Informatiker Alan Turing und dessen Konzept des Turing-Tests. Anders als zumeist nahegelegt, sei es Turing dabei überhaupt nicht um die Frage gegangen, ob Maschinen einmal denken könnten. Genau das suggerierten die Begriffe dank erfolgreicher PR-Arbeit aber. Die Abkehr von ihnen will Emily Tucker nicht als neues Tabu verstanden wissen, sondern als "kreative Praxis für mehr intellektuelle Disziplin".

Tucker erinnert daran, dass Turing in dem Text "Computing Machinery and Intelligence" das "Imitation Game" als bloße theoretische Skizze vorgestellt hatte. Bei diesem Spiel – dem Turing-Test – sollte ein Mensch einem Computer und einem anderen Menschen Fragen stellen, ohne dass er wusste, wer davon wer war. Allein anhand der Antworten sollte er dann herausfinden, wer Mensch und wer Computer war. Turing hatte 1950 prophezeit, dass man dank der gestiegenen Rechenleistung um die Jahrtausendwende höchstens noch eine 70-prozentige Wahrscheinlichkeit haben würde, hier richtigzuliegen. Dabei sei es ihm aber gar nicht um die Frage gegangen, ob die Maschine in diesem Fall dann denken könnte, sondern ob man einen Computer einmal mit einem Menschen verwechseln könnte. Der Frage, "Können Maschinen denken?" habe Turing überhaupt keine Bedeutung beigemessen und sie sei auch kein Synonym.

Während es auch im Jahr 2022 noch keinen Hinweis darauf gebe, dass es bald einen Computer geben könnte, der zuverlässig für einen Menschen gehalten werden würde, habe sich eine andere Prophezeiung Turings leider erfüllt, meint Tucker. Es sei inzwischen verbreitet, Maschinen Tätigkeiten zuzuschreiben, die Menschen vorbehalten seien. So würden Computer "denken", "urteilen", "vorhersagen", "interpretieren", "entscheiden", "erkennen" und natürlich "lernen". Dass unsere Sprache Maschinenintelligenz damit als gegeben darstelle, habe aber keine Entsprechung in der Technik. Die Entwicklung beider Bereiche sei ganz im Gegenteil gezielt voneinander abgekoppelt worden.

Verantwortlich für diese sprachlichen Veränderungen seien die PR-Abteilungen großer Tech-Konzerne. Die würden Produkte verkaufen, deren Neuartigkeit nicht auf wissenschaftlichen Durchbrüchen beruhten, sondern auf immenser Rechenleistung, mit der gigantische Datenmengen verarbeitet werden, die dank fehlender Regulierung angesammelt werden dürfen.

Anstatt nach den Grenzen des Potenzials von Computern bei der Simulierung von Menschlichkeit zu suchen, würden die "KI"-Anbieter die Grenzen des menschlichen Potenzials auf ihre Berechenbarkeit hin verfolgen. Der Begriff "künstliche Intelligenz" helfe inzwischen vor allem dabei, zu "verwirren, zu verfremden und zu verherrlichen". Deshalb wüssten Menschen auch mehrheitlich überhaupt nicht mehr, was "KI" sein soll; viele würden sogar denken, dass "KI" klüger sei als sie.

Dass wir der Technik mit ihrer wachsenden Bedeutung für unser Leben gegenüber so unwissend seien, sei kein Unfall. In der Science-Fiction sei die "KI" oft eine Superintelligenz, die Menschen ihrer Handlungsfähigkeit beraube. Die Gefahr sei durchaus real, aber nicht, weil die Technik so gut sei, sondern weil die "Gier der Konzerne und die Perfektionierung der politischen Kontrolle erfordern, dass die Menschen das Streben nach Wissen über die Möglichkeiten ihres eigenen Verstandes aufgeben".

Turing jedenfalls habe keine Gesellschaft erträumt, in der Computer, die keinem Menschen ein Freund sein könnten, als Autorität behandelt würden. Die Frage, was es für Menschen bedeute, denken zu können, sei eine befreiende. Die bewusste Verwendung von Sprache sei ein wichtiger Teil davon. Tuckers Think-Tank will deshalb statt "Gesichtserkennung auf Basis künstlicher Intelligenz" fortan schreiben, "Tech-Unternehmen nutzen massive Datensätze, um Algorithmen beizubringen, Bilder von Gesichtern einander zuzuordnen".

Außerdem sollen mögliche Schwierigkeiten beim Einsatz der Technik sowie die Anbieter erwähnt werden. Schließlich soll deutlich gemacht werden, dass Menschen agierten. Statt "Maschinenlernen" könnte dann "Maschinentrainieren" stehen. Dabei handle es sich nicht um ein Glaubensbekenntnis oder ein neues Tabu. Die Unterscheidung zwischen dem Echten und der Nachahmung sollte im Fokus stehen.

(mho)