KI-Update Deep-Dive: Ist KI sich ihrer selbst bewusst?

Hat KI ein Bewusstsein und wie wird sowas überhaupt gemessen? Darüber spreche ich im Deep-Dive mit Wolfgang Stieler von der MIT Technology Review.

In Pocket speichern vorlesen Druckansicht 75 Kommentare lesen

Empfohlener redaktioneller Inhalt

Mit Ihrer Zustimmmung wird hier ein externer Podcast (Podigee GmbH) geladen.

Ich bin damit einverstanden, dass mir externe Inhalte angezeigt werden. Damit können personenbezogene Daten an Drittplattformen (Podigee GmbH) übermittelt werden. Mehr dazu in unserer Datenschutzerklärung.

Lesezeit: 3 Min.

Im letzten Sommer, einige Monate bevor der Welt Dank Chat GPT bewusst wurde, was mit generativer KI möglich ist, ging die Geschichte von Blake Lemoine durch die Medien. Der Google Ingenieur war sich sicher, dass Googles KI LaMDA ein Bewusstsein entwickelt hatte.

Damals war es relativ einfach, das ganze abzutun – damals, bevor jeder von uns anfing, mit KI zu sprechen. Nun hat ein interdisziplinäres Forschungsteam eine Liste von Eigenschaften aufgestellt, die auf Bewusstsein deuten, und aktuelle KI-Systeme darauf abgeklopft. Mein heutiger Gast, Wolfgang Stieler von der MIT Technology Review, hat sich das Paper genauer angeschaut.

Empfohlener redaktioneller Inhalt

Mit Ihrer Zustimmmung wird hier ein externer Podcast (Podigee GmbH) geladen.

Ich bin damit einverstanden, dass mir externe Inhalte angezeigt werden. Damit können personenbezogene Daten an Drittplattformen (Podigee GmbH) übermittelt werden. Mehr dazu in unserer Datenschutzerklärung.

Zunächst die schlechte Nachricht, es gibt keine klare Definition von Bewusstsein, nur verschiedene, teils sehr philosophische, Theorien. "Das Forschungsteam hat sich also verschiedene Theorien angeschaut und daraus bestimmte Merkmale für Bewusstsein festgelegt. Dann haben sie die gängigen KI-Modelle wie GPT-3, Palm-E oder AdA von DeepMind durchgetestet, ob sie diese Merkmale aufweisen, die ein bewusstes System nach dieser oder jener Theorie haben müsste", erklärt Stieler. Dabei kam heraus, dass die Modelle nach allen Theorien einige Voraussetzungen erfüllen, aber eben nicht alle.

"Du kannst jetzt nicht sagen, zum Beispiel nach der Global Workspace Theorie ist GPT-3 ein bewusstes System, sondern es hat einzelne Anzeichen nach dieser Theorie, aber eben nicht alle notwendigen Anzeichen", betont mein TR-Kollege. "Nach Auffassung der Autoren zeigt das ganz klar, dass wir Software kreieren können, die sowas wie ein Bewusstsein hat – nach Theorie xy."

Ganz überraschend ist diese These nicht. Der Hauptautor der Studie, der Philosoph Patrick Butlin, ist Fellow am "Future of Humanity Institute" in Oxford, das seit Jahren zu "existenziellen Gefahren" für die Menschheit forscht. Er hat unter anderem einen offenen Brief initiiert, in dem führende Silicon-Valley-Größen einen sechsmonatigen Entwicklungsstopp für große Sprachmodelle forderten, weil KI-Systeme mit "menschenähnlichen Fähigkeiten ein großes Risiko für die Gesellschaft und die Menschheit" darstellten. Die Aussicht auf eine bewusste KI passt da ganz gut ins Programm.

Stieler erklärt aber auch, dass es schon immer das Ziel gegeben hat, Systeme zu bauen, die menschliche Denkvorgänge nachahmen. "Es hat immer KI-Forscher gegeben, die gesagt haben, ich möchte wissen, wie das funktioniert, wie Intelligenz funktioniert, wie das menschliche Gehirn funktioniert und damit ich das verstehen kann, muss ich in der Lage sein, es tatsächlich nachzubauen." Ob die großen Sprachmodelle nun nach Anzeichen von Bewusstsein auch tatsächlich einen Funken echter Intelligenz zeigen, das ist auch in der Wissenschaft noch nicht entschieden.

(igr)