Missing Link: Künstliche Intelligenz – der weite Weg zur Kunst aus der Maschine

Der KI-Hype ist ungebrochen. Auch in der Kunst finden lernende Algorithmen zunehmend Anwendung. Kulturschaffende müssen aber noch nicht um ihre Jobs bangen.

In Pocket speichern vorlesen Druckansicht 77 Kommentare lesen
Missing Link: KI – Der weite Weg zur Kunst aus der Maschine

(Bild: Lerner Vadim/Shutterstock.com)

Lesezeit: 15 Min.
Von
  • Pit Noack
Inhaltsverzeichnis

In der Kurzgeschichte "Trurls Elektrobarde" erzählt Stanisław Lem vom Abenteuer des Konstrukteurs Trurl, der eine Maschine bauen möchte, "die in der Lage sein solle, makellose Lyrik zu schreiben". Das Vorhaben erweist sich als äußerst knifflig, denn "das Programm, das ein durchschnittlicher Dichter im Kopf hat, wurde durch die Zivilisation geschaffen, in der er auf die Welt kam."

Daraus ergibt sich letztlich die Notwendigkeit, diese Entwicklung zurückzuverfolgen "bis zum Vorabend der Schöpfung, als die Bits ... noch völlig ungeordnet im primordialen Chaos ... herumschwirrten". Trurls Maschine muss, um dichten zu können, einen Gutteil der Geschichte des Universums simulieren.

"Missing Link"

Was fehlt: In der rapiden Technikwelt häufig die Zeit, die vielen News und Hintergründe neu zu sortieren. Am Wochenende wollen wir sie uns nehmen, die Seitenwege abseits des Aktuellen verfolgen, andere Blickwinkel probieren und Zwischentöne hörbar machen.

Nach erheblichen Anstrengungen setzt Trurl die zischende und fauchende Maschine ins Werk, die mit ihren Röhren, Drosselventilen und genieteten Blechen schon 1965 retrofuturistisch anmutet. Der Elektrobarde kann auf Zuruf Gedichte zu jedem beliebigen Thema verfassen und jeden Stil bis zu "dreihundertsiebenundvierzig mal besser" imitieren. Das sorgt für Unmut bei Poeten aus Fleisch und Blut, überdies entwickelt der Elektrobarde einen freien Willen, wird aufmüpfig und beschert seinem Konstrukteur horrende Stromrechnungen.

Schließlich verbannt Trurl sein Geschöpf auf einen entfernten Asteroiden. Fortan sendet die Maschine, angetrieben von einem Atommeiler, ihre Meisterwerke "auf allen Wellenlängen über den Äther" und versetzt Raumschiffbesatzungen in "lyrische Zustände völliger Apathie" oder gar "ästhetische Ekstasen".

Wird ein Computer jemals imstande sein, Texte zu verfassen, die derart witzig, anspielungsreich und sprachlich brillant sind wie Lems Geschichte vom Elektrobarden? Werden die Werke von Computern irgendwann für uns Menschen so unabschließbar bedeutsam sein wie jene von Franz Kafka, Kurt Schwitters oder Bela Bartók? Könnten Maschinen eines Tages Illustratoren, Komponistinnen und andere schöpferische Menschen ersetzen?

Populäre Darstellungen aktueller Fortschritte im Bereich des maschinellen Lernens werden nicht müde, diese Fragen aufzuwerfen. Im Folgenden möchten wir zeigen, dass sie – in dieser naiven Form gestellt – Faszination und Möglichkeiten maschinell generierter Kunst weit verfehlen. Ähnliche Befürchtungen um den künftigen Broterwerb von Kunstmalern gab es schon mit dem Aufkommen der Fotografie. Die Rückschau macht deutlich, wie wenig solche Überlegungen dem tatsächlichen Medienumbruch gerecht wurden, den die Erfindung der Fotografie ausgelöst hat.

Die "Landschaft der menschlichen Kompetenz" nach Hans Moravec aus dem Buch Life 3.0 von Max Tegmark. Unter dem steigenden Wasserspiegel liegen jene Aufgaben, die Maschinen bereits gut erledigen können.

(Bild: Max Tegmark)

Es ist kein Zufall, dass das altgriechische Wort téchne zugleich für Handwerk, Kunst und Technik steht. Denn schon immer waren technischer Fortschritt und ästhetische Produktion untrennbar miteinander verwoben. Schon die Anfertigung eines Ölgemäldes auf Leinwand ist technologisch kaum überschaubar voraussetzungsreich: Unter anderem ist der landwirtschaftliche Anbau von Flachs, sind Webstühle und Ölpressen erforderlich. Noch offensichtlicher ist der enge Zusammenhang zwischen Kunst und Technik in der Film- und der Computerspiele-Industrie.

Kunst ist mehr als bloße Anwendung von Technik, das Verhältnis ist vielmehr zirkulärer Natur. Die Geschichte ist reich an Beispielen für die Rückwirkungen künstlerischen Schaffens auf Wissenschaft und Technik. Um es in einem Satz zu sagen: Raketeningenieure haben Science-Fiction gelesen.

Die Verwendung technischer Mittel jenseits des ursprünglich intendierten Zweckes ist eine reiche Quelle künstlerischer und technischer Innovation. Besonders augenfällig ist das im Bereich der Musik. So wurde die E-Gitarre eigentlich erfunden, um höhere Lautstärken zu erzielen. Die Verzerrung war anfänglich nur das unbeabsichtigte Resultat vermeintlich fehlerhafter Bedienung von Röhrentechnik – und hat letztendlich die Rockmusik hervorgebracht.

Die ersten kommerziellen Sampler und Synthesizer wurden vielfach als variables Werkzeug zur Imitation von Orgeln, Schlagzeugen oder Klavieren beworben. Wozu aber etwas imitieren, was es schon gibt? Künstlerische Eigenständigkeit erlangten Sampler und Synthesizer durch die Entwicklung ganz eigener Klangwelten und Musikrichtungen. Auch die legendären Drumcomputer und Basssynthesizer der Firma Roland sollten eigentlich Schlagzeuger und Bassisten ersetzen. Das unkalkulierte Ergebnis waren Musikrichtungen wie Acid-House, Techno und Hip Hop.

Ähnliches ist auch vom maschinellen Lernen und anderen algorithmischen Techniken zu erwarten. Wer KI lediglich als Werkzeug zur Simulation menschlicher Leistungen versteht, der verkennt das eigentliche Potential solcher Techniken in der künstlerischen Produktion.

Der Physik-Nobelpreisträger Richard P. Feynman hat gesagt: "Was ich nicht bauen kann, kann ich nicht verstehen". Wenn wir regelbasierte Systeme entwerfen, die Kunst hervorbringen, dann folgen wir diesem Impuls. Der Gedanke, mit dem Denken und der Kunst etwas genuin menschliches in Formeln und Algorithmen zu externalisieren – und somit nachzubauen und letztlich für eine maschinelle Verarbeitung verfügbar zu machen – findet sich bereits in Antike und Mittelalter.

Schon Aristoteles, Euklid und al-Chwarizmis beschrieben Regelsysteme, die mittels bloßer Manipulation mathematischer und logischer Symbole wahre Aussagen erzeugen konnten. Der mittelalterliche Philosoph Raimundus Lullus (1232-1316) entwarf mit seiner "Ars generalis ultima" eine Art logischen Mechanismus, mittels dessen man Erkenntnisse zu philosophischen und theologischen Fragen erlangen sollte.

Ramon Llulls Denkmaschine "Ars generalis ultima"

Der Ertrag von Lullus' Bemühungen und vergleichbaren Projekten blieb zwar weit hinter den hohen Erwartungen zurück. Auf breiter Front durchgesetzt hat sich allerdings die Auffassung einer mathematischen Physik, die alle Vorgänge im Universum als grundsätzlich regelhaft und somit berechenbar betrachtet. Und da der schöpferische Mensch Teil dieses berechenbaren Ganzen ist, müssten – so die heute weit verbreitete Annahme – auch schöpferische Prozesse, zumindest im Prinzip, Gegenstand von Modellen und Simulationen sein können.

Frühe Bemühungen um die Algorithmisierung von Kunst sind vor allem musikalischer Natur, denn Harmonien und Zeitintervalle sind offenkundig zahlenmäßige Verhältnisse und folglich berechenbar. Ein konkretes Beispiel für algorithmische Kompositionsregeln lieferte 1650 Athanasius Kircher: Er beschrieb ein kombinatorisches Verfahren, das musikalische Laien zur Komposition befähigte. Die Anzahl der in seiner Erfindung potentiell verborgenen Werke geht in die Millionen und macht die Notwendigkeit einer Auswahl deutlich – ein nach wie vor aktuelles Problem generativer Kunst.

Athanasius Kirchers Arca Musarithmica von 1650 sollte Laien zum Komponieren befähigen.

Als die erste Programmiererin, Ada Lovelace, 1842 die Idee eines schöpferischen Computers formulierte, dachte auch sie zunächst an Musik: Die von Charles Babbage entworfene Analytical Engine könne "mit ganz anderen Dingen als Zahlen arbeiten" und "ausgefeilte und wissenschaftlich fundierte Musikstücke jedweder Komplexität und Länge komponieren."

Als in der Nachkriegszeit real existierende Rechenanlagen erstmals auch für nicht-militärische Zwecke zur Verfügung standen, traten wenig später musikalische Anwendungen auf den Plan. Lejaren Hiller und Leonard Issacson präsentierten in den späten 1950er Jahren mit der Illiac Suite das erste von einem Computer komponierte Streichquartett.

Konkrete Umsetzungen einer algorithmisch generierten Dichtung lieferten die französischen Autoren Raymond Queneau und Georges Perec. Queneau veröffentlichte 1961 seine Konstruktionsanleitung für "Cent mille milliards de poèmes" (Hunderttausend Milliarden Gedichte). Perecs experimentelles Hörspiel "die Maschine" von 1968 simuliert die Analyse und permutative Resynthese von Goethes "Wanderers Nachtlied" durch ein Computerprogramm.

In der frühen algorithmischen Kunst herrschten kombinatorische und pseudozufällige Methoden vor, die nur wenig mit dem zu tun haben, was wir heute unter KI verstehen. Zudem standen Top-Down Verfahren im Vordergrund, etwa die Formalisierung von Eigenschaften musikalischer und sprachlicher Strukturen zur anschließenden Verwendung in Produktionsregeln. Solche Vorgehensweisen sind eher der symbolischen KI zuzuordnen.

Die Verwendung von Algorithmen und Software zur Produktion von Kunst, Musik und Literatur wurde – oft jenseits einer breiteren öffentlichen Wahrnehmung – kontinuierlich weiter verfolgt. Der Kunsthistoriker Thomas Dreher hat mit seiner "Geschichte der Computerkunst" eine profunde Übersicht mit einem Schwerpunkt auf Bildender Kunst geliefert. Einen Überblick über Praktiken und Verfahren der algorithmischen Komposition gibt der Medienwissenschaftler Stefan Lattner. Eine Genealogie der algorithmischen Literatur findet sich auf der Webseite des ZKM in Karlsruhe.

Parallel zu einer an Symbolen orientierten KI verfolgen statistische Verfahren einen anderen Ansatz. Hier bestimmen nicht handgeschriebene Algorithmen, sondern die zum Lernen verwendeten Datensätze das Ergebnis. Was das Programm produziert, ist somit nicht mehr etwas dem Algorithmus Immanentes, sondern etwas Äußerliches, in den Trainingsdaten, beziehungsweise in den Bewertungsverfahren der Trainingssituation (Loss-Funktion) enthaltenes.

Ein entscheidender Durchbruch im Bereich lernfähiger Algorithmen wurde 1982 erzielt: Mit dem Backpropagation-Algorithmus stand endlich ein Verfahren zur Verfügung, mehrschichtige Neuronale Netze zu trainieren. Ein experimenteller Nachweis gelang Geoff Hinton 1986.

Ein künstliches neuronales Netz, so die Mathematikerin Hannah Fry in ihrem Buch "Hello World", kann man sich "als eine riesige mathematische Struktur vorstellen, mit jeder Menge Schaltern und Reglern. Man speist ein Bild an einem Ende ein, es fließt durch eine Struktur, und am anderen Ende kommt eine Vermutung heraus, was dieses Bild enthält. Eine Wahrscheinlichkeit für jede Kategorie: Hund oder nicht Hund."

Ein neuronales Netz erkennt ein Pluszeichen in einem Feld mit 3x3 Pixeln. Der Helligkeitswert jedes Pixels ist einem Neuron in der Eingabeschicht zugeordnet. Jedes Neuron der Ausgabeschicht ist einem Zeichen zugeordnet. Wenn das zum Pluszeichen gehörende Neuron der Ausgabeschicht den höchsten Wert hat, dann interpretiert das Netz die Eingabe als "plusartig".

Damit ein neuronales Netz diese Arbeit tun kann, ist ein Training notwendig. Das ist, grob gesagt, die Justierung der von Fry beschriebenen Regler, die fachsprachlich "Gewichte" heißen. Die geläufigste Spielart ist das überwachte Lernen. Dabei wird das untrainierte Netz mit konkreten Beispielen konfrontiert, etwa handgeschriebenen Buchstaben. Der Vergleich der vom Netz berechneten Ausgaben mit den bekannten korrekten Ergebnissen liefert ein Maß, wie stark das Netz bei jedem Beispiel falsch liegt. Aus diesem Maß berechnet die Ableitung der Fehlerfunktion (Backpropagation), welche Änderungen an den Gewichten nötig sind, damit das Netz ein bisschen weniger Fehler macht. Mit vielen kleinen Schritten dieser Art lernt es künftig auch Buchstaben zu entziffern, die es noch nie gesehen hat.

Für die KI-Kunst folgenreiche Durchbrüche erzielten um 2015 Pioniere wie Alexander Mordvintsev, Ian Goodfellow und Leon Gatys. Die zündende Idee bestand kurz gesagt darin, neuronale Netze "auf links zu drehen": Bis dahin wurden diese Netze vornehmlich zur Klassifikation von gegebenen Daten genutzt. Gatys und seinen Kollegen gelang es erstmals, Netze zu programmieren, die, sozusagen im Rückwärtsgang, Daten hervorbringen können, welche die zuvor antrainierten Klassifikationen bedienen.

Ein wirkmächtige Spielart von derart umgekrempelten Netzen sind die Generative Adversial Networks (GAN), 2014 vorgestellt von Ian Goodfellow. GANs kombinieren zwei miteinander konkurrierende neuronale Netzwerke, den Generator und den Diskriminator.

Der Diskriminator arbeitet nach Art eines zur Bilderkennung trainierten Netzwerkes. Er könnte anhand tausender Abbildungen darauf trainiert worden sein, zwischen Bildern zu unterscheiden, die Kaffeetassen enthalten, und solchen, die das nicht tun.

Der Generator produziert zunächst aus einer zufälligen Anfangskonfiguration heraus Rauschen. Der Diskriminator bewertet die Ausgaben des Generators und meldet diese Bewertungen als Fehlermaß an den Generator zurück. Durch schrittweise Feinjustierung seiner Gewichte abhängig von diesen Rückmeldungen produziert der Generator mit der Zeit Ausgaben, die den Anforderungen des Diskriminators immer mehr genügen. Im Ergebnis liefert der Generator nie gesehene Bilder, die eindeutig "kaffeetassenartig" sind. Mathematisch gesehen lernt ein GAN also Bilder zu produzieren, die ähnliche statistische Eigenschaften haben wie die im Training verwendeten Bilder.

Ausgehend von Goodfellows Arbeiten entwickelten Andrew Brook und Kollegen bei Google das BigGAN. Das fertig trainierte BigGAN produziert Bilder abhängig von 1128 Eingabeparametern. 1000 Parameter drücken die Zugehörigkeit zu ImageNet-Klassen aus: Kaffeetassen, Telefone, E-Gitarren, Armbanduhren, Fahrräder und so fort.

Das BigGAN kann man sich wie ein Bildmischpult mit 1000 Reglern vorstellen, welche etwa die "Kaffeetassen-" oder "Telefonartigkeit" des ausgegebenen Bildes steuern. 128 weitere Regler bestimmen Eigenschaften wie Farbe, Position und Orientierung. Googles BigGAN ist letztlich ein 1128-dimensionaler Raum, der Bilder erzeugt. Jeder Punkt in diesem Raum repräsentiert ein konkretes und reproduzierbares Bild.

Artbreeder (8 Bilder)

Die Webseite Artbreeder lädt zur Erforschung des 1128-dimensionalen Raum des BigGAN ein.

Die Webseite Artbreeder lädt zu Explorationen solch vieldimensionaler Bildräume ein. Die visuellen Phantasien des Artbreeders müssen einen Vergleich mit herausragenden Positionen zeitgenössischer Malerei und Skulptur nicht scheuen. Sie bringt einen unerschöpflichen Strom oft bedrohlich anmutender Bildwelten hervor. Neben einer deutlichen Tendenz zum Kitsch scheint es in der aktuellen algorithmischen Kunst auch einen Hang zum Morbiden zu geben. Der manifestiert sich auch in der von CJ Carr und Zack Zukowski programmierten KI Dadabots, die rund um die Uhr improvisierten Deathgrind produziert.

Angesichts der zuletzt geschilderten Innovationen fällt es schwer, klar zu unterscheiden zwischen Ingenieuren, die Algorithmen entwickeln, und Künstlern, die diese einsetzen. Beide verbindet die in hohem Maße experimentelle Suche nach einem befriedigenden Ergebnis, was immer das sein mag. Die Entwicklung von Algorithmen wie dem BigGAN dürfen als künstlerische Leistung angesehen werden.

Andererseits zeigen Künstler wie Mario Klingemann in ihren Arbeiten erst das volle Potential dieser Technik auf und geben Impulse an die technische Entwicklung zurück. Daten und Algorithmen sind für Klingemann gleichermaßen Werkzeug und Material: Wie in einem Labor fügt er BigGAN-, Style Transfer- oder Pix2Pix-Netze und Datenvorkommen ganz unterschiedlicher Herkunft in immer neuen Kombinationen zusammen.

Gelungenen künstlerischen Arbeiten wie jenen von Mario Klingemann, Johanna Reich, Theresa Reimann-Dubbers oder Jake Elwes geht es überhaupt nicht darum, Leistungen menschlicher Akteure zu ersetzen. Solch ein Vorhaben wäre nach heutigem Stand der Technik ohnehin vergeblich.

Aktuell verfügbare KI ist auf klar definierte und quantifizierbare Ziele angewiesen, etwa die Klassifikation von Daten, die Berechnung von Wahrscheinlichkeiten oder das Spielen von Schach, Breakout oder Go. Künstlerische Produktion ist jedoch von einer sehr viel komplexeren Gemengelage von Zielen geleitet. Die fortwährende Setzung, Variation und Ausdifferenzierung von Zielen ist Teil des künstlerischen Prozesses und lässt sich bis auf weiteres nicht simulieren. Übergeordnete Algorithmen zur Findung und Modifikation solcher Ziele (wie etwa Googles AutoML) reichen dieses Problem lediglich auf eine höhere Ebene weiter.

Die Begrenztheit aktueller KI-Systeme brachte Gary Marcus unlängst in Lex Friedmans AI Podcast im Hinblick auf das AlphaGo-Programm auf den Punkt: "Wir haben ein System, das Go spielen kann und in fünf Millionen Partien trainiert wurde. Wenn ich nun frage: 'Kann das System auch auf einem rechteckigen statt einem quadratischen Brett spielen?' lautet die Antwort: 'Nun, wenn wir es von Grund auf, mit weiteren fünf Millionen Partien darauf trainieren, dann ja.' – Das ist wirklich ein schmaler Bereich, und dort befinden wir uns gerade."

Wo eine weniger eng geführte "artificial general intelligence" (AGI) herkommen soll, ist unklar – zwar verfolgen Forscher wie Demis Hassabis oder David Ferruci vielversprechende Ansätze und liefern faszinierende Zwischenergebnisse. Ob sie auf diesem Wege das Ziel einer AGI erreichen oder nicht, kann nur vermutet werden. Um es mit dem Bild von Max Tegmark zu sagen: Wir wissen nicht, ob der Wasserspiegel eines Tages die Landschaft der menschlichen Kompetenzen vollständig überdecken wird. Wo es konkret hakt, hat Pina Merkert in der c't zusammengefasst.

Wir können von Kunst ganz unterschiedliche Dinge erwarten, etwa Überraschung, Unterhaltung und Anregung zur Reflexion über unsere Existenz. Unsere Erwartungen an Maschinen sind ähnlich vielgestaltig und veränderlich. Kunst und Technik bedingen, formen und überschneiden einander. Und algorithmische Kunst vermag das Existieren von Maschinen und Menschen in einer medientechnisch verfassten Welt zu reflektieren. Damit das für Menschen gelingt, bedarf die technische Seite oft umständlicher Erklärung – das ist letztlich ein ungelöstes kuratorisches Problem.

Mehr Infos

Der Philosoph und Technikhistoriker Arthur I. Miller hat kürzlich mit dem Buch "The Artist in the Machine" eine profunde Bestandsaufnahme aktueller KI-Anwendungen in Bildender Kunst, Literatur und Musik vorgelegt. Die Webseite zum Buch stellt viele Beispiele in Text, Bild und Ton vor.

Die Stiftung Niedersachsen befasst sich in dem auf drei Jahre angelegten Förderprogramm LINK mit den Schnittmengen zwischen Kultur und KI. Die zum Auftakt dieses Programms veranstaltete Tagung hat den Anstoß zu diesem Artikel gegeben. Ein deutschsprachiger Blog beleuchtet das Thema aus vielen Perspektiven.

Ebenfalls kürzlich erschienen ist der Interviewband "Die Intelligenz der Maschinen" von Martin Ford. Der Wissenschaftsjournalist hat mit 23 "Koryphäen der KI" gesprochen. Ein Schwerpunkt der Interviews ist die offen Frage nach einer "artificial general intelligence".

(mho)