Hacking Humanity: "Nur Maschinen können Maschinen regulieren"

Ramzi Rizk, Mitgründer der Foto-Plattform EyeEm, hält technische Entwicklungen wie Künstliche Intelligenz für so komplex, dass der Mensch ihnen kein enges Regelkorsett vorschreiben sollte. Die letzte Verantwortung liege trotzdem bei den Programmierern.

In Pocket speichern vorlesen Druckansicht 77 Kommentare lesen
Auge, Künstliche Intelligenz, KI

(Bild: Orlando, gemeinfrei (Creative Commons CC0))

Lesezeit: 5 Min.
Inhaltsverzeichnis

Der Anhörungsmarathon von Facebook-Chef Mark Zuckerberg im US-Kongress nach dem jüngsten Datenskandal mit Cambridge Analytica hat Ramzi Rizk den Rest gegeben: "Er hat sich über die Volksvertreter lustig gemacht", konstatierte der Mitgründer des Berliner Startups EyeEm am Montag bei einer Debatte zu "Hacking Humanity" im Telefónica-Basecamp in der Hauptstadt. Bei dem Cheftechniker der Foto-Plattform hat sich zugleich der Eindruck bestätigt, dass die Politik keine Antwort habe auf technische Herausforderungen wie Big Data oder Künstliche Intelligenz (KI): "Die muss erst mal viel einfachere Probleme lösen."

Dass eine Kaste hauptsächlich weißer Männer in Anzügen den technologischen Kurs bestimmen sollte, wollte oder könnte, ist für Rizk generell keine taugliche Option: Diese Leute wüssten viel zu wenig, um weitreichende, in der Regel datengetriebene Entwicklungen in gewisse Bahnen zu lenken. Generell sieht er die Menschheit nicht mehr wirklich imstande, KI und Roboter aufgrund deren hoher Komplexität an die kurze Leine zu nehmen. "Nur Maschinen können Maschinen regulieren", glaubt der Programmierer. Die letzte Verantwortung bleibe dabei aber im Kern doch "bei den Leuten, die die Technik bauen".

Eine leichte Aufgabe sei dies nicht, führte Rizk aus: "Wir verstehen die inneren Abläufe der Maschinen, die wir bauen, nicht mehr vollständig." Die bei EyeEm eingesetzte KI, die mithilft, den "ästhetischen Wert" eines in der Community meist per Smartphone aufgenommenen Fotos und damit auch seine Verkaufsmöglichkeiten zu bewerten, "übernimmt zwar nicht die Weltherrschaft". Trotzdem wüssten die Entwickler nur, was in den entsprechenden Algorithmus einfließe und mit welchen Daten dieser trainiert werde. Man könne zwar einige Parameter wie Grenzwerte einbauen und die Ergebnisse statistisch überprüfen, aber von einer echten Kontrolle des Einschätzungsvorgangs sei keine Rede.

Das Podium diskutierte kontrovers: Dan Taylor, Rachel Sibley, Ramzi Rizk und Björn Lengers (v. l. n. r.)

(Bild: Stefan Krempl)

Vom Ansatz, technische Konstrukte wie selbstfahrende Autos von A bis Z durchregulieren zu wollen, hält der passionierte Fotograf daher nichts. Zählen müsse im Endeffekt, dass viel weniger Leute auf den Straßen stürben, wenn die KI statt dem Menschen fahren würde. Allgemein sei es so, dass "wir die kurzfristigen Auswirkungen" von Techniken unterschätzen, die langfristigen dagegen für zu wichtig hielten. Bei Künstlicher Intelligenz drehe sich die Debatte so zu sehr um ein drohendes "Skynet" und "Terminator", während die Effekte etwa auf den Arbeitsmarkt trotz aller einschlägigen Studien oft unterbelichtet blieben. Dabei gäbe es vermutlich etwa weniger Populismus und Wählerbewegungen nach rechts, wenn weniger Jobs automatisiert und damit "unmenschlich" gehandelt würde. Arbeit sei nach wie vor ein kulturelles Konstrukt, das mit Lebensqualität assoziiert werde.

Rachel Sibley, Zukunftsforscherin an der Singularity University im Silicon Valley, kamen angesichts der Beschreibung von KI als Blackbox ethische Bedenken. Diese reichten von der Problematik der Auswahl der Datensets für das Training von Algorithmen bis zur Frage, wie "digitale Rechte" mit eingebaut werden könnten. Software wie EyeEm erzeuge einen gefilterten "Blasenblick" auf die Welt, da man damit "nur noch Fotos sieht, die man mag". Prinzipiell sei jede Perspektive auf die Realität eine "Datenkonstruktion", was die eigene Selbstwahrnehmung nicht immer als stabil erscheinen lasse.

Rizk entgegnete, dass die KI in dem Programm ein Bild anhand von Millionen Datenpunkten viel rascher und einfacher einschätzen könne als ein menschlicher Betrachter. So schafften es viel mehr Aufnahmen durch den Filter als etwa bei einer Auswahl durch die Kunst-, Galerie- und Museumszene. Millionen auch unbekannter Fotografen erhielten die Chance, dass ihre Werke begutachtet und einem größeren Publikum bekannt gemacht würden.

"Die Gesellschaft ist verantwortlich für die Maschinen, sie muss sie kontrollieren", bezog Björn Lengers, Mitgründer des "Virtual Reality"-Theaters CyberRäuber einen ganz anderen Standpunkt als Rizk. "Ich glaube nicht, dass sich da was selbst reguliert." Dass sich Zuckerberg eine Krawatte habe umbinden und im US-Parlament habe aussagen müssen, wertete der Bühnenentwickler als Mut machendes Zeichen, um einen leichteren Zugang zur Technologie zu fordern. Das Theater selbst beschrieb er als "sehr menschliche Kunstform", da es stark auf den Einsatz von Körper und Stimme als Schnittstellen etwa auch für die Interaktion mit der Technik ankomme.

Selbst das von Sibley propagierte ethische Konstrukt von KI mache ihm Angst, berichtete der Fotograf Dan Taylor, der unter anderem bereits mit dem Apple-Mitgründer Steve Wozniak zusammengearbeitet hat. Dass Maschinen lernten und im Justizsystem ganze gesellschaftliche Gruppen wie Schwarze als Risikogruppen einstuften, werfe die dringende Frage auf, wer solche Verfahren überwache. Schleierhaft sei ihm, ob KI geradezu menschlich weil voreingenommen sei, wenn Menschsein bedeute, Vorurteile zu haben. Nötig seien nach der Facebook-Affäre aber wohl einige weitere "katalytische Ereignisse, damit die Leute sich zur Wehr setzen". (olb)