Rise of AI: Welche Rolle spielt Deutschland künftig bei KI und Quantencomputing?

Zum achten Mal fand in Berlin die Rise of AI statt: Es ging um Quantencomputing, Nachhaltigkeit, AI Act und die Frage, ob Deutschland führend sein kann bei KI.

In Pocket speichern vorlesen Druckansicht 21 Kommentare lesen

Dr. Feiyu Xu (SAP Global Head of AI) vor dem Logo der Rise of AI 2023

(Bild: Thomas Tiefseetaucher · Berlin)

Lesezeit: 18 Min.
Von
  • Silke Hahn
Inhaltsverzeichnis

(This article also exists in English.)


Kurz vor der Abstimmung zu den Änderungen am geplanten AI Act fand die Rise of AI statt: 230 Gäste vor Ort in Berlin und rund 1300 remote zugeschaltete Teilnehmer kamen bei der hybriden Konferenz zusammen, um sich über den Stand der KI-Forschung in Deutschland sowie Herausforderungen und Chancen für die hiesige Wirtschaft, Gesellschaft, Technik, Umwelt, Kunst und Politik durch KI auszutauschen.

Heise war diesmal aus der Ferne zugeschaltet und hat im Nachgang bei einigen Teilnehmerinnen und Teilnehmern nachgehorcht, wie sie die Rolle der KI in Deutschland einschätzen und was sie in der aktuellen KI-Diskussion bewegt. Ein Teil der Antworten fließt als Momentaufnahme in diesen Bericht ein. Wer das Event live verpasst hat, findet jetzt die Aufzeichnung der Vorträge bei YouTube.

Prof. Dr. Jürgen Schmidhuber bei der Rise of AI Conference

(Bild: Thomas Tiefseetaucher)

Die Konferenz bot erneut einen kompakten Einblick in die deutsche KI-Landschaft und wartete mit einem beeindruckenden Line-up an Speakern auf. Mit Jürgen Schmidhuber war einer der Begründer moderner KI-Forschung vor Ort und ordnete die neueste KI-Entwicklung ein. Die Chefin der KI-Forschung bei SAP Feiyu Xu zeigte Einsatzmöglichkeiten in der Industrie, die Unternehmerin und Computerlinguistin Tina Klüwer (Sachverständige in der Enquête-Kommission des Bundestags zu KI) diskutierte über den Aufbau von KI-Ökosystemen. Hans Uszkoreit vom DFKI führte in Foundation Models ein, die Physikerin und ehemalige Technik-Vorständin der Deutschen Bahn Sabina Jeschke brachte dem Publikum Quantencomputing näher und der Digitalpolitiker Kai Zenner (Digital Policy Advisor im EU-Parlament) aus Brüssel diskutierte über Regulierung, um einige Schlaglichter zu nennen.

Weitere Talks drehten sich um KI-Sicherheit, KI im Militärkontext, psychologisches Risiko- und Angstmanagement, Cybersicherheit, Nachhaltigkeit durch und von KI, Responsible AI, Vertrauenswürdigkeit, Technische Souveränität, Robotik und Embodiment-Forschung sowie den Einfluss von KI auf die Kreativität und die künftigen Mensch-Maschine-Beziehungen, thematisiert etwa durch die Technik-Ethikerin Joanna Bryson.

Der Europaparlamentarier Zenner nahm an einer Paneldiskussion teil, bei der es um Innovation und den AI Act ging: "Can Germany be a Technology Leader in AI?" – ob Deutschland eine führende Rolle in KI und Technologie einnehmen könne, war die Leitfrage. Zenner leitet das Büro des Europaabgeordneten Axel Voss, das stark in die Änderungsanträge am AI Act involviert ist. Zum Entwurf der KI-Verordnung bezog er klar Stellung: "Der Ausgangspunkt der Kommission ist falsch. Horizontale Rahmenbedingungen zu erstellen und auf sämtliche Bereiche und Fälle anzuwenden, das kann einfach nicht funktionieren."

Diskussionspanel: "Can Germany be a Technology Leader in AI?"

(Bild: Screenshot)

So sei KI zu einem Schlagwort geworden, das undifferenziert alle Expertensysteme umfasse, die es bereits seit 70 Jahren gebe, moderne Basismodelle und Deep-Learning-Systeme. Wie es europäischen Unternehmen gelingen solle, mit dem AI Act konform zu agieren, sei unklar – Start-ups würden mit der Umsetzungslast allein gelassen und überfordert, vielmehr hätte der Regulator Gründer und kleine Unternehmen gar nicht mitbedacht in dem Entwurf, der generative KI pauschal in die höchste Risikoklasse einstufte. Zenner zufolge kämpfen er und sein Chef Axel Voss in Brüssel für ein Gleichgewicht zwischen Risikofokus und Technologieoffenheit (am Tag nach der Rise of AI wurden in Brüssel Änderungsanträge zum Draft angenommen). Momentan herrsche im EU-Parlament Angst und eine geradezu technikfeindliche Stimmung, woran eine Menge Gefühle und Ideologien beteiligt seien. Zenner vermisst in der aktuellen Diskussion den Blick dafür, wie KI unser Leben verbessern könne.

In eine ähnliche Kerbe schlug Jörg Bienert, Präsident des KI-Bundesverbands, in der Diskussionsrunde. Täglich häuften sich die Neuigkeiten über Fortschritte, teils bahnbrechend. Von dem Tempo werde ihm manchmal schwindelig, und es sei nicht einfach, bei der Menge an Neuem auf dem Laufenden zu bleiben. Sein Hauptanliegen sei technologische Souveränität: Deutschland habe gute Voraussetzungen für eine führende Position in der KI-Entwicklung. Exzellente Wissenschaftler (das wurde im Laufe der Konferenz mehrfach deutlich), viele Daten sowie erfolgreiche Start-ups und Projekte – als Beispiele nannte er Stable Diffusion und Aleph Alpha, dessen Mitgründer im Panel saß. Um mithalten zu können, müsse Deutschland KI allerdings größer denken. Es brauche Investitionen in die Hardware und Infrastruktur zum Trainieren großer Modelle und ein kooperatives Netzwerk, in dem alle Beteiligten zusammenarbeiten.

Ähnlich wie Zenner betonte auch er, dass man die Chancen stärker in den Blick nehmen müsse für Bereiche wie Klimaschutz, Fachkräftemangel, Gesundheitswesen. Mögliche Risiken von KI ließen sich bedacht und flexible einschränken, etwa durch eine Verpflichtung zur Kennzeichnung von KI-generierten Inhalten. Mit Blick auf die KI-Verordnung äußerte Bienert Skepsis. Auf Basis der aktuellen Entwürfe werde diese Art der Regulierung das Entwickeln und Betreiben von KI-Anwendungen "massiv behindern". Der ursprüngliche Ansatz sei sinnvoll gewesen, denn er habe spezifische KI-Anwendungen in Risikoklassen eingeteilt. Die Einführung des pauschalen Begriffs General Purpose AI (GPAI) unter der französischen Ratspräsidentschaft macht nicht nur ihn unfroh.

Diskussionpanel mit Jörg Bienert, Jonas Andrulis, Kai Zenner und Moderatorin Amira Gutmann-Trieb

(Bild: Thomas Tiefseetaucher)

Man müsse sich vor Augen führen, was das bedeutet: Damit gehen umfassende Compliance-, Transparenz- und Risikomanagement-Auflagen einher, die bei den Einsatzbereichen keine Unterscheidung treffen. "Das entspräche einem Verfahren, bei dem einem Schraubenhersteller für die potenzielle Nutzung seiner Schrauben in allen Bereichen dieselben Qualitätskriterien auferlegt werden, egal, ob sie für IKEA-Regale bestimmt sind oder für eine Flugzeugtragfläche", kritisiert Bienert. Start-ups und Open-Source-Initiativen würden durch diesen Ansatz massiv benachteiligt, sollte der AI Act in solch einer pauschalen Form inkrafttreten. "Dies wäre das Ende des KI-Ökosystems in Europa, wie wir es derzeit kennen", gab er zu bedenken.

Die Unternehmersicht im Panel vertrat Jonas Andrulis aus Heidelberg. Der Mitgründer und Geschäftsführer des KI-Forschungsunternehmens Aleph Alpha kritisierte den Fokus auf Compliance als hinderlich für neue Ideen. Der größte Konkurrent für Start-ups seien Konzerne wie Microsoft, die mit ihrer Kapitalmacht eine Monopolisierung der KI-Technologie anstreben. Kleinere Unternehmen könnten sich dagegen nur behaupten durch Partnerschaften und ein starkes Ökosystem, die Strategie müsse Zusammenarbeit sein. Wertschöpfung in Europa sei dabei wichtig, und Andrulis betonte die Stärke einiger Unternehmen in Europa, die sein Team als Partner gewinnen konnte (Anm. Red.: möglicherweise eine Anspielung auf die in den Medien kolportierte künftige Zusammenarbeit mit SAP). Die Frage sei, ob Europa jetzt schnell genug ins Handeln komme. Andrulis zufolge besteht Konsens, dass Regulierung wichtig sei, in der aktuellen Lage aber "auch gefährlich" werden könne. Europa sei "nicht in der Pole Position bei KI", zusätzliche Hindernisse könnten langfristig zu wirtschaftlichen Abhängigkeiten führen.

Empfohlener redaktioneller Inhalt

Mit Ihrer Zustimmmung wird hier eine externe YouTube-Playlist (Google Ireland Limited) geladen.

Ich bin damit einverstanden, dass mir externe Inhalte angezeigt werden. Damit können personenbezogene Daten an Drittplattformen (Google Ireland Limited) übermittelt werden. Mehr dazu in unserer Datenschutzerklärung.

Ihm zufolge habe Deutschland in Europa gerade "die Nase vorn bei großen Sprachmodellen", benötige nun aber ein tragfähiges Ökosystem. Allzu viele KI-Experten und Führungskräfte seien derzeit stark in regulatorische Fragen eingebunden. Dadurch bleibe weniger Zeit für kreative Arbeit und für "das Aufstellen der eigenen Unternehmen und Teams für die neue Ära". Moralisierung und das Schüren von Angst scheinen ihm nicht hilfreich, um einen gemeinsamen Weg zu finden. Zwar sei das bei jeder großen Neuerung wie der Elektrizität, der Zeitung oder dem Auto so gewesen. Dennoch erschwere es eine offene und holistische Zusammenarbeit. Wie Bienert betont er dabei die hohe Geschwindigkeit der Veränderung, die "ein starkes Konstrukt für ein Zusammenkommen der Ideen und Interessen" erfordere.

Prof. Dr. Hans Uszkoreit, DFKI – Vortrag über Foundation Models

(Bild: Mirko Ross)

Weitere Beiträge wandten sich Metathemen zu. Foundation Models, wie sie aktuell hinter ChatGPT, Bing, Bard und anderen Systemen generativer KI stehen, sind "Wahrscheinlichkeitsmaschinen, keine Faktenmaschinen", präzisierte Hans Uszkoreit vom Deutschen Forschungszentrum für Künstliche Intelligenz (DFKI) in seiner Keynote ("How Universal are Foundation Models?"). Laut Uszkoreit sind nicht die Algorithmen neu, sondern das Paradigma des "Machine Teaching". Zentral seien die Daten, die als Grundlage des Trainings dienen, denn die wesentlichen Entscheidungen würden bereits im Pre-Training getroffen.

Uszkoreit visualisierte den Beitrag Deutschlands und Europas auf einem Plot internationaler Foundation Models, auf dem die grünen Pünktchen (europäische Modelle wie BLOOM) und der einzige hellgrüne Punkt (Deutschland, die Modellfamilie von Aleph Alpha) rar gestreut waren inmitten zahlreicher Modelle aus den USA und aus China. Schaue man hingegen auf die Autoren relevanter wissenschaftlicher Veröffentlichungen, seien Europäer stark vertreten. Es sei noch nicht zu spät, aber die Industrie brauche Unterstützung – da es in Europa kein Äquivalent zu Google gibt. Uszkoreit unterstützt unter anderem die Initiative LEAM für große europäische KI-Modelle und öffentliche Finanzierung von Superrechenzentren. Sein Vortrag mündete in einem Aufruf zum Handeln: "Act now!"

Small Language Models ohne Supercomputer: Leif-Nissen Lundbæk

Dr. Leif-Nisse Lundbæk

(Bild: Xayn)

Eine Alternative zu den großen Sprachmodellen sind Small Language Models. Der promovierte Informatiker und Mathematiker Leif-Nissen Lundbæk stellte bei der Konferenz einen ihm zufolge besonders energiesparenden Ansatz durch hochkomprimierte kleine Sprachmodelle vor, die semantische Suche beherrschen und Kontextverständnis auf menschenähnlichem Niveau aufweisen (Vortrag: "Responsible AI on the Road to Carbon Neutrality"). Gemeinsam mit Andreas Grün, dem technischen Leiter für Digitalmedien beim ZDF, hatte er ein Validierungsexperiment in der Mediathek des Senders durchgeführt. Der Sender möchte seine Mediathek verbessern, indem sie die Videoempfehlungen datenschutzfreundlich und energieeffizient personalisiert. Laut Lundbæk und Grün habe das Small Language Model Xaynia den Energiebedarf auf zwei Prozent der zuvor benötigten Energiemenge reduziert. In eigenen Tests habe sich das Modell als deutlich energieeffizienter erwiesen als andere für die Suche verwendete Transformermodelle (arxiv-Paper: "Extreme compression of sentence-transformer ranker models").

Problemlöser denken vorausschauend

Lundbæk war zum ersten Mal auf der Rise of AI, die Atmosphäre habe er sehr genossen: "Eine Menge hochqualifizierter Menschen, die Probleme praktisch lösen wollen und schon drei Schritte voraus in die Zukunft denken. Das ist genau das, was wir aktuell – besonders hier in Deutschland – brauchen!" Wie andere Konferenzteilnehmer betonte auch er das Potenzial in Europa. Grundsätzlich mangele es nicht an schlauen Köpfen oder Ideen. "Aber gleichzeitig haben wir einen weiten Weg vor uns, denn wir brauchen mehr Unterstützung durch die Politik." Gerade Deutschland solle den Fokus auf die KI-Entwicklung legen. Aus den Notwendigkeiten, mit denen man in Europa konfrontiert sei (wie strengeren Vorschriften und weniger Zugang zu Big Data) ließe sich ihm zufolge eine Tugend machen.

Beeindruckt hat ihn die Rise of AI, da sie als erste ihm bekannte KI-Konferenz einen starken Schwerpunkt auf KI und Nachhaltigkeit legt. Lundbæk waren die zahlreichen Vorträge und Diskussionsmöglichkeiten zum Thema positiv aufgefallen, und er freut sich, dass das Thema offenbar "endliche im Mainstream angekommen" sei. Wie auch andere Diskussionsteilnehmer betont Lundbæk, dass es nicht hilfreich sei, wenn die deutsche und europäische Öffentlichkeit im Klageton über KI lamentiert. Dann biegt er im Gespräch in eine andere Richtung ab: Europa sei zu langsam, überreguliert und innovationsfeindlich, heiße es.

Small Language Models machen aus der Not eine Tugend

Mit den Gegebenheiten könne man stattdessen konstruktiv und clever arbeiten. Klar stoße man in Europa an Grenzen, da wegen der Vorschriften weniger Daten frei verfügbar seien als große US-Konzerne griffbereit hätten. Große Datenmengen seien für das Erstellen großer Sprachmodelle grundlegend. Lundbæk hingegen hat sich auf kleine Sprachmodelle spezialisiert, die ihm zufolge energie- und kosteneffizient sind. Die von ihm und seinem Team entwickelten Anwendungen bieten personalisierte semantische Suche und Empfehlungen, etwa für Wissensdatenbanken, Medien, E-Commerce und Reiseplattformen.

Dr. Leif-Nissen Lundbæk
ist Mitgründer und CEO des KI-Unternehmens Xayn. Lundbæk studierte Wirtschaft, Mathematik und Software Engineering in Berlin, Heidelberg und Oxford. Seinen PhD erhielt er am Imperial College London, und das Forbes-Magazin nahm ihn in die Liste "30 unter 30" auf.

Vielversprechend war der Vortrag der Physikerin und Quantencomputing-Expertin Sabina Jeschke: Der ehemaligen Technik-Vorständin der Deutschen Bahn zufolge steht das Quantencomputing kurz vor einer allgemeinen Verfügbarkeit für die Industrie. In vier Kapiteln räumte sie mit Mythen rund um Quantencomputing auf, beschrieb dessen Auswirkungen, Anwendungsszenarien und die Rolle des Quantencomputing für nachhaltiges, energiesparendes Hochleistungsrechnen.

Prof. Dr. Sabina Jeschke, Vortrag über Quantencomputing

(Bild: Screenshot)

Erstaunt nahm das Publikum zur Kenntnis, dass Tieftemperatursysteme in industriellen Dimensionen bereits ab 2025 zu erwarten seien und Quantencomputing bei Raumtemperatur ab 2028 technisch möglich sein sollte. Unternehmen könnten sich durch vom Quantencomputing inspirierte Algorithmen darauf vorbereiten, riet Jeschke, da diese Technik in rund zwei Jahren überall verfügbar sein werde. Das werde zunächst noch teuer sein, ging sie auf Einwände ein – wie bei jeder neu eingeführten Technologie. Doch die Preise würden in absehbarer Zeit erschwinglich werden.

Die Energieeffizienz und Beschleunigung für Rechenvorgänge werde enorm sein und überall Anwendungsmöglichkeiten finden – Echtzeitberechnungen für Fahrpläne der Deutschen Bahn nannte sie als Beispiel. Laut Jeschke sollen gekühlte Quantencomputingsysteme ein Zehntel der heute für Rechenprozesse erforderlichen Energie benötigen, Systeme bei Raumtemperatur nur mehr ein Prozent. Jeschke zitierte aus Nature und wissenschaftlichen Publikationen, mehr dazu im Vortrag: "The Future Unlocked: AI and Quantum Computing".

Laut Jeschke stehen Deutschland in der relativ jungen Technologie des Quantum Computing noch alle Türen offen – was man in der KI-Entwicklung in vielen Bereichen nicht uneingeschränkt sagen könne: "Da sind uns die USA und China weit enteilt", urteilt sie nüchtern. ChatGPT und seine Konkurrenten stehen noch am Anfang, werden aber die Welt radikal verändern, meint auch sie. Dabei gehe es nicht allein um die Automatisierung bestimmter Prozesse. Vielmehr würden generative KI-Systeme sich zu intelligenten, individuellen Assistenten entwickeln, die persönlich bei Lernprozessen und Trainings unterstützen. Das alles finde unabhängig von der eigenen sozialen Position statt – insofern stünden die KI-Bots in einer Entwicklungslinie mit dem Buchdruck, dem Internet und Google, indem sie die "Demokratisierung des Wissens" konsequent fortsetzen.

Merkwürdig sei, dass wir empört "Zensur" rufen, wenn China die Wikipedia sperrt – als hingegen Italien ChatGPT sperrte, sei das kein bisschen besser gewesen. "Wo ist eigentlich der gesellschaftliche Aufschrei gegen diese Form garantierter Grundrechte in Europa?", fragte Jeschke. Zurzeit sind offenbar viele Mythen und Halbwahrheiten in Umlauf. So halte sich hartnäckig der Mythos, dass das "Quantum Age", also das Zeitalter des Quantencomputing, noch in weiter Ferne befinde. "Das ist falsch – und fällt in die Kategorie 'Entschuldigungen fürs Nichtstun'", erklärte Jeschke. Richtig sei vielmehr, dass wir industriell nutzbare Tieftemperatur-Quantencomputer bereits ab etwa 2025 vorfinden und Raumtemperatur-Systeme wenig später folgen werden, betonte sie die Kernthese ihres Vortrags: "Für eine derart disruptive Technologie ist das kein langer Zeitraum für eine umfangreiche Vorbereitung!"

Diskussionspanel: "How to Create and Grow AI Ecosystems" mit Dr. Tina Klüwer (Direktorin K.I.E.Z. und Enquete-Kommission Künstliche Intelligenz), Thomas Neubert (Transatlantic AI Exchange), Alexandra Beckstein (QAI Ventures), Moderator Dr. Johannes Otterbach

(Bild: Thomas Tiefseetaucher)

Exklusiv für das Publikum in Berlin gab es Thementische, an denen Entwicklerinnen und Fachleute etwa von Fraunhofer und dem Bundeswehr Cyber Innovation Hub mit den Anwesenden über gesellschaftlich Relevantes diskutierten, etwa über den Einfluss von KI-Systemen auf die demokratische Ordnung, Desinformation und Deepfake, KI in der militärischen Verwendung (Verteidigung), den AI Act sowie Machtverschiebungen durch generative Programmiersysteme, die auf Open-Source-Code trainiert sind. Zwei Workshops vertieften Themen: So beriet eine Rechtsanwältin zur Compliance mit der bevorstehenden KI-Verordnung, und ein IBM-Mitarbeiter informierte über technischen Fortschritt zum Erreichen von Emissionsneutralität.

Die KI-Sachverständige Tina Klüwer brachte ein grundlegendes Missverhältnis in der öffentlichen Wahrnehmung auf den Punkt: "Ich werde gerade oft auf die Risiken von Künstlicher Intelligenz angesprochen, aber fast niemand fragt nach den Potenzialen der Anwendung von KI." Wie Jörg Bienert und andere Konferenzteilnehmer fordert sie, in Europa mehr über die Chancen von KI zu sprechen und sich bewusst zu machen, dass wir im Alltag bereits vielfach KI-Anwendungen nutzen, ohne dass dadurch Risiken entstehen. Neben der Versachlichung der Diskussion, die auf der Rise of AI stattfand, war ein Talk konkret dem Thema der Bewältigung von Angst gewidmet, die kontroverse KI-Szenarien auslösen: Die promovierte Philosophin Katharina von Knop sprach über den Umgang mit Ängsten ("Reduce Fear of AI with Neuropsychology").

Neben Foundation-Modellen im internationalen Vergleich und den technischen Möglichkeiten des Quantencomputing wurden Sicherheit der KI versus Innovation und staatliche Sicherheit sowie die Absicherung kritischer Infrastruktur durch (oder trotz) KI, Cybersicherheit (Vortrag von Mirko Ross: "Hacking AI"), Responsible AI und die Frage, ob man KI vertrauen dürfe, diskutiert (Vortrag: "No-one should Trust AI"). Auf der technischen Seite erfuhr das Publikum mehr über energieeffiziente Rechenmethoden (Vorträge unter anderem: "Artificial Intelligence and Energy" und "Quantifying Sustainability of an AI Project"). Ein anwesender Künstler spendete Hoffnung, und Jürgen Schmidhuber schloss den Kreis mit einer Closing Keynote zum großen Ganzen, in das die KI-Forschung seit Jahrzehnten eingebettet ist.

"Hacking AI": Kurzinterview mit Mirko Ross (aśvin)

Mirko Ross bei der Rise of AI

(Bild: Thomas Tiefseetaucher)

Heise: Mirko Ross, was haben Sie präsentiert und wie war der Eindruck von der Konferenz?

Mirko Ross: "Mein Thema war Hacking AI. Es geht um die Frage, wie KI-Systeme durch Angreifer manipuliert werden können, beispielsweise durch das Einschleusen "vergifteter Daten" (Data Poisoning) oder den Einbau von Hintertüren (Backdoors) in Modelle. Mit der steigenden Akzeptanz und dem Einsatz von KI-Systemen werden wir auch eine steigende Anzahl von Angriffen sehen. Die KI-Industrie ist gerade in einem wahren Rausch, und mangelnde Sicherheit wird früher oder später einen üblen Kater bescheren. Die Resonanz auf dieses Thema ist gut: Robuste und vertrauenswürdige KI ist als Thema bei allen Akteuren angekommen."

AI Act: Erdrückt die regulatorische Schutzmauer junge Unternehmen?

Heise: Wo stehen wir bei der KI-Entwicklung in Deutschland, was brauchen wir jetzt am meisten?

Ross: "Die Geschwindigkeit in der Entwicklung hat rasant zugenommen, in Deutschland und Europa haben wir ein großes Ökosystem an Start-ups und industriellen KI-Anwendern. Die Euphorie wird allerdings durch die regulatorische Unsicherheit getrübt. Der Entwurf des europäischen AI Acts wirft insbesondere auf Start-ups und junge Unternehmen der KI Branche seinen Schatten und trübt die Stimmung. Es gibt Schätzungen, die davon ausgehen, dass fast die Hälfte dieser jungen KI-Unternehmen mit ihren KI-Anwendungen als hohes Risiko eingestuft werden könnten. Die regulatorische Schutzmauer Europas durch den AI Act droht dann diese Unternehmen durch Aufwände zur Erfüllung regulatorischer Aufwände zu erdrücken. Daher ist der AI Act auf der "Rise of AI" eines der beherrschenden Themen. Was wir in der KI-Branche brauchen, ist eine maßvolle Regulierung, die das zarte ökonomische Pflänzchen der europäischen KI-Industrie gut gedeihen lässt und pflegt."

Small is beautiful: KI und Nachhaltigkeit

Heise: Was stimmt Sie zurzeit am nachdenklichsten?

Ross: "Nachhaltigkeit in KI ist ein ernstes Thema. Der Energieverbrauch durch KI-Systeme ist gewaltig und wird noch gewaltig steigen. Wir benötigen allerdings nicht für alle Bereiche der KI große Modelle mit viel Rechenpower. Dieser Weg ist ein buchstäblich schädliche Ressourcenverschwendung. Spezielle kleine KI Modelle für Nischenanwendungen können viel energieeffizienter und ressourcenschonender trainiert und betrieben werden als die 'Large-Monster-Modelle' (LLM)."

Heise: Mit Blick auf die laufenden KI-Diskussionen schwanken Medien und Öffentlichkeit, aber auch Fachleute zwischen Weltuntergang und Hochstimmung. Geht Ihnen das auf die Nerven?

Ross: Wie Stefanie Schramm, Head of Community der Rise of AI, so schön sagte: "Mich stört meisten, dass wir 2023 immer noch über die Sinnhaftigkeit von KI diskutieren müssen".

Mirko Ross
Jahrgang 1972, Cybersecurity-Spezialist und Startup-Entrepreneur, sorgt mit asvin.io dafür, dass verdeckte Risiken sichtbar werden. KI sei dabei eine zwar anspruchsvolle, aber genauso wie alle anderen auch hackbare Technologie. Deshalb müsse ihr besonderes Augenmerk gelten. Ross baut als Experte und Impulsgeber auf sein jahrzehntelang entwickeltes Netzwerk in Industrie-, Zivilgesellschaft und Politik. Sein Ziel ist es dabei, Cybersicherheit statt zum Problem zur Chance zu machen. Ihm ist es wichtig, dass "Cybersecurity Made in Europe" für Hersteller und Verbraucher weltweit zum Gütesiegel wird. Weil Vertrauen, so Ross, die Grundlage allen Handelns sein muss. Einblicke in Ross' Denk- und Arbeitsweise gewährt sein LinkedIn-Profil.

Die Konferenz teilte sich in Meta-Themen auf der Hauptbühne und Fachbeiträge zur angewandten KI auf einer Applied AI Stage. Dort ging es um Bias, das Trainingsmaterial für Modelle, Nachhaltigkeit, industrielle Anwendungen, Robotik mit Embodiment-Forschung und das Hacken von KI-Modellen, zudem um KI bei Geheimdiensten und Militär sowie die stimmbasierte Gefühlsanalyse durch KI. Veranstalter Fabian Westerheide eröffnete und schloss die Konferenz mit einem Überblick über die KI-Landschaft der vergangenen zwölf Monate, in denen KI der neuesten Generation technische Durchbrüche erlebte und seit ChatGPT große KI-Sprachmodelle breite Aufmerksamkeit erfahren.

Die Rise-of-AI-Konferenz entspringt einem privaten Gesprächskreis von zehn Personen, der seit 2014 intensiv über Fragen künstlicher Intelligenz wie etwa Singularität nachdachte, also den Zeitpunkt, zu dem künstliche neuronale Netze menschenähnliche Fähigkeiten aufweisen und Menschen teilweise überlegen sein werden. Angesichts des sich beschleunigenden Fortschritts in der KI-Forschung und Massenphänomenen wie ChatGPT werden solche Fragen nicht mehr als abseitig angesehen. Unternehmen, Politik und die Bevölkerung beschäftigt die KI-Entwicklung etwa mit Blick auf bevorstehende Störungen und Chancen am Arbeitsmarkt durch den Einsatz generativer KI-Systeme, die einerseits die Produktivität erhöhen, andererseits geistige Arbeit automatisieren und dadurch bestehenden Arbeitsplätzen Konkurrenz machen könnten.

Rise of AI 2022 – Blick ins Publikum

(Bild: Thomas Tiefseetaucher)

So hat etwa die EU in dieser Woche bekannt gegeben, ihren Pool an Übersetzern zu verkleinern und verstärkt auf maschinelle Übersetzungen zurückzugreifen (ein EU-Projekt zur automatischen Übersetzung gibt es bereits seit 2010). Erste Studien liegen vor zur Frage, welche Berufsgruppen breiter Einsatz generativer KI am meisten berührt, also potenziell bedroht – neben Übersetzern etwa Mathematiker, Programmierer und Journalisten sowie alle Berufe, die Wissen sammeln, kondensieren und zusammenfassen.

Auf der anderen Seite steht die Prognose im Raum, dass ähnlich wie bei früheren Technologie-Durchbrüchen neue Berufsbilder entstehen dürften und bestehende nicht komplett entfallen, sondern die Arbeitsabläufe sich verändern und beschleunigen. Zu solchen Themen bezogen die Referenten und Referentinnen der diesjährigen Rise of AI in ihren Vorträgen fundiert Stellung.

Die Veranstalter: Veronika und Fabian Westerheide

(Bild: Thomas Tiefseetaucher)

Seit der ersten Ausgabe 2015 hat sich die Rise of AI von einem Geheimtipp zu einem "KI-Klassentreffen" gemausert und gilt nach Angaben von Konferenzgästen inzwischen als ein jährlicher Fixpunkt für die deutsche KI-Branche. Die diesjährige Ausgabe war bereits die achte Auflage des Events. Parallel findet deutschlandweit der "Month of M-AI" statt mit rund 80 Veranstaltungen von Hunderten KI-Akteuren – die Idee dazu hatte Veronika Westerheide, die die Rise of AI mit ihrem Ehemann Fabian organisiert, bereits 2019.

Beide entdecken laufend neue KI-Netzwerke, Firmen und Programme, denen sie durch ihre Veranstaltungen mehr Sichtbarkeit und Vernetzung verschaffen. Auch ihr eigenes Ökosystem sei durch das Rahmenprogramm des deutschen KI-Monats "enorm gewachsen", wie Fabian Westerheide heise Developer berichtete. Teilnehmern zufolge stecken die Westerheides "viel Herzblut" in die Veranstaltung, weshalb unter anderem auch prominente Stammgäste wie der diesmal verhinderte Digitalpolitiker Mario Brandenburg (FDP) nicht einfach fernblieben, sondern sich persönlich mit einer originellen Videobotschaft entschuldigten.

"Einblicke jenseits des Hypes": Konferenz-Review

Marc A. Linstädter

Marc A. Linstädter, Marketing- und Innovationschef der GEFA Bank, besucht die Rise of AI bereits seit einigen Jahren regelmäßig. KI hält er für die Schlüsseltechnologie unseres Jahrhunderts – und die Konferenz biete ihm Gelegenheit, "führende Köpfe des KI-Ökosystems zu treffen, mit ihnen zu diskutieren und Einblicke jenseits des oberflächlichen Hypes zu erhalten".

Die diesjährige Ausgabe der Rise of AI prägten drei Themen:

  • Debatte über den AI Act
  • KI und Nachhaltigkeit
  • Europäisches KI-Ökosystem

Trotz Unkenrufen nicht zu spät

In der Diskussion um die Auswirkungen des AI Act sei bei der Konferenz die Sorge vor Überregulierung greibar gewesen – sowie am anderen Ende der Skala die Frage nach Wettbewerbsvorteilen durch vertrauenswürdige Systeme "Made in Europe", woraus sich für Linstädter ein ausgewogenes Bild ergab. Der hohe Energiebedarf von KI-Systemen und Möglichkeiten zum Reduzieren des Energieverbrauchs wurden besprochen, besonders die Kombination von KI und Quantencomputern könne künftig helfen, die "Optimierungsprobleme auf dem Weg zu einer nachhaltigen Gesellschaft" zu lösen. Linstädter nahm spürbaren Optimismus wahr und ein Bewusstsein für die Dringlichkeit eines breit aufgestellten europäischen KI-Ökosystems: "Spätestens seit der ChatGPT-Zäsur ist KI im Mainstream angekommen", die Dynamik gelte es nun zu nutzen. Viele der Vortragenden hätten sich optimistisch gegeben, dass es dafür "allen Unkenrufen zum Trotz noch nicht zu spät" sei.

KI – The Good News: raus aus der Expertennische

Insgesamt registrierte Linstädter Erleichterung, dass das Thema KI dank ChatGPT & Co. nach vielen Jahren in der Expertennische endlich die Aufmerksamkeit bekomme, die es verdient – "auch wenn die Geschwindigkeiten von Erkenntnis und konkretem Handeln häufig unterschiedlich sind", wie er mit Blick auf die Politik mit einem kritischen Auge anmerkte. Bei Linstädter entstand bei der Rise of AI der grundsätzliche Eindruck, dass Deutschland und Europa bei der KI-Entwicklung besser da stünden, als es oft dargestellt wird – aber natürlich nicht führend. Dr. Björn Bringmann vom Beratungsunternehmen Deloitte habe das besonders deutlich aufgezeigt (Vortrag: "AI in Europe – The Good News"). Was Deutschland in Linstädters Augen brauche, sei ein breites Verständnis dafür, dass die Investitionen in KI deutlich steigen müssen, um den Anschluss nicht zu verpassen – nach diesem Verständnis gelte es zu handeln.

Impuls: Den Weg zwischen Hype und Endzeitstimmung finden

"Die öffentliche Debatte zum KI-Thema ist momentan viel zu stark von Extrempositionen, also von Hypes oder Endzeitszenarien geprägt. Das führt bei vielen Menschen entweder zu überhöhten Erwartungen, skeptischer Ablehnung oder Angst. Richtig ist: KI wird unser Leben und unsere Gesellschaft massiv verändern, dies passiert bereits aktuell. Diesen Veränderungsprozess müssen wir jedoch aktiv gestalten. Dabei hilft es weder, das Potenzial von KI herunterzuspielen (Stichwort "stochastischer Papagei") noch Ängste vor einer Übernahme unserer Welt durch Maschinen zu schüren oder den Versuch zu unternehmen, die Weiterentwicklung dieser Technologie zu verlangsamen.

Im Gegenteil, was wir brauchen, ist eine breite gesellschaftliche und politische Debatte über die Integration dieser Technologie und den Umgang mit den Auswirkungen. Das Thema wird häufig und auch verständlicherweise von anderen aktuellen Themen des Weltgeschehens überlagert, verdient jedoch Aufmerksamkeit und beständigen Fokus – nicht zuletzt, da uns diese Technologie möglicherweise helfen wird, die aktuell größte Bedrohung für unsere Zivilisation zu lösen: die Klimakrise." – Marc A. Linstädter

Am 15. Mai 2024 soll die nächste Rise of AI stattfinden: erneut in Berlin vor rund 200 Vor-Ort-Gästen, ergänzt durch unbegrenzte kostenlose Remote-Teilnahme an allen Vorträgen. Als übergeordnete Fragestellung steht für die neunte Zusammenkunft im Raum, wie die Landschaft der generativen KI sich ab hier verändert haben wird – insbesondere, welche Auswirkungen der dann bereits in Kraft getretene EU AI Act in der Praxis auf die Unternehmen hat, die ihn umsetzen müssen. Hier schließt sich der Bogen, denn das Thema KI-Regulierung wurde bei der Rise of AI 2023 breit diskutiert.

Die Vorträge der Rise of AI 2023 stehen bei YouTube bereit – rund 16 Stunden an Vorträgen und Paneldiskussionen regen zur vertieften Auseinandersetzung mit aktuellen Fragen zur KI an. Wer vor Ort war, kann sich die Inhalte in Ruhe zu Gemüte führen, und wer sich inmitten eines hektischen Berufsalltages vielleicht nur punktuell einklinken konnte, hat die Gelegenheit, nun die Denkanstöße im eigenen Tempo nachzuvollziehen. Die Aufzeichnung der Vorträge lässt sich einzeln oder als Playliste anschauen. Eine Auswahl an Fotos und weitere Informationen lassen sich der Website entnehmen.

(sih)