Kommentar: Der AI Act schwächt den Mittelstand nicht, er fördert ihn!

Ein AI-Act-Entwurf der EU stuft ChatGPT & Co. als Hochrisikoanwendung ein. Das hilft ansässigen Firmen und kann sogar Innovation fördern, meint Marcus Schüler.

In Pocket speichern vorlesen Druckansicht 10 Kommentare lesen
Lesezeit: 4 Min.
Von
  • Marcus Schüler
Inhaltsverzeichnis

Eine weitere EU-Regulierung, diesmal aber eine sinnvolle: Mit dem AI Act (AIA) versucht die EU, die Entwicklung künstlicher Intelligenzen unter anderem in ethisch vertretbare Bahnen zu lenken. Gegenstimmen lassen da erwartungsgemäß nicht lang auf sich warten: Ein immer wiederkehrendes Argument gegen den geplanten AIA ist, dass er Innovationen verlangsamen würde. Besonders betroffen sei davon die Gruppe der kleinen und mittleren Unternehmen (KMU). Mir wird diese Diskussion zu einseitig geführt, oft getriggert von der reflexhaften Ablehnung jeglichen regulatorischen Eingriffs.

Dabei könnte eine High-Risk-Einstufung prominenter Anwendungen wie ChatGPT und Co. den Unternehmen beim Einsatz von KI sogar helfen. Die Anbieter der Dienste müssen dann nämlich Konformitätsbestätigungen abliefern, KMUs können sich daraufhin gänzlich auf eigene Weiterentwicklung und Innovationen konzentrieren.

Ein Kommentar von Marcus Schüler

In seinem Kommentar gibt Marcus Schüler seine persönliche Meinung zum geplanten AI Act der EU und den Auswirkungen auf die europäische Wirtschaft wider. Marcus Schüler ist seit 30 Jahren im internationalen IT- und Digitalisierungsumfeld tätig. Er unterstützt Unternehmen bei der Erstellung und Umsetzung von AI und Corporate Digital Responsibility Strategien. Er deckt dabei neben den ökonomischen und kulturellen Aspekten auch die zunehmend dringlichen Fragen der AI Ethik ab und bereitet Kunden auf die operative Umsetzung des EU AI Acts vor.

Während ein Großteil der in Deutschland geführten Diskussion sich um den Mittelstand dreht, kommt mir ein anderer Aspekt zu kurz. Der Erfolg künstlicher Intelligenzen ist ohne quelloffene General Purpose KI (GPAI) nicht denkbar. Die EU hat den Themenblock GPAI deshalb bereits jetzt in den AIA aufgenommen, will Details aber erst später in einem separaten Implementation Act klären. Die temporäre Lücke bis dahin wird für abstruse Behauptungen genutzt, bis hin dazu, dass ChatGPT in Europa verboten würde – tendenziöser Unfug. Das geben die Risikokriterien der infrage kommenden Klassen gar nicht her.

Realistisch ist aber, dass ChatGPT in der High-Risk-Klasse landet. Wer diese Einordnung nicht teilt, hat sich nicht im Ansatz mit den Fähigkeiten und möglichen Risiken der Anwendung auseinandergesetzt oder ignoriert diese wissentlich. Wenn die EU ChatGPT als Hochrisiko-Anwendung bewertet, müsste OpenAI die EU-Auflagen für diese Risikoklasse erfüllen. Das wäre eine gute Nachricht, die für Verbraucher nur Vorteile hätte. Interessanterweise gilt das auch für KMU. Denn um im Bereich KI wettbewerbsfähig hinsichtlich Kosten, Schnelligkeit und Innovationskraft zu bleiben, sind KMUs auf Open-Source-Anwendungen angewiesen.

Enthalten diese Anwendungen aber gravierende Mängel hinsichtlich ethischer Mindestanforderungen, die sich erst im Betrieb manifestieren, ist das ein erhebliches Risiko für das Unternehmen. Für OpenAI – in diesem Fall der eigentliche Verursacher – aber nicht. Eine Klage von „Vater und Söhne GmbH“ gegen den von Microsoft gesponsorten Anbieter wäre wenig aussichtsreich.

Ich bin der Überzeugung, dass der AIA europäischen Unternehmen auch bei der Entwicklung helfen kann. Schließlich würde der AIA zum ersten Mal einen sicheren Handlungsrahmen vorgeben. Das hätte erhebliche Vorteile.

Fast jedes größere Unternehmen hat bereits eine eigene KI-Ethik-Richtlinie oder arbeitet daran. Ferner ist es nur eine Frage der Zeit, bis digitale Ethik sich in den ESG-Kennzahlen (Umwelt, Soziales und Unternehmensführung) wiederfindet. Es wird in Zukunft also schwierig bis unmöglich sein, seine KI-Anwendungen ohne entsprechende "Garantien" am Einkauf vorbei in Unternehmen zu platzieren. Auf der Konsumentenseite nimmt die Aufmerksamkeit und das Bewusstsein für eine verantwortungsvolle Digitalisierung ebenfalls stetig zu. Vertrauen wird zum Verkaufsargument digitaler Geschäftsmodelle.

Um Innovationen umzusetzen und zu skalieren, braucht es Investitionen. Investoren wiederum schätzen Rechtssicherheit. Laut OECD gibt es derzeit über 800 KI-Richtlinien aus 69 Staaten(gemeinschaften) – ein kompletter Albtraum, möchte man als Unternehmen global in einem halbwegs sicheren Ordnungsrahmen agieren.

Hier eröffnet der AIA eine große Chance. Die EU hat genug regulatorische Kraft, um globale Standards zu forcieren. Die US-Regierung hat ihren "Blueprint for an AI Bill of Rights" herausgebracht und im Januar 2023 das NIST, das Artificial Intelligence Risk-Management-Framework. Beide sind nicht im gleichen Umfang strikt wie die EU-Auslegung, Gespräche zur Harmonisierung finden aber bereits statt. Gelingt sie, werden sich auch etliche der anderen 69 Länder daran ausrichten. Dies würde Ruhe in das derzeitige Chaos bringen.

Ist der AIA bereits perfekt? Nein, sicher nicht. Aber er ist ein wichtiger Beitrag, um die Gesellschaft vor den möglichen schwerwiegenden Folgen eines unregulierten KI-Einsatzes zu schützen. Auch die Positionen bei der Bewertung des AIA unterliegen einer Normalverteilung, natürlich sind die Ränder in der Diskussion am lautesten. Viele Experten sehen den AIA aber als wertvollen Beitrag, der bei derart vielen Stakeholdern definitionsgemäß kompromissbehaftet ist. Ich bin davon überzeugt, dass die Erfahrungen, die wir mit dem AIA machen werden, beweisen, dass die Vorteile deutlich überwiegen.

(jvo)