Deutscher Ethikrat: "KI darf den Menschen nicht ersetzen"
Gläserne Bürger und Patienten, automatisierte Überwachung in Echtzeit, Diskriminierung und Zensur zählen Ethiker zu den Schattenseiten einer Welt voller KI.
Grundrechte wie den Anspruch auf Privatsphäre, Minderheiten und eine demokratische, vielfältige Gesellschaft müssen in einer zunehmend von Künstlicher Intelligenz (KI) beeinflussten Welt stärker geschützt werden. Dies ist eine zentrale Forderung der Stellungnahme "Mensch und Maschine" des Deutschen Ethikrates, die sich mit "Herausforderungen" durch (KI) beschäftigt. Der Einsatz der meist auf maschinellem Lernen basierenden Schlüsseltechnik "muss menschliche Entfaltung erweitern und darf sie nicht vermindern", erklärte die Vorsitzende des unabhängigen Expertengremiums, Alena Buyx, am Montag bei der Präsentation der Position. "KI darf den Menschen nicht ersetzen."
"Spätestens seit ChatGPT im November ins öffentliche Bewusstsein drang, ist die breite Anwendung von Künstlicher Intelligenz in unserem Alltag und in der öffentlichen Debatte angekommen", weiß Buyx. Algorithmische Systeme könnten eingesetzt werden, um Krebs zu diagnostizieren oder mit Schülern Englischvokabeln zu lernen. Sie bestimmten aber auch längst mit, "wer bestimmte Sozialleistungen bekommen soll" und beeinflussten "unser Verhalten in den sozialen Medien". Gerade hier besorge die Ethiker etwa, "dass die algorithmisch vermittelten Informations- und Kommunikationsangebote digitaler Plattformen und sozialer Medien Konsequenzen für das demokratische Legitimationsgefüge haben".
Verrohter Diskurs in sozialen Medien
Polarisierung und Diskursverrohung hätten auf Facebook, Twitter & Co. zugenommen, ergänzte der Vizevorsitzende des Rates, Julian Nida-Rümelin. "Damit ist die politische Meinungsbildung im digitalen Zeitalter herausgefordert." Viele Plattformbetreiber setzten auf KI, um Inhalte zu "moderieren". Overblocking könne die Folge sein. Die grundsätzliche Frage sei aber, "ob wir privaten kommerziellen Konzernen derart wichtige Entscheidungen überlassen wollen". Es müsse geklärt werden, ob "eine alternative digitale Kommunikationsinfrastruktur in öffentlicher Verantwortung nicht zum Schutz von Vielfalt, kommunikativem Ethos und Demokratie erforderlich ist". Die Folgen von personalisierter Werbung, Profiling, Microtargeting und Datenhandel müssen den Sachverständigen zufolge genauer untersucht werden.
Auf den 297 Seiten warnt das Gremium vor überhandnehmender, automatisierter Überwachung in Echtzeit etwa mit "Predictive Policing". Durch Trainingsdaten würden oft existierende gesellschaftliche Ungleichheiten und Vorurteile aufgegriffen sowie durch den Einbau in scheinbar neutrale Technik zementiert. Gerade in staatlichen Kontexten sowie in Bezug auf Entscheidungen, die eine hohe Tragweite haben oder besonders vulnerable Gruppen betreffen, müssten hohe und verbindliche Anforderungen an Genauigkeit, Diskriminierungsvermeidung und Nachvollziehbarkeit gestellt werden. Die Einhaltung dieser Kriterien sollten einer externen Überprüfung zugänglich sein.
Qualitätssicherung in der Medizin
Für den Medizinbereich richten sich die Empfehlungen etwa auf die Qualitätssicherung bei der Entwicklung und Nutzung von KI-Produkten, aber auch auf die Vermeidung ärztlicher Kompetenzverluste und auf das Ziel, die Privatsphäre von Patienten mit intensiver "gemeinwohlorientierter" Datennutzung in der medizinischen Forschung in Einklang zu bringen. Könnten künftige Maschinen im vollen Sinne intentional handeln und ein Bewusstsein entwickeln, trieb die Forscher weiter um. Ihre Antwort in Kurzform lautet: Nein. "KI-Anwendungen können menschliche Intelligenz, Verantwortung und Bewertung nicht ersetzen", betont Nida-Rümelin. "Die Vernunft des Menschen ist mit seiner Leiblichkeit, die Teil seiner Identität ist, unauflösbar verbunden." Potenziale von KI sehen die Ethiker etwa, um den Klima- und Umweltschutz voranzubringen. Dafür müsse aber der Ressourcenverbrauch der KI-Modelle besser erfasst und reduziert werden.
(mack)