KI-Update kompakt: Konsens-Maschinen, Corti, europäische Sprachen, Dialekte

Das "KI-Update" liefert werktäglich eine Zusammenfassung der wichtigsten KI-Entwicklungen.

In Pocket speichern vorlesen Druckansicht

Empfohlener redaktioneller Inhalt

Mit Ihrer Zustimmmung wird hier ein externer Podcast (Podigee GmbH) geladen.

Ich bin damit einverstanden, dass mir externe Inhalte angezeigt werden. Damit können personenbezogene Daten an Drittplattformen (Podigee GmbH) übermittelt werden. Mehr dazu in unserer Datenschutzerklärung.

Lesezeit: 5 Min.
Von
Inhaltsverzeichnis

Eine Studie von Harvard-Forschern zieht Parallelen zwischen großen Sprachmodellen und Crowdsourcing. Statt Expertenantworten zu sammeln, generieren KI-Systeme die wahrscheinlichste Antwort basierend auf allen im Internet verfügbaren Daten nach einem Konsensprinzip. Bei allgemeinen Themen liefern sie meist korrekte Antworten, versagen aber bei speziellen oder kontroversen Fragen und neigen zu Halluzinationen, besonders bei der Zitierung wissenschaftlicher Arbeiten.

Die Autoren empfehlen, KI-generierte Inhalte wie Crowdsourcing-Ergebnisse zu behandeln: nützlich bei allgemeinen Themen, vorsichtig zu interpretieren bei Spezialthemen. Die Genauigkeit hängt stark von Breite und Qualität der Trainingsdaten ab.

Das 2016 in Kopenhagen gegründete Unternehmen Corti nimmt seine für das Gesundheitswesen konzipierte KI-Plattform auch in Deutschland in Betrieb. Corti hat ein eigenes Sprachmodell entwickelt, das mit über 100 Millionen Patienteninteraktionen trainiert wurde. Der "Co-Pilot" von Corti soll, ähnlich wie Microsofts Copilot oder Jamedas KI-Assistenten, beim Arzt-Patienten-Gespräch mithören und Ärzten bei ihren Dokumentationspflichten helfen. Die KI-Plattform soll dazu beitragen, dem Personal Arbeit abzunehmen, indem sie den Verwaltungsaufwand bei Konsultationen, Patientenaufnahmen, Visiten und Notfällen reduziert. Gleichzeitig verspricht Corti, die Fehlerquote in der klinischen Dokumentation zu senken.

Die Notfallambulanz des Eichsfeld-Klinikums in Thüringen ist eine der ersten Einrichtungen, welche die Plattform implementiert hat. "Während der Arzt mit dem Patienten spricht, erfasst, organisiert und ordnet der Co-Pilot Informationen den richtigen Bereichen wie Diagnostik und Labor zu", erklärte Dušan Trifunović, Chefarzt am Klinikum Eichsfeld. Das Klinikum plant, Corti in allen Abteilungen zu integrieren, vom OP bis zur Pflege, um so den Teams und dem gesamten Krankenhaus erhebliche Fortschritte zu bringen.

Ein internationales Forschungsteam hat mit MOSEL eine umfangreiche Open-Source-Sprachdatensammlung für die 24 offiziellen EU-Sprachen zusammengestellt. MOSEL steht für Massive Open-source compliant Speech data for European Languages.

Die gesammelten Daten enthalten 505.000 Stunden transkribierte Sprachaufnahmen und 441.000 Stunden rohe Audiodaten aus 18 verschiedenen Quellen. Allerdings ist die Verteilung zwischen den Sprachen sehr ungleich. Während für Englisch über 437.000 Stunden an gelabelten Daten zur Verfügung stehen, sind es für Sprachen wie Maltesisch oder Irisch nur wenige Stunden.

Um die Datenlage für solch ressourcenarme Sprachen zu verbessern, haben die Forschenden diese rohen Audiodaten automatisch transkribiert. Dafür nutzten sie das KI-Modell Whisper von OpenAI. Die gesamte Datensammlung ist auf GitHub frei verfügbar und soll Forscherinnen und Entwicklern den Zugang zu umfangreichen Sprachdaten für europäische Sprachen erleichtern.

Empfohlener redaktioneller Inhalt

Mit Ihrer Zustimmmung wird hier ein externer Podcast (Podigee GmbH) geladen.

Ich bin damit einverstanden, dass mir externe Inhalte angezeigt werden. Damit können personenbezogene Daten an Drittplattformen (Podigee GmbH) übermittelt werden. Mehr dazu in unserer Datenschutzerklärung.

Sprachassistenzsysteme brauchen besseres Trainingsmaterial, um auch Dialekte und Sprachunterschiede innerhalb eines Landes zu verstehen, erklärt Jan Wolter, Head of Product und Geschäftsführer von Applause EU, einer Firma, die unter anderem Sprachassistenzsysteme vor und nach der Markteinführung testet.

Faktoren wie Alter, Geschlecht und soziale Herkunft beeinflussen die Sprechweise. Auch Jugendsprache und die Entwicklung der Sprache über Generationen stellen laut Wolter Herausforderungen dar.

Akzente, falsche Aussprache und unterschiedliche Wortbedeutungen in Regionen erschweren das Verständnis zusätzlich. Systeme müssten den Kontext erfassen, um die Sprache oder den Dialekt zu identifizieren. Dafür bräuchte es vielfältige Testdaten, die schwierig zu beschaffen sind, etwa für Inklusion.

Podcast: KI-Update

Wie intelligent ist Künstliche Intelligenz eigentlich? Welche Folgen hat generative KI für unsere Arbeit, unsere Freizeit und die Gesellschaft? Im "KI-Update" von Heise bringen wir Euch gemeinsam mit The Decoder werktäglich Updates zu den wichtigsten KI-Entwicklungen. Freitags beleuchten wir mit Experten die unterschiedlichen Aspekte der KI-Revolution.

Laut dem E-Government-Monitor 2024 kommt die Verwaltungsdigitalisierung in Deutschland dank neuer Gesetze und Technologien wie der DeutschlandID messbar voran. Die Zufriedenheit mit Online-Behördenleistungen ist auf 62 Prozent gestiegen, liegt aber noch unter dem Niveau von Österreich und der Schweiz.

Die Offenheit für den KI-Einsatz in Ämtern wächst, 75 Prozent sind unter bestimmten Bedingungen dafür. Bedenken bestehen vor allem bei Nachvollziehbarkeit und Fehleranfälligkeit. Die Nutzung des Online-Ausweises hat deutlich zugenommen.

Nicht durchgängig digitale Angebote bleiben die größte Hürde für E-Government. Jeder Zweite würde dem Staat mehr vertrauen, wenn dessen Leistungen einfach online nutzbar wären. Experten warnen: Mangelndes E-Government gefährdet das Vertrauen in die Demokratie. Der Wohnort darf nicht über die Interaktion mit dem Staat entscheiden.

Wissenschaftler von BitEnergy AI haben einen neuen Algorithmus namens "Linear-complexity multiplication" (kurz L-Mul) vorgestellt, der den Energieverbrauch von Künstlicher Intelligenz drastisch senken könnte. Die Methode ersetzt aufwendige Gleitkomma-Multiplikationen, die etwa in Sprachmodellen eine zentrale Rolle spielen, durch einfachere Ganzzahl-Additionen.

Die Evaluierungsergebnisse auf gängigen Benchmarks zeigen laut den Forschern, dass die direkte Anwendung von L-Mul auf den Aufmerksamkeitsmechanismus, einem zentralen Baustein von Transformer-Modellen, nahezu verlustfrei ist.

Die Entwickler sehen in ihrer Methode das Potenzial, die akademische und wirtschaftliche Wettbewerbsfähigkeit sowie die KI-Souveränität zu stärken.

Das Team plant, L-Mul Kernelalgorithmen auf Hardwareebene zu implementieren und Programmier-APIs für das High-Level-Modelldesign zu entwickeln. Ziel ist es, generative KI-Modelle zu trainieren, die für den Einsatz auf L-Mul-nativer Hardware optimiert sind.

(igr)