Früherkennung: Neue Google-KI soll Krankheiten hören können

Google trainiert ein KI-Modell darauf, anhand von Tonsignalen wie Husten, Niesen und Atemgeräuschen Anzeichen von Krankheiten wie Tuberkulose zu erkennen.

In Pocket speichern vorlesen Druckansicht 28 Kommentare lesen

(Bild: sdecoret / Shutterstock.com)

Lesezeit: 4 Min.

Ein neues von Google entwickeltes bioakustisches Modell für Künstliche Intelligenz (KI) könnte die Frühdiagnostik für bestimmte Krankheiten deutlich verbessern. Der Verdacht auf Tuberkulose (TB) und andere schweren Lungenerkrankungen wie COPD (Chronisch obstruktive Lungenerkrankung) oder andere Atemwegsinfekte könnte mit einfachen Mitteln noch besser in die Frühdiagnose einfließen, wobei die Belastung für Patienten dabei minimal wäre. Der Aufwand entspräche dem Aufnehmen einer Sprachnotiz.

Der Internetkonzern hat die Initiative Health Acoustic Representations (HeAR) getauft. Er trainiert dieses KI-Modell nach eigenen Angaben darauf, anhand von Tonsignalen wie Husten, Niesen oder Schniefen frühzeitig Anzeichen von Krankheiten auszumachen. "Die Geräusche, die unser Körper macht, sind voller Informationen über unseren Gesundheitszustand", erläutert Shravya Shetty, technische Leiterin bei Google Research. "In diesen bioakustischen Klängen verborgene subtile Hinweise bergen das Potenzial, die Art und Weise zu revolutionieren", wie diverse Krankheiten untersucht, diagnostiziert, überwacht und behandelt werden.

Das Google Forschungsteam hat HeAR laut Shetty anhand von 300 Millionen Audiodaten trainiert, "die aus einem vielfältigen und anonymisierten Datensatz zusammengestellt wurden". Insbesondere das Hustenmodell sei mit etwa 100 Millionen Hustengeräuschen angelernt worden. HeAR suche Muster in gesundheitsrelevanten Geräuschen und bilde so eine "leistungsstarke Grundlage für die medizinische Audioanalyse". Die Technologie, die etwa über Mikrofone von Smartphones verwendbar ist, könnte die Diagnose vorwiegend in Gegenden revolutionieren, in denen fortschrittliche Instrumente dafür schwer verfügbar sind.

Der Tech-Gigant arbeitet so etwa mit dem indischen, auf Atemwegserkrankungen spezialisierten KI-Startup Salcit Technologies zusammen. Dieses hat ein eigenes Programm namens Swaasa entwickelt, das KI nutzt, um Hustengeräusche zu analysieren und die Lunge zu beurteilen. Derzeit testet das Unternehmen Google zufolge, wie HeAR dabei helfen kann, die Fähigkeiten seiner bioakustischen KI-Modelle zu erweitern. Zunächst nutze Swaasa das Verfahren von Google zur Erforschung und Verbesserung der TB-Früherkennung anhand von Hustengeräuschen.

Tuberkulose sei "eine behandelbare Krankheit, aber jedes Jahr bleiben Millionen von Fällen unerkannt", führt Shetty aus. Dies liege oft daran, dass Menschen "keinen bequemen Zugang zu Gesundheitsdiensten haben". Eine bessere Diagnose sei für die Ausrottung von TB von entscheidender Bedeutung. Salcit habe mit Saasa schon Erfahrung bei der Nutzung von maschinellem Lernen zur Früherkennung von Krankheiten gesammelt und schließe die Lücke zwischen Zugänglichkeit, Erschwinglichkeit und Skalierbarkeit. Denn das Startup biete eine ortsunabhängige, gerätefreie Beurteilung der Gesundheit der Atemwege an. Mit HeAR sehe die Firma nun eine Option, das TB-Screening in ganz Indien auszuweiten

Auch Organisationen wie die bei den Vereinten Nationen angesiedelte Partnerschaft StopTB unterstützten HeAR, berichtet Shetty. Diese bringe Tuberkuloseexperten und betroffene Gemeinden mit dem Ziel zusammen, die Tuberkulose bis 2030 zu besiegen.

Prinzipiell ist der Ansatz nicht neu. So entwickelten etwa Forscher der Universität Cambridge schon 2020 eine Smartphone-App, mit der sich anhand des Klangs der Stimme, der Atmung und des Hustens automatisiert erkennen lassen soll, ob ein Nutzer an Covid-19 erkrankt ist. Schweizer Forscher erklärten wenig später, mit zwei von ihnen entwickelten Deep-Learning-Algorithmen ein Instrument gefunden zu haben, um Corona-Infektionen auch bei einem Verlauf ohne Symptome in Lungenaufnahmen und Atemgeräuschen identifizieren zu können. Andere Experten arbeiteten parallel zusammen mit der Uniklinik Augsburg an einer App, die eine Ansteckung mit dem Coronavirus anhand der Sprache möglichst rasch aufdeckt.

"Im Durchschnitt schneidet HeAR bei einer Vielzahl von Aufgaben und bei der Generalisierung über Mikrofone hinweg besser ab als andere Modelle", hebt Google aber hervor. Dies verweise auf eine herausragende Fähigkeit, "aussagekräftige Muster in gesundheitsbezogenen akustischen Daten zu erfassen". Mit HeAR trainierte Modelle erzielten auch mit weniger Trainingsdaten eine hohe Leistung, was ein entscheidender Faktor sei "in der oft datenarmen Welt der Gesundheitsforschung".

(usz)