Lernen aus Krankenakten

Algorithmen aus der Computerlinguistik sollen Gesundheitsverwaltungen dabei helfen, die Versorgungsqualität in Krankenhäusern zu erhöhen.

In Pocket speichern vorlesen Druckansicht 1 Kommentar lesen
Lesezeit: 5 Min.
Von
  • Emily Singer

Algorithmen aus der Computerlinguistik sollen Gesundheitsverwaltungen dabei helfen, die Versorgungsqualität in Krankenhäusern zu erhöhen.

In den USA flossen bereits Milliarden in Projekte zur Einführung elektronischer Krankenakten. Die Versorgungsqualität hat sich dadurch allerdings noch nicht wie erwartet erhöht. Eines der Probleme: Die Daten lassen sich bislang nur schwer automatisiert analysieren, um Problemen im Gesundheitssystem auf die Spur zu kommen.

Eine neue Studie zeigt nun, dass Verfahren aus dem Bereich der Erkennung natürlicher Sprache, der sogenannten Computerlinguistik, beim Verarbeiten von Patienteninformationen helfen könnten. Dabei nahmen sich US-Forscher jenen Bereich vor, der bislang als besonders komplex galt: den Teil der Krankenakte, in dem Ärzte ihre medizinischen Notizen hinterlassen.

Bei der Untersuchung, die von dem Medizindozenten Harvey Murff an der Vanderbilt University durchgeführt wurde, ging es spezifisch um Material, das Chirurgen zu möglichen Komplikationen nach Operationen in die Akten eintrugen, etwa Sepsis oder Lungenentzündung. Dabei ergab sich, dass die Erkennungsleistung deutlich genauer war als bei anderen automatisierten Systemen.

"Die Studie zeigt, wie klinische Daten endlich dazu verwendet werden könnten, um den Zustand von Patienten systematisch zu überwachen. Ich sehe bereits praktische Anwendungen im Pflegemanagement", meint Ashish Jha, Professor an der Harvard Medical School, der ein Editorial zu Murffs Paper verfasst hat.

Zu den erhofften Vorteilen elektronischer Krankenakten gehört die computergestützte Kontrolle, was mit den Patienten in den medizinischen Institutionen aktuell passiert – um beispielsweise frühzeitig zu erkennen, ob Komplikationen drohen oder es in einer bestimmten Abteilung Probleme mit der Pflegequalität gibt.

In den USA wird bereits bei der Erstellung von Rezepten mit solchen Analysemethoden gearbeitet. So erkennt der Rechner, wenn zwei verschriebene Medikamente nicht zusammenpassen. Weil Rezeptdaten bereits hochstrukturiert vorliegen, ist das technisch kein großes Problem – die dabei eingesetzte Software benötigt nur genügend Daten. Dagegen ist das, was ein Arzt in die Krankenakte schreibt, zumeist wenig strukturiert – Ärzte haben hier ein freies Textfeld, in das sie den Zustand, die Krankengeschichte und andere Aspekte hineinschreiben können, die sie für wichtig halten. Kollegen verstehen das, was es dort zu lesen gibt zwar problemlos – ein Computer und sein Suchalgorithmus hingegen nicht. "Wenn wir auf diese Daten nicht automatisiert zugreifen können, wird es schwierig, unsere Pflegequalität zu überwachen und zu verbessern", sagt Mediziner Jha.

Murff und sein Team verwendeten deshalb Verfahren aus der Computerlinguistik, deren Algorithmen bestimmte Sprachregeln beherrschen. Eine normale, unintelligente Volltextsuche findet zwar das Wort "Lungenentzündung" in einer Krankenakte. Das Vanderbilt-System kann aber beispielsweise solche Ergebnisse ausfiltern, die keine Relevanz haben, etwa, wenn vor der Lungenentzündung ein "keine Anzeichen von" steht.

Um ihre Datenbank zu füttern, analysierten die Forscher fast 3000 anonymisierte Krankenakten von Patienten, die in sechs Krankenhäusern der US-Armee operiert wurden. Dabei ging es um Komplikationen wie Lungenentzündung, Sepsis, Venenthrombose, Lungenembolie und Herzinfarkt. Vermehrte Probleme nach Operationen können ein Zeichen dafür sein, dass eine Einrichtung grundlegende Sicherheitsregeln nicht scharf genug überwacht. Allerdings fallen solche Probleme bislang oft nur dann auf, wenn von Hand nachkontrolliert wird. "Wir wollten nachahmen, was ein menschlicher Fachmann tun würde und diesen Prozess dann hochskalieren – und das so effizient wie möglich", sagt Murff.

Bei der Entwicklung passender Algorithmen gingen die Forscher zunächst nach dem Trial & Error-Verfahren vor. Ihr fertiges System ist jedoch hochempfindlich: Die Software konnte zwischen 80 und 90 Prozent aller Komplikationen in den Akten ebenso gut erkennen wie ein menschlicher Fachmann. Andere automatisierte Verfahren, die beispielsweise auf dem Auslesen von Abrechnungscodes basieren, waren deutlich ungenauer. Während Murffs System beispielsweise bis zu 82 Prozent aller Fälle von Nierenversagen erkannte, klappte das über Abrechnungscodes nur in 38 Prozent der Fälle.

Problematisch ist allerdings noch, dass es zu viele Fehltreffer gibt. "In den nächsten Versionen wollen wir hier nachbessern", sagt Murff, der sich sehr optimistisch gibt. Momentan arbeitet sein Team außerdem daran, aus den Arztnotizen Vorhersagemodelle für weitere Komplikationen und andere Sicherheitsrisiken zu entwickeln.

Einer der Vorteile der Erkennung natürlicher Sprache liegt in der Flexibilität des Systems. So wäre denkbar, dass der Computer einem Arzt Anregungen für neue Behandlungsmethoden geben könnte, an die dieser noch gar nicht denkt.

Nuance, ein Hersteller von Spracherkennungssystemen, arbeitet bereits an kommerzieller Software, die medizinische Informationen mittels Computerlinguistik auswerten soll. IBM wiederum erwägt, die beim Quiz-Computer Watson eingesetzten Routinen für den Gesundheitssektor verfügbar zu machen. (bsc)