KI Navigator #5: Transformer als Transformator der Gesundheitsversorgung
Richtig eingesetzt kann KI den Menschen im Gesundheitswesen wieder stärker in den Mittelpunkt rücken, glauben Siming Bayer und Björn Heismann.
- Siming Bayer
- Björn Heismann
Willkommen zur fünften Ausgabe der KI-Navigator-Kolumne der DOAG KI Community!
Als Wissenschaftler im Bereich Medizintechnik und KI haben wir die Evolution der künstlichen Intelligenz und deren Anwendung in der Medizin in den letzten fünfzehn Jahren begleitet – angefangen bei Mustererkennung und maschinellem Lernen über Deep Learning bis hin zur generativen KI. In letzter Zeit begegnete uns häufig die Frage, was KI in der Medizin überhaupt bringt.
Warum soll ausgerechnet KI die Transformation der Medizin vorantreiben? Medizin ist doch eine zutiefst menschliche, von Vertrauen geprägte Disziplin. Wer möchte eine Diagnose von einer Maschine bekommen oder sich gar von ihr behandeln lassen?
Technischer Fortschritt – nicht nur mit KI
Tatsächlich ist die Gesundheitsversorgung eine hoch komplexe Prozesskette, in der zahlreiche Entscheidungen interdisziplinär fallen. Und genau diese Entscheidungen verändern sich rasant mit den technischen Möglichkeiten. Wenn wir uns krank fühlen, können wir seit vielen Jahren das Internet und spezialisierte Apps zur ersten Interpretation von Symptomen einsetzen. Auch für die Wahl des Haus- oder Facharztes zur Behandlung helfen Websuche und Portale. ChatGPT besteht bereits schriftliche medizinische Examen in den USA und lässt sich ebenso wie das Internet befragen (ohne Gewähr selbstverständlich). Nicht zuletzt vermessen wir uns auch selbst mit mobilen Endgeräten und Smartwatches, um fit zu bleiben oder gesundheitliche Auffälligkeiten zu bemerken.
In fast jeder dieser Optionen für Patienten steckt mehr oder weniger offensichtlich KI. Die Google-Suche funktioniert seit 2019 mit BERT, einem der ersten kommerziell genutzten Transformer-Modelle. Das heutige ChatGPT – und vergleichbare Large Language Models (LLM) wie Llama 3 oder Mistral – nutzen Aufmerksamkeitsmechanismen der Transformerarchitekturen, um komplexe Fragestellungen zu beantworten. Internetportale und Smartwatches setzen auf KI, um Daten und Bedürfnisse der Nutzerinnen und Nutzer auszuwerten und personalisierte Vorschläge zu generieren. Die KI ist also längst angekommen in der Medizin, beim Patienten, bei uns. Aber hält und macht uns das auch gesünder und glücklicher?
Medizinische Behandlungspfade wirken auf Patienten oft komplex und verschlungen, folgen aber prinzipiell wohl definierten, nachvollziehbaren Schritten. Am Anfang steht die Abklärung der Symptomatik und des allgemeinen Befindens im Arzt-Patienten-Gespräch. Je nach Ergebnis und Bedarf folgen zusätzliche diagnostische Schritte, von der Bestimmung der Vitalparameter über Labormarker bis hin zur medizinischen Bildgebung. Auf dieser Basis entscheidet die Ärztin oder der Arzt über therapeutische Schritte wie Operationen oder das Verschreiben von Medikamenten.
Im Idealfall ist der Patient anschließend auf dem Wege der Besserung, ansonsten beginnt obige Schleife erneut. Häufig ist während dieses Prozesses eine Überweisung zu Fachärzten oder ein Konsil mit medizinischen Fachkollegen notwendig, was noch komplexere Behandlungspfade nach sich zieht.
Genau in diesen klinischen Prozessen kann KI unterstützen. Anders als oft vermutet oder gar befürchtet, geht es dabei nicht um den Ersatz der Ärztin oder des Pflegers durch KI und Roboter. Um zu verstehen, warum KI gerade jetzt so bedeutsam für diesen Teil der medizinischen Versorgung wird, hilft ein Blick in die Geschichte des maschinellen Lernens und insbesondere der Entwicklung der oben genannten Transformer beziehungsweise generativen KI.
KI-Winter und KI-Sommer
Die Anfänge der KI liegt in den 50er Jahren des letzten Jahrhunderts mit Alan Turing als herausragendem Pionier. Er stellte die weitreichende Frage: Wenn Menschen verfügbare Informationen sowie logisches Denken nutzen, um Probleme zu lösen, warum sollten Maschinen nicht dasselbe tun können? Leider war die Realisierung dieses KI-Ansatz zu seiner Zeit technisch unmöglich.
Im Jahr 1956 fand eine historische Konferenz statt – die "Dartmouth Summer Research Project on Artificial Intelligence". Sie sorgte für eine Blütezeit der KI-Forschung bis in die 70er Jahre. Während dieser Zeit wurden das sogenannte Rosenblatt-Perceptron und die Bellman-Gleichung vorgeschlagen, die die theoretische Grundlage für das moderne Deep Learning und das Reinforcment Learning bilden. Mit der Zeit verloren die Geldgeber die Geduld und der sogenannte KI-Winter begann. Dieses zyklische Muster aus wissenschaftlichen Durchbrüchen, Euphorie und Investitionen verbunden mit hohen, wundergleichen Erwartungen, Enttäuschung und schwindendem Interesse wiederholte sich mehrmals. In den 90er und 2000er Jahren war der Begriff KI praktisch aus der öffentlichen Wahrnehmung verschwunden.
Jenseits der Erfahrungen im eigenen Unternehmen und der Branchenexpertise der Data Scientists ist es hilfreich, aus Best Practices anderer Unternehmen und Anwendungen zu lernen. Hierfür bietet sich die KI-Navigator-Konferenz an, die am 20. und 21. November 2024 in Nürnberg stattfindet.
Die von DOAG, Heise Medien und de’ge’pol ausgerichtete Veranstaltung ist die zentrale Plattform für Entscheidungsträger aus Wirtschaft, Technik und Gesellschaft, um sich über die praktischen Anwendungen und Herausforderungen der KI in Deutschland auszutauschen. In dieser Konferenz steht der praktische Nutzen im Vordergrund, wobei die Teilnehmenden direkte Einblicke in erfolgreiche Implementierungen und Optimierungen von KI-Systemen erhalten.
Zusätzlich fördert die KI-Navigator-Konferenz den Austausch von Best Practices und ermöglicht das Knüpfen von strategischen Partnerschaften, um die dynamischen Entwicklungen in der KI-Branche nachzuvollziehen und innovative Lösungen zu erkunden, die bereits heute die Grenzen des Machbaren in der Technologie, Wirtschaft und Gesellschaft verschieben.
Ironischerweise erzielte die KI-Forschung gerade in der Abwesenheit staatlicher Förderung und öffentlicher Begeisterung viele technische Durchbrüche. IBMs Deep Blue besiegte Gary Kasparov. Spracherkennungssoftware hielt schrittweisen Einzug in viele Endgeräte und mit Cortana auch in Windows. Emotionserkennung wurde wissenschaftlich vorangetrieben und im First Level Support kommerziell eingesetzt. Googles AlphaGo besiegte den damals besten menschlichen Spieler Lee Sedol im Go-Spiel, das zuvor als von Maschinen nicht erlernbar galt. Und eine KI machte öffentlich einen Frisörtermin aus, eine nette Verkehrung unserer Erwartung.
Das öffentliche Interesse ist seit der öffentlichen Präsentation von ChatGPT im November 2022 zurück, und die Aufbruchstimmung ist dieses Mal noch gewaltiger. Algorithmisch geht es im Kern immer noch um lineare Algebra und Wahrscheinlichkeitsrechnung. Auch die grundsätzliche Art und Weise, wie wir Maschinen Intelligenz antrainieren, ist geblieben.
Der erneute Boom liegt zunächst einmal an den verbesserten Werkzeugen: Moderne GPU- und ASIC-Architekturen haben um viele Größenordnungen höhere Rechenressourcen und Speicherkapazitäten als die Rechner in den 90er Jahren, und sie sind optimiert für Operationen der linearen Algebra. Der etwa zwanzigfach gestiegene Börsenwert von Nvidia über die letzten fünf Jahre beruht im Kern auf der Erkenntnis: "It’s linear algebra, stupid!".
Ein weiterer Grund ist die exponentiell fortschreitende Digitalisierung von vielen Lebensbereichen. Wir erzeugen, speichern und verarbeiten immer mehr Daten, auch und gerade in der Medizin. Die global produzierte Menge an medizinischen Bilddaten liegt derzeit in der Größenordnung von einem Petabyte pro Jahr. Das entspricht etwa 500 Milliarden voll bedruckten DIN-A4-Seiten.