Diagnose-Algorithmus schützt Patientendaten

Für das Training von medizinischen Algorithmen steckt Oasis Labs sensible Informationen in Quarantäne.

In Pocket speichern vorlesen Druckansicht 5 Kommentare lesen
Roboter, Gesicht, Künstliche Intelligenz KI
Lesezeit: 1 Min.
Von
  • Veronika Szentpetery-Kessler

Forscher der Stanford Medical School wollen gemeinsam mit dem Startup Oasis Labs und weiteren Partner das Training medizinischer KI missbrauchssicher machen. Diese Algorithmen sollen später Krankheiten diagnostizieren und ihnen vorbeugen. Doch die riesigen Datenmengen an medizinischen Aufnahmen, genetischen Informationen und elektronischen Patientenakten, die die Algorithmen zum Lernen benötigen, können sensible persönliche Informationen enthalten. Deshalb soll das Training so abgesichert werden, dass die Daten nicht in unbefugte Hände geleakt oder anderweitig missbraucht werden können, schreibt Technology Review online in „Medizinische KI mit Datenschutz“.

Oasis Labs speichert die privaten Patientendaten auf einem gesicherten Chip, den es zusammen mit der UC Berkeley entwickelt hat. Die Daten bleiben dabei stets innerhalb der Oasis-Cloud. Außenstehende können Algorithmen einspeisen und Ergebnisse erhalten, ohne dass die Daten selbst jemals das System verlassen. Trifft eine Zugriffsanfrage ein, wird ein sogenannter smarter Vertrag ausgelöst, also eine Software, die einer Blockchain vorgeschaltet ist. Die Software notiert, wie die Daten verwendet wurden und prüft zudem, ob die Maschinenlern-Programmierung korrekt ausgeführt wurde. „Es ist sehr spannend, dass wir das mit echten Daten testen könne, um zu zeigen, dass es funktioniert“, sagt Dawn Song, Mitgründer von Oasis Labs und Professorin an der UC Berkeley.

Mehr dazu in Technology Review online in:

(vsz)