Projekt

Die Analyse von Gesundheitsdaten spielt eine entscheidende Rolle in der medizinischen Forschung und ermöglicht präzisere Diagnosen, effektivere Behandlungen und eine zukunftsorientierte Versorgung. Angesichts der Sensibilität solcher Daten ist jedoch ein sorgsamer Umgang unabdingbar, um sowohl gesetzliche Vorgaben als auch den Schutz der Privatsphäre der Patientinnen und Patienten zu gewährleisten. Besonders deutlich wird diese Herausforderung im Kontext des Trainings von Modellen der Künstlichen Intelligenz (KI), wo umfangreiche Datensätze zur Gewinnung verlässlicher Ergebnisse notwendig sind.

Beschreibung des Bildes
Das Bild zeigt den Unterschied zwischen verteilter Analyse und Datenzusammenführung: Links sind mehrere Knotenpunkte einer dezentralen Analyse zu sehen, während rechts die Datenströme zu einem zentralen Ort fließen.

Die Methodenplattform PrivateAIM (Privacy-preserving Analytics in Medicine) setzt genau an dieser Schnittstelle an und versucht, einen ausgewogenen Weg zwischen Datenschutz und Datennutzung zu ebnen. Sie folgt dem Grundsatz 'Code zu den Daten', bei dem die Gesundheitsdaten in den geschützten Umgebungen der Universitätskliniken verbleiben und lediglich die Auswertungsalgorithmen ausgetauscht werden. Diese Form der dezentralen Analyse gewährleistet, dass die Daten ihre sichere Umgebung zu keinem Zeitpunkt verlassen. Identitäten und sensible Gesundheitsinformationen der Patientinnen und Patienten bleiben somit uneingeschränkt geschützt und können von den Forschenden zu keinem Zeitpunkt eingesehen werden. Um dieses Ziel zu erreichen, widmet sich das PrivateAIM-Projekt der Entwicklung maßgeschneiderter KI-Methoden, Risikomodelle und Föderationsmechanismen. Diese Innovationen fließen in die neu entwickelte Software-Plattform FLAME (Federated Learning and Analysis in Medicine) ein und bilden damit den technologischen Kern für sichere, verteilte Auswertungen in der Medizininformatik-Initiative (MII).


Das PrivateAIM-Konsortium bringt eine Vielzahl von Expertinnen und Experten aus der Universitätsmedizin und anderen Institutionen zusammen. Insgesamt sind 17 Partner aus allen vier MII-Konsortien, einschließlich drei MII-geförderter Nachwuchsgruppen, am Projekt beteiligt. Ein besonderes Augenmerk liegt auf der aktiven Einbindung von Patientinnen und Patienten und anderen Interessengruppen, um vielschichtige Perspektiven in das Projekt einzubringen. Das Konsortium setzt sich intensiv dafür ein, den Bürgerinnen und Bürgern die technischen Verfahren für datenschutzkonforme, föderierte Auswertungen und das Machine Learning (ML) verständlich darzulegen. Ziel ist es, die Sicherheitsgarantien und den Schutz, den diese Methoden bieten, transparent und nachvollziehbar zu kommunizieren. Hierzu werden Patientinnen und Patienten und die breite Öffentlichkeit durch leicht verständliche Informationsmaterialien über die Arbeit von PrivateAIM aufgeklärt. Darüber hinaus werden Patientinnen und Patienten sowie weitere Stakeholder von Beginn an in Workshops eingebunden, um Konzeption, Implementierung und Bewertung der datenschutzfreundlichen föderierten Methoden aktiv mitzugestalten.


Bevor die Ergebnisse des Projekts in die Praxis umgesetzt werden, wird FLAME sowohl mit Benchmark-Datensätzen als auch in realen Anwendungen auf Herz und Nieren geprüft. Eine breite Akzeptanz wird durch ein mehrstufiges Rollout-Konzept angestrebt, welches die Datenintegrationszentren aller MII-Konsortien einbezieht. Die Bereitstellung als Open-Source-Software und die Zusammenarbeit mit verwandten Projekten tragen maßgeblich zur Nachhaltigkeit des Projekts bei. Über die nächsten vier Jahre hinweg wird die Methodenplattform PrivateAIM mit FLAME in der MII eine zusätzliche Möglichkeit bieten, medizinische Daten standortübergreifend effizient und sicher auszuwerten. Insbesondere für moderne KI-Methoden erschließen sich damit die dringend benötigten umfangreichen Datenmengen, ohne dabei den zentralen Aspekt des Datenschutzes für die Patientinnen und Patienten zu vernachlässigen.