World Health Summit

Ehemaliger Charité-Chef sieht großes Potenzial in Big Data

| Lesedauer: 3 Minuten

Foto: worldhealthsummit.org

Rund 1000 Vertreter aus Wissenschaft, Politik, Wirtschaft und Zivilgesellschaft werden zum World Health Summit erwartet. Im Morgenpost-Interview spricht Initiator Detlev Ganten über neue Chancen.

Beim World Health Summit der Charité kommen von Sonntag an mehr als 1000 Vertreter aus Wissenschaft, Politik, Wirtschaft und Zivilgesellschaft zusammen, um nach Lösungen für die Gesundheit der Menschen weltweit zu suchen. Initiiert wurde er vom damaligen Charité-Chef Detlev Ganten. Der World Health Summit soll die Zusammenarbeit unterschiedlicher Organisationen stärken. Thema dabei: Big Data. Jede Klinik und jedes Forschungszentrum birgt einen geheimen Schatz: eine Unmenge an Patienten- und Studiendaten. Mit Detlev Ganten, Präsident des WHS, sprach Shari Langemak über Chancen und Risiken für die Wissenschaft.

Berliner Morgenpost: Herr Prof. Ganten, wieso ist „Big Data“ jetzt mehr denn je ein drängendes Thema in der Wissenschaft?

Detlef Ganten: Die Forschung hat in den vergangenen Jahren immense Fortschritte gemacht. Mittlerweile ist es uns nicht nur möglich, zunehmend mehr klinische Untersuchungsdaten zu erheben, sondern darüber hinaus auch das Erbgut jedes Menschen bis ins Detail zu analysieren. Zudem können riesige Datenmengen dank weitreichender Fortschritte im IT-Bereich nun zuverlässig gespeichert, an andere Forschungszentren weitergeleitet und für neue Therapieansätze ausgewertet werden. All das bietet bislang unerreichte Möglichkeiten für die Patientenforschung.

Von welchen Möglichkeiten sprechen wir hier?

Vor allem chronische Erkrankungen stellen uns derzeit noch vor erhebliche Herausforderungen. Wir wissen noch viel zu wenig über die Genese und den Verlauf von Volkskrankheiten wie Diabetes, Herz-Kreislauf-Erkrankungen und psychiatrische Erkrankungen. Um die Behandlung und Prävention zu verbessern, sollten wir künftig die komplette Bandbreite von medizinischen Daten nutzen. Insbesondere genetische Daten müssen zunehmend in Zusammenhang mit klinisch erhobenen Daten gestellt werden.

Beginnend ab dem Jahr 2014 sollen Erbgut und Gesundheit von 200.000 deutschen Teilnehmern einer Studie über Jahrzehnte untersucht werden. Wie soll die Analyse dieser Datenflut bewältigt werden?

Tatsächlich wäre diese Langzeitstudie, die sogenannte Nationale Kohorte, noch vor einiger Zeit nicht möglich gewesen – allein aufgrund der Datenmenge. Doch in den vergangenen Jahren wurden innovative Methoden entwickelt, mit denen Gesundheitsdaten zuverlässig erhoben werden können. In jedem beteiligten Studienzentrum in Deutschland wurden Mitarbeiter vorbereitet, um eine hohe Qualität der Daten zu gewährleisten und die Zusammenarbeit der einzelnen Fachdisziplinen zu stärken.

Wie wird gewährleistet, dass derartig sensible Informationen tatsächlich nur für Studienzwecke gebraucht werden und die Anonymität der Beteiligten gewahrt bleibt?

Deutschland ist bekannt für seine verständliche Skepsis in Sachen Datensicherheit. In der Zwischenzeit ist es aber gelungen, ein System zu entwickeln, mit dem Patientendaten zentral gespeichert werden können, das aber gleichzeitig eine vorbildliche Sicherheit gewährleistet. Die Daten werden schon bei der Erhebung nur anonymisiert gespeichert. Und andere Studienzentren können nur auf die Analyseergebnisse, nicht aber auf die ursprünglichen Daten zugreifen. Ein Missbrauch der Daten wird so von Beginn an ausgeschlossen.