Big Data auf dem Gesundheits- und Sozialsektor  

28.06.2016 – Ob Selbsthilfeforen, Patientenportale oder Routinedaten – auf dem Gesundheits- und Sozialsektor entstehen in hoher Geschwindigkeit große Datenmengen. Welche Potenziale die Verknüpfung und Interpretation dieser Informationen bietet und wie sich der immer größer werdende Input verwalten und analysieren lässt, stand im Zentrum der Tagung „Big Data auf dem Gesundheits- und Sozialsektor“ Mitte Juni an der FOM Essen.

Den ersten Vortrag des Tages hielt Prof. Dr. Sascha Koch. Der FOM-Wirtschaftsinformatiker hatte u.a. verschiedene Fälle von Big-Data-Analysen im Gepäck. Nike beispielsweise habe seine Sportprodukte mit Sensorik ausgestattet, zudem könnten Kunden ihre Trainingsdaten auf einer Community-Website hochladen. „Dadurch kann der einzelne seine Technik verbessern oder sich mit anderen messen. Für den Sportartikelhersteller selbst springt kurzfristig eine Steigerung von Markenbindung und Umsätze heraus. Mittelfristig können die Daten darüber hinaus für personalisierte Werbung genutzt werden“, erklärte Prof. Dr. Koch. Mit Blick auf den Gesundheits- und Sozialsektor stellte er vier Bereiche heraus, in denen aktuell zu Big Data geforscht wird: molekulare Daten, komplexe Bilder (z.B. Gehirndarstellungen durch bildgebende Verfahren), hochfrequente Patientendaten sowie durch die Bevölkerung in den sozialen Medien erzeugte Daten. „Ein Anwendungsbeispiel sind Genexpressionsanalysen für klinische Vorhersagen: Welche Art von Krebs hat ein Patient? Und wird er einen Rückfall erleiden? Zudem kann man Vorhersagen treffen: Sollte ein Patient von der Intensivstation entlassen werden oder würde er von einer längeren Verweildauer profitieren? Und wie hoch ist die Überlebensrate von Patienten über 50?“

Als zweites trat Prof. Dr. David Matusiewicz ans Podium. Der Direktor des ifgs Institut für Gesundheit & Soziales sprach über die Rolle von Routinedaten im Gesundheitswesen. Seine These: „Sekundärdaten – also standardisierte Informationen, die vor allem zu Abrechnungszwecken mit den Leistungserbringern erhoben werden – sind eine wichtige Datenquelle für die Gesundheitsberichtserstattung, Evaluation und Steuerung des Gesundheitssystems. Sie können u.a. bei der Versorgungsforschung oder gesundheitsökonomischen Analysen zum Einsatz kommen.“ Allerdings gäbe es in der Praxis teilweise noch elementare Herausforderungen: Wie steht es beispielsweise um die Qualität der Daten? Lassen sich Routinedaten über mehrere Jahre ohne Probleme verknüpfen? Wie steht es um den Datenschutz? Welche Software eignet sich für die Auswertung? Und was tun bei schwer interpretierbaren Ergebnissen? „Es müssen definitiv noch weitere methodische Standards für die wissenschaftliche Nutzung dieser Daten etabliert werden, die den spezifischen Voraussetzungen und Rahmenbedingungen der Sekundäranalyse gerecht werden.“, betonte Prof. Dr. Matusiewicz.

„Process Mining im Krankenhaus“ lautete der Schwerpunkt des sich anschließenden Vortrags von Prof. Dr. Thomas Russack. „Hinter Process Mining verbirgt sich eine Methode, mit der – auf Basis der in Prozessen erzeugten elektronischen Daten – reale Abläufe und Interaktionen identifiziert, überprüft und verbessert werden können“, erläuterte der FOM-Experte für Prozessmanagement. Die konkrete Anwendung sollte sich um folgende Fragestellungen drehen: In welcher Form läuft ein Prozess in der Praxis am häufigsten ab und welche alternativen Abläufe gibt es? Gibt es für dieselbe Behandlung unterschiedliche Prozessabläufe für unterschiedliche Patientengruppen? Stimmen die Prozesse mit internen und externen Richtlinien überein? Und welche Engpässe existieren in einem Prozess? „Für zukunftsorientierte Häuser, die eine wirkliche Transparenz und Verbesserung ihrer Prozesse anstreben und die in Bezug auf Kompetenz, Kultur und Prozessmanagement-Gesamtkonzept darauf vorbereitet sind, bietet Process Mining einen wertvollen Baustein, insbesondere zur Ermittlung und Darstellung der Ist-Abläufe“, fasste Prof. Dr. Russack zusammen.

Wie das in der Praxis aussehen kann, machte Dr. Daniel Koch an einem Beispiel deutlich: Der Prozessanalytiker der uhb consulting AG berichtete über den Einsatz des Celonis Pathfinder in der Notfallambulanz. „Das Tool bildet tatsächliche Prozessabläufe grafisch ab und ermöglicht eine Auswertung zu Themen wie OP-Pünktlichkeit und Auslastung“, erklärte er. Allein durch diese Erfassung, Bewertung und Besprechung des IST-Zustandes seien Verbesserungen möglich. „Auf Basis der Daten lassen sich zudem Leitlinien etablieren, Dienstpläne optimieren oder Verantwortlichkeiten definieren.“

Mit dem richtigen Weg zum geeigneten Krankenhaus setzten sich Prof. Dr. Rüdiger Buchkremer und Prof. Dr. Christoph Winter im letzten Vortrag der Tagung auseinander. Die beiden FOM-Experten waren sich einig: Die übliche – paternalistische – Entscheidungsfindung über die Beratung durch den OP-indikationsstellenden Arzt hat ausgedient. „Nutzen Sie Big Data und vertrauen Sie den besten Datenquellen im Netz“, lautete ihre Empfehlung, „seien es Krankenhausfinder der Krankenkassen oder online zugängige Fachliteraturdatenbanken.“ Auf Basis der zugängigen Informationen solle man einen klaren Entscheidungsweg konstruieren sowie Qualitätsmerkmale und Präferenzen festlegen. „Dabei sollten Sie allerdings auf keinen Fall vergessen, vertraute, sachkundige Personen zu befragen und vor Ort einen Sympathiecheck zu machen“, gaben sie ihren Zuhörerinnen und Zuhörern einen abschließenden Ratschlag.

Stefanie Bergel, Referentin Forschungskommunikation