Routinedaten aus der Abrechnung von Gesundheitsleistungen und der Dokumentation der Gesundheitsversorgung sind zunehmend wichtige Datenquellen für Studien in der Versorgungsforschung – auch in der Allgemeinmedizin. Dabei haben Studien mit diesen Daten besondere Vor- und Nachteile. In diesem Beitrag stellen wir die Vor- und Nachteile der Nutzung von Routinedaten in Studien vor. Der Artikel soll die Leser*innen befähigen, eine kritische Einordnung von auf Routinedaten beruhenden Studien systematisch und kriteriengestützt vorzunehmen.

Hintergrund

Die Nutzung von sog. Sekundärdaten, die ursprünglich nicht für Forschungszwecke vorgesehen waren, gewinnt in der Gesundheitsforschung zunehmend an Bedeutung, was sich auch in einer zunehmenden Zahl an Publikationen, nicht zuletzt auch aus der Allgemeinmedizin, ablesen lässt [2, 6, 10, 11, 24, 25]. Daher ist es für die Leser*innen wissenschaftlicher Publikationen wichtig, Artikel, die auf der Analyse von Sekundär- bzw. Routinedaten beruhen, einordnen und kritisch bewerten zu können. Dieser Beitrag soll die Leser*innen befähigen, diese kritische Einordnung systematisch und kriteriengestützt vorzunehmen [27]. Dafür werden wir zuerst definieren, was Routinedatenanalyse bzw. Sekundärdatenanalyse ist und übliche Datenquellen nennen. Nach einem Verweis auf die wichtigsten Leitlinien in diesem Feld werden wir die Potenziale und Limitationen von Routinedatenanalysen darstellen und typische Aspekte, auf die Leser*innen achten sollten, herausarbeiten. Wir konzentrieren uns dabei auf nicht-interventionelle Studien, zeigen aber im Ausblick dann die Bedeutung von Routinedatenanalysen in der Interventionsforschung auf.

Definitionen

In der Gesundheitsversorgung fallen bei der Dokumentation und Abrechnung zahlreiche Daten an. Für die Nutzung dieser Daten in der wissenschaftlichen Forschung sind unterschiedliche Begriffe gebräuchlich, so betont der Begriff Routinedaten die Art und Entstehung der Daten, während der Begriff Sekundärdaten die Nutzung der Daten jenseits des originären Ergebungszwecks betont. Die wissenschaftliche Nutzung von Daten, die primär nicht zu Forschungszwecken erhoben und dokumentiert wurden (Sekundärdaten), wird dabei von Primärdaten abgegrenzt, die im Rahmen wissenschaftlicher Forschung explizit für die Beantwortung wissenschaftlicher Fragestellungen erhoben, aufbereitet und analysiert werden. Eine dritte häufige und eher inhaltlich geprägte Begrifflichkeit sind versorgungsnahe Daten, um zu betonen, dass die Daten aus dem Kontext der unmittelbaren Gesundheitsversorgung stammen.

Datenquellen für Sekundärdatenanalysen in der Gesundheitsforschung

Die möglichen Quellen für Sekundärdaten sind vielfältig und stetigen Erweiterungen und Veränderungen unterzogen. Sehr häufig werden Abrechnungsdaten der Gesundheitsversorgung genutzt, diese können von Krankenkassen bzw. anderen Sozialversicherungsträgern, jedoch auch von kassenärztlichen Vereinigungen oder von den Leistungserbringern direkt verfügbar gemacht werden. Neben Abrechnungsdaten sind die Daten zur Gesundheitsversorgung des Forschungsdatenzentrums (z. B. Krankenhausstatistik) zu nennen [7], aber auch Behandlungsdaten stellen eine wichtige Form von Routinedaten dar. Dazu gehören beispielsweise im niedergelassenen Bereich Daten aus Arztinformationssystemen und im stationären Sektor solche, die unmittelbar in der Krankenversorgung entstehen, wie klinische Behandlungsdaten, Diagnosen oder Labordaten. Aufgrund der zunehmenden Digitalisierung der Gesundheitsversorgung ergeben sich auch neue Quellen für Sekundärdatenanalysen, beispielsweise Daten aus der Telemedizin, dem Telemonitoring, Gesundheitsapplikationen und digitalen Gesundheitsanwendungen. Teilweise werden diese Datenquellen auch miteinander oder mit zu wissenschaftlichen Zwecken erhobenen Primärdaten verknüpft (Daten-Linkage; [12, 13]).

Leitlinien zur Durchführung und Berichterstattung von Sekundärdatenanalysen

Für die Routine‑/Sekundärdatendatenanalyse auf der Basis etablierter Standards fortgeschriebene Leitlinien bieten eine Orientierung für Forscher*innen zur Planung und Durchführung von Sekundärdatenanalysen („Gute Praxis Sekundärdatenanalyse – GPS“, basierend auf der Leitlinie zur „Guten Epidemiologischen Praxis – GEP“; [26]). Andererseits bieten sie Autor*innen und Leser*innen Hinweise zur Berichterstattung und kritischen Bewertung von Sekundärdatenanalysen („standardisierte Berichtsroutine für Sekundärdatenanalysen“, STROSA; Tab. 1; [27]; bzw. international die „RECORD“-Leitlinie [1]). Wir greifen verschiedene für kritische Leser*innen wichtige Aspekte dieser Leitlinien im Folgenden auf.

Zur Beurteilung von Publikationen, die auf der Analyse von Routinedaten beruhen, eignen sich die grundlegenden Leitfragen, adaptiert nach Donner-Banzhoff (2007) [3]. Um Studiendesign, Datenbasis und Plausibilität entsprechend dieser Leitfragen zu beurteilen, bietet sich das STROSA-Statement an, das in Bezug auf methodische Aspekte der Sekundärdatenanalyse stärker ins Detail geht [3]. Dabei sollte ein besonderes Augenmerk auf die in Tab. 1 fett gedruckten Punkte gelegt werden, an denen die für Sekundärdaten geltenden Spezifika abgelesen werden können. Aus der Publikation müssen die Datenherkunft, der Prozess der Datenaufbereitung und -prüfung, die Ein- und Ausschlusskriterien sowie die Operationalisierung untersuchter Entitäten und die Analyseeinheit hervorgehen. In der späteren Diskussion der Ergebnisse sollten Potenziale und Limitationen der Routinedaten und konkret die interne Validität des Studienansatzes explizit thematisiert werden.

Tab. 1 Berichterstattung von Sekundärdatenanalysena

Vor- und Nachteile von Sekundärdatenanalysen

Generelle Aspekte

Ein wichtiger Vorteil von Routinedaten ist, dass diese üblicherweise in hohen Fallzahlen und longitudinal also längsschnittlich vorliegen. Daher eignen sich Sekundärdatenanalysen besonders zur Analyse von Trends [21, 23], für regionale Vergleiche [30] oder zur Analyse von Minderheiten und kleinen Subpopulationen [22] bzw. seltenen Erkrankungen sowie für deskriptive Darstellungen der Versorgungsrealität und können in der Vorbereitung von prospektiven Primärdatenerhebungen hypothesengenerierend und für Fallzahlschätzungen herangezogen werden [5, 14, 15, 19, 20]. Ergänzend finden Routinedaten zunehmend Einsatz in Evaluationen neuer Versorgungsformen bzw. -interventionen sowie gesundheitsökonomischen Analysen [9].

Sekundärdatenanalysen sind hinsichtlich Kosten und zeitlichem Aufwand ressourcenschonender als prospektive Primärdatenerhebungen, da die Daten bereits vorliegen und nach der, teils mit erheblichem Aufwand verbundenen, Datenaufbereitung unmittelbar für die statistische Auswertung genutzt werden können.

Generelle Limitationen sind insbesondere in der Datenqualität zu sehen. In Studien mit Primärdatenerhebung werden die für die Beantwortung der Fragestellung erforderlichen Informationen prospektiv und spezifisch für Studienzwecke erhoben. Eine Herausforderung bei der Analyse von Routinedaten ist somit die Operationalisierung und Validierung aller für die Beantwortung der Fragestellung notwendigen Informationen, die teilweise in den Daten fehlen, nicht ideal operationalisiert vorliegen oder lediglich als Surrogatparameter verfügbar sind. Je nach Datenquelle variiert weiterhin der Anteil fehlender oder auch unplausibler Werte, die vor Beginn einer Sekundärdatenanalyse identifiziert und berücksichtigt werden müssen. Auch müssen mögliche Einflüsse auf die Datendokumentation kritisch hinterfragt werden. So ist im Bereich der klinischen Dokumentation im Vergleich zu Abrechnungsdaten neben der oft schlechten Datenqualität auch die häufig fehlende Standardisierung in der Dokumentation zu beachten. Ein wichtiger Punkt bei Abrechnungsdaten hingegen ist, dass diese zu Abrechnungszwecken erstellt wurden und es daher zu systematischen Einflüssen aus Fehlanreizen kommen könnte, beispielsweise welche Diagnosen kodiert werden, um den besten Abrechnungseffekt („upcoding“) zu erreichen [17]. Darüber hinaus werden vorrangig abrechnungsrelevante Aspekte kodiert; so spielt in der Praxis der hausärztlichen Versorgung die Genauigkeit von ICD-Codierungen aufgrund fehlender Codiervorschriften beispielsweise eine untergeordnete Rolle (z. B. ICD-Code XX.9). Mitunter leidet die Abbildbarkeit einzelner Leistungen an der Abrechnung über Pauschalen, z. B. in der vertragsärztlichen Versorgung. So führt die Abrechnung über Versichertenpauschalen pro Quartal dazu, dass die Häufigkeit der Konsultationen nicht genau bestimmt werden kann.

Selektionsbias und Generalisierbarkeit

Im Vergleich zu prospektiven Primärdatenerhebungen ist der Selektionsbias bei Routinedaten generell als niedriger zu bewerten, da häufig kein individueller Einwilligungsprozess erforderlich ist. Limitationen ergeben sich hier jedoch aus der Wahl der Datenquelle. So werden in Forschungsprojekten häufig die Daten einer oder einiger großer Krankenkassen oder Einrichtungen verfügbar gemacht und analysiert. Daraus ergibt sich gegenüber der Gesamtbevölkerung in Deutschland, mit einer besonders heterogenen Struktur und Vielfalt an Versicherungen und Einrichtungen, ein Selektionsbias, der sich nicht immer in Richtung und Ausmaß abschätzen lässt. So haben AOK-Versicherte im Vergleich zur Gesamtbevölkerung einen niedrigeren sozioökonomischen Status und einen höheren Anteil von Menschen mit Migrationshintergrund [8]. Durch einen solchen Selektionsbias ist es beispielsweise erklärbar, dass die Prävalenz von Herzinsuffizienz in der AOK-Versichertenpopulation im Jahr 2007 einen Prozentpunkt höher war als in der Allgemeinbevölkerung.

Aus diesen Gründen sollten die Ergebnisse nicht unkritisch als generalisierbar oder die Versorgungsrealität im Allgemeinen abbildend interpretiert, sondern stets kritisch vor dem Hintergrund der Selektion interpretiert und reflektiert werden. Bei der Bewertung von Publikationen von Sekundärdatenanalyse ist deshalb besonders auf die Beschreibung der Datenquelle zu achten und wie der Einfluss der Datenselektion auf die Ergebnisinterpretation von den Autor*innen diskutiert wird. Die Datenquelle sollte der Fragestellung angemessen und die Repräsentativität bzw. Einschränkungen in der Generalisierbarkeit transparent dargestellt werden.

Validität und Plausibilität von Sekundärdaten und Sekundärdatenanalysen

Die Validität von Sekundärdaten und darauf basierenden Analysen ist immer vor dem Hintergrund der jeweiligen Fragestellung und der dafür erforderlichen Informationen zu bewerten.

Mögliche Einflüsse auf die Validität von Sekundärdaten, wie der Einfluss von Fehlanreizen auf Abrechnungsdaten, wurden bereits angesprochen. Da die Daten nicht primär für wissenschaftliche Zwecke erhoben wurden, kommt deren Validität eine große Bedeutung zu. Dies muss bereits in der Planung einer Sekundärdatenanalyse mitgedacht und die Möglichkeit einer internen (oder externen) Validierung geprüft werden.

Eine interne Validierung von Diagnosen in Abrechnungsdaten könnte z. B. bedeuten zu prüfen, ob eine chronische Diagnose in mehreren Quartalen hintereinander codiert wurde, ob entsprechende, mit der Diagnose assoziierte Leistungen abgerechnet wurden und ob die Arzneimittelverordnungsdaten Verordnungen von in Umfang und Dosis der Person und einer leitliniengerechten Medikation entsprechenden Mengen enthalten [18]. Idealerweise würde zusätzlich eine externe Validierung auf individueller Fall- oder Personenebene durch Hinzuziehen weiterer Datenquellen, wie beispielsweise eines Registers oder von Krankenakten, durchgeführt.

Weiterhin ist im Rahmen von Qualitätssicherungsmaßnahmen z. B. ein Abgleich mit anderen Datenquellen, Expertenmeinung und bereits veröffentlichen Berichten möglich. So verglichen beispielhaft Ulrich u. a. ihre Ergebnisse zur Langzeitversorgung nach Herzinfarkt ausführlich mit bereits publizierten Daten [29]. Weiterhin sollten soziodemografische und sozioökonomische Merkmale der Studienpopulation nach Möglichkeit mit der Zielpopulation verglichen werden [4]. In einer Publikation von Sekundärdatenanalysen sollten die verwendeten Variablen sowie deren Auswahl, Operationalisierung und Methoden der Validierung und Plausibilisierung entsprechend berichtet werden.

Weitere spezifische Herausforderungen

Wie bereits unter dem Aspekt der Validität und Plausibilität beschrieben sind in die vorbereitenden theoretischen Überlegungen bei der Studienplanung auch andere Einflüsse auf zu untersuchende Zusammenhänge, wie Confounding oder Effektmodifikation, zu berücksichtigen. Daten, die zur Kontrolle dieser möglichen Störgrößen geeignet sind, sollten mitbetrachtet und die entsprechenden erwarteten Zusammenhänge sowie deren Kontrolle im Rahmen von statistischen Verfahren transparent dargestellt werden.

Im Gegensatz zu Studien mit Primärdatenerhebung ist eine Herausforderung dabei, dass Störgrößen häufig nicht prospektiv mit erhoben werden können und diese möglicherweise nicht oder lediglich durch Surrogatparameter kontrolliert werden können. Bei der Bewertung von Bias, Confounding und Effektmodifikation sollten Autor*innen und Leser*innen von Publikationen also hinterfragen, ob alle Einflüsse angemessen kontrolliert werden konnten oder die im Datensatz vorhandene Information (Variablen) unzureichend war und sich hieraus Limitationen hinsichtlich der Ergebnissee ergeben.

Ein weiterer wichtiger Aspekt ist, dass der zeitliche Bezug in Sekundärdatenquellen zwar häufig tagesgenau abgebildet ist, teilweise aber zeitliche Ungenauigkeiten durch das Abrechnungsprozedere entstehen (z. B. durch quartalsweise Abrechnung ambulanter Diagnosen) und Versorgungsverläufe damit teilweise nur grob abgebildet werden können. Dabei sollte auch je nach Datenquelle berücksichtigt werden, ob wirklich die gesamte Versorgung in den Daten abgebildet werden kann oder bestimmte Daten systematisch fehlen: Klinikinterne Daten enthalten beispielsweise nur die Daten des jeweiligen Krankenhausstandorts und überwiegend stationäre Falldaten, wohingegen in Daten der kassenärztlichen Vereinigungen stationäre Daten vollständig fehlen. Daten zur Rehabilitation bei erwerbsfähigen Personen sind in der Regel wiederum nicht bei Krankenkassen gespeichert, sondern bei den Rentenversicherungsträgern und umgekehrt.

Ein wichtiger Aspekt ist, die Analyseeinheit zu beachten, die in der Regel Personen oder Fälle darstellt. Eine Person kann sowohl in klinischen als auch in Abrechnungsdaten zu mehreren sog. Fällen führen, z. B. bei einer wiederholten Inanspruchnahme. Andersherum können zu Abrechnungszwecken jedoch auch mehrere Fälle zu einem Abrechnungsfall zusammengeführt werden. Es sollte daher immer klar dargestellt sein, ob es sich um Daten auf Personenebene oder auf Fallebene handelt und wie Mehrfachinanspruchnahmen in der Analyse gehandhabt wurden. In GKV-Abrechnungsdaten ist diese Differenzierung zwischen Fall- und Versichertenebene – und damit entsprechend differenzierte Analysen – durch Nutzung (pseudonymisierter) Versicherten- und Fallnummern eindeutig möglich. In anonymisierten Registerdaten ist das in der Regel nicht mehr möglich und Daten werden häufig auf Fallebene analysiert. Eine Risikopopulation kann jedoch in den meisten Datenquellen über Personen identifiziert und quantifiziert werden und damit können epidemiologische Maßzahlen, wie Inzidenz und Prävalenz, innerhalb der zugrunde liegenden Population oder andernfalls auch auf Fallebene bestimmt werden.

Während Drop-out und „loss to follow-up“ (Personen, die aktiv aus einer Studie ausschieden oder nicht mehr erreichbar sind) bei Primärdaten häufiger sind, kann es auch bei Routinedaten zu einer lückenhaften Datengrundlage über den zeitlichen Verlauf kommen. Gründe dafür sind beispielsweise Versicherungswechsel oder bei arztbasierten Daten ein Wechsel des Hausarztes. Insgesamt ist dieses „passive“ Follow-up in Sekundärdaten jedoch oftmals weniger selektiv als in Studien auf Basis von Primärdaten, weshalb z. B. in der NAKO-Gesundheitsstudie die Nachbeobachtung mit Sekundärdaten bezüglich relevanter epidemiologischer Endpunkte mit zunehmender Dauer der Studie an Bedeutung gewinnt [16].

Ausblick

Insgesamt eröffnen sich für die allgemeinmedizinische Forschung durch die Nutzung von Sekundärdaten neue Einblicke in das alltägliche Versorgungsgeschehen, die bis vor einigen Jahren nicht oder nur mit großem Aufwand möglich gewesen wären. Wir gehen davon aus, dass Routinedatenanalysen zukünftig, u. a. durch eine bessere Verfügbarkeit der Daten in dem neu etablierten Forschungsdatenzentrum Gesundheit [28] oder auch in der Evaluation von Interventionseffekten in randomisiert kontrollierten Studien [9], zum Beispiel in der Erfassung von Kosten und Endpunkten im Rahmen des Follow-ups, weiterhin an Bedeutung gewinnen.

Leser*innen von wissenschaftlichen Artikeln, die auf der Analyse von Routinedaten basieren, sollten daher darauf achten, ob diese angesprochenen Punkte adressiert wurden. Handelt es sich um eine relevante Fragestellung? Wurde begründet, warum eine Sekundärdatenanalyse statt einer Primärdatenerhebung gewählt wurde? Wurde die Auswahl, Selektion und Aufbereitung sowie die Operationalisierung der Variablen der verwendeten Routinedaten dargestellt und diskutiert? Wurden die Ergebnisse validiert und Verzerrungsrisiken diskutiert? Wurden die Einschränkungen der Aussagekraft und Generalisierbarkeit der Sekundärdatenanalyse kritisch betrachtet? Wenn diese Punkte kritisch und transparent dargestellt wurden, können Artikel mit Sekundärdatenanalysen tiefe Einblicke in die Versorgungsrealität bieten und damit wichtige Erkenntnisse für die Handlungspraxis von Hausärzt*innen generieren.

Fazit für die Praxis

  • Routinedaten werden zu einem anderen Zweck als für die wissenschaftliche Forschung erhoben, aber in der Sekundärdatenanalyse dann wissenschaftlich ausgewertet.

  • Routinedaten haben einen vergleichsweise geringen Selektionsbias und eignen sich daher für die Darstellung des realen Versorgungsgeschehen.

  • Aufgrund der verfügbaren größeren Fallzahl bieten sich Routinedaten für die Analysen von Subgruppen mit selteneren Merkmalen an.

  • Jedoch sollten die vorliegenden Routinedaten sowie die Ergebnisse der Sekundärdatenanalyse möglichst intern und extern validiert werden.

  • Publikationen von Sekundärdatenanalysen sollten anhand der entsprechenden Checklisten von Leser*innen genauso kritisch geprüft werden, wie Studien mit Primärdaten.