Automatisierte Benchmarking-Studie prüft Stabilität von Echtzeit‑EHR‑Daten
Hintergrund und Zielsetzung
Ein Forscherteam um Jessica Liu hat ein automatisiertes Benchmarking‑Verfahren entwickelt, um die Qualität und Stabilität von nahezu Echtzeit‑Elektronischen‑Gesundheitsakte‑Daten (EHR) zu prüfen. Ziel war es, herauszufinden, wann solche Daten für sekundäre Analysen, operative Nutzung und klinische Forschung verlässlich sind.
Datengrundlage und Transformationsschritt
Die Untersuchung basierte auf Daten aus dem klinischen Data‑Warehouse von Yale New Haven Health, die in das OMOP‑Common‑Data‑Model überführt wurden. Insgesamt wurden 29 wöchentliche Schnappschüsse von Juli bis November 2024 sowie 22 tägliche Schnappschüsse von April bis Mai 2025 analysiert.
Methodik des Benchmarkings
Die Benchmark‑Kriterien umfassten (1) klinische Aktionen wie Hinzufügen, Löschen und Zusammenführen von Patientendatensätzen, (2) Änderungen in demografischen Variablen (Geburtsdatum, Geschlecht, Rasse, ethnische Herkunft) und (3) die Stabilität von Entlassungszeitpunkt und -status. Vor den großflächigen Analysen wurde das Verfahren mit einem synthetischen Datensatz aus MIMIC‑III validiert.
Ergebnisse zu klinischen Aktionen
Die Analyse zeigte, dass zwischen aufeinanderfolgenden Schnappschüssen häufig klinische Aktionen stattfanden, wodurch Patientendatensätze regelmäßig aktualisiert wurden. Solche Änderungen wurden als normaler Bestandteil des klinischen Workflows identifiziert.
Demografische Anpassungen
Demografische Variablen änderten sich besonders häufig bei den Angaben zu Rasse und ethnischer Herkunft, was auf inkonsistente Dateneingaben und nachträgliche Korrekturen hinweist. Änderungen bei Geburtsdatum und Geschlecht traten seltener auf.
Stabilität von Entlassungsinformationen
Entlassungszeitpunkt und -status erwiesen sich für mehrere Tage nach dem jeweiligen Aufenthalt als instabil. In den meisten Fällen erreichten die Werte innerhalb von 4 bis 7 Tagen einen stabilen Zustand, sodass Analysen nach diesem Zeitraum zuverlässiger sind.
Schlussfolgerungen und Implikationen
Die Studie belegt, dass automatisiertes Benchmarking die Integrität von Echtzeit‑EHR‑Daten beurteilen kann und klare Zeitfenster für die Datenstabilisierung liefert. Die vorgestellte Methodik lässt sich auf weitere Gesundheitssysteme übertragen, um die Qualität sekundärer Datenanalysen, Überwachungsaufgaben und die Vorbereitung klinischer Studien zu verbessern.Dieser Bericht basiert auf Informationen von PLOS ONE, lizenziert unter Creative Commons BY 4.0 (Open Access).
Ende der Übertragung
