Die Idee eines Journalisten, der gleichzeitig Arzt ist
SWR-Journalist Patrick Hünerfeld, Arzt und Autor von Wissenschaftsdokumentationen, brachte die ursprüngliche Idee ein. Er will die Reanimationsketten in Deutschland unter die Lupe nehmen. Dabei sollte ein umfassender journalistischer Rundumschlag recherchiert werden, von der Notfallerkennung über die Reanimation durch Laien bis hin zur professionellen Versorgung. Allen Rechercheuren wurde bald klar, dass es hier sehr viele Daten gibt, aber kaum Transparenz darüber. Das Deutsche Reanimationsregister beispielsweise sammelt zwar wichtige Informationen, diese sind aber nicht öffentlich zugänglich. Deshalb hat sich ein Team aus 17 SWR-Mitarbeitenden an die journalistische und technische Arbeit gemacht: Daten selbst erheben, Daten selbst validieren und Daten selbst einordnen. Die Datenlage war komplex, teils lückenhaft. Die Bevölkerungszahlen mussten für die Einheiten von Hand neu berechnet werden, die Leitstellenstrukturen in der Notfallrettung differierten bei Verwaltungsgrenzen. „Wir hatten einen Mix aus offiziellen Quellen, medizinischen Studien, App-Daten und statistischen Ämtern. Dazu war eine große Portion Recherchehandwerk nötig“, schildert Ulrich Lang, der mit seinen Kolleg*innen für die Datenanalyse im Projekt zuständig war, die Ausgangslage
Im Kraftakt Daten aus 283 Rettungsdienstbereichen erhoben
In über 280 Rettungsdienstbereichen wurden standardisierte Anfragen gestellt. Grundlage war ein strukturierter Fragebogen, der die sieben zentralen Dimensionen der Reanimationsversorgung abbildete. Gibt es ein Qualitätsmanagementsystem in der Leitstelle? Wird eine strukturierte oder standardisierte Notrufabfrage (SSNA) verwendet? Wird die Häufigkeit von Telefonreanimation dokumentiert? Kommt eine First-Responder-App zum Einsatz? Erreichen Rettungsmittel 80 Prozent der Fälle innerhalb von acht Minuten? Wie ist die Überlebensrate bis zur Klinikeinlieferung? Welche regionalen Unterschiede ergeben sich daraus?
Personalisierte Datenvisualisierung: Die Webstory
Das Ergebnis ist viel mehr als eine reine Datenanalyse und ihre Ergebnisse. Auf notfallrettung.swr.de entstand eine interaktive und personalisierte Web-Story. Wer hier Alter, Geschlecht und Wohnort eingibt, erfährt alles rund um sein persönliches Risiko bei einem Herz-Kreislauf-Stillstand. Die Anwendung zeigt u.an, wo Rettungswagen zu oft zu spät kommen, wo es an strukturierten Abläufen fehlt, in welchen Regionen es besonders heikel ist oder etwa welche Positivbeispiele es gibt. Zum Beispiel dort, wo First-Responder-Apps Menschenleben retten.
Das Projekt verbindet Daten, Design und persönliche Ansprache in einem Paradebeispiel für Civic Data Journalism.
Daten-Dossiers für viele und Recherche zum Teilen
„Für uns war es eine Innovation, dass wir die Erstellung von automatisierten Daten-Dossiers für alle ARD-Redaktionen vorbereitet haben. Wir haben dies auf Ebene von Rettungsdienstbereichen, Bundesländern ausgewertet und das dann für ganz Deutschland aufbereitet. Diese PDFs enthielten nicht nur lokal relevante Datenauszüge, sondern auch journalistisch nutzbare Hintergrundinformationen und Rechercheansätze, auf Basis einer einheitlichen Template-Struktur. Unser Ziel war, möglichst vielen Kolleg*innen eine präzise, lokal anschlussfähige Recherchegrundlage zu geben“, sagt Autorin Maren Krämer. In den Wochen vor der Veröffentlichung wurden im Projekt zusätzliche Sprechstunden für alle interessierten Kolleg*innen in der ARD angeboten. Ein ganz neuer Weg der datenbasierten Vernetzung innerhalb der Landesrundfunkanstalten. Im Ergebnis konnten so Millionen von Menschen durch TV-, Hörfunk-, Print- und Online-Formate von der Problemlage und ihren Lösungsmöglichkeiten erfahren.
Daten, die wirken und Politik bewegen
Der damalige Bundesgesundheitsminister bestätigte die gezeigten Missstände und bezeichnete die Reform der Notfallversorgung als überfällig. Er griff zentrale Forderungen auf, etwa nach mehr Qualitätsmanagement und der Nutzung digitaler Ersthelfer-Apps, und sprach von tausenden Menschenleben, die mit besseren Standards gerettet werden könnten.
Was war entscheidend für den Erfolg?
Validierung: Besonders großen Wert hat das Projektteam auf die Validierung der Daten gelegt. Wir haben in drei Runden Rückfragen gestellt, haben kontinuierliche die Verantwortlichen mit Zwischenergebnissen konfrontiert, bis die Daten für uns wirklich belastbar waren“, führt Ulrich Lang aus.
Transparenz: Auch die Transparenz bei der Auswertung der Ergebnisse ist wichtig für die Interpretation der Daten. „Wir haben die Lücken gezeigt und offengelegt, wo wir kein Datenmaterial hatten. Bei den Ergebnissen beim Fragebogen mit „keine Angabe“ haben wir dies als Aussage mit Signalwirkung gewertet“, so Lang.
Technikstapel: Das Team hat R /RStudio für die Analyse, QGIS für die Karten, Datawrapper für die Visualisierungen und die ARD-ZDF-Cloud für die Verteilung von Informationen genutzt. Open Source wurde immer eingesetzt, wenn es möglich war.
Überlegungen zur Wirkung: Die persönliche Betroffenheit der Menschen beim Thema „Notfallrettung“ wurde von Anfang an bewusst in die Storytellingstruktur mit integriert. „Die persönliche Betroffenheit erzeugt eine emotionale Resonanz beim Publikum. Sie basiert auf persönlichen Erfahrungen und Bedürfnissen, was zu einer stärkeren Identifikation führt und zu einer höheren Wahrscheinlichkeit, dass die Botschaft im Gedächtnis bleibt“, erläutert Krämer.
Daten und Journalismus können Leben retten
Dieses Projekt zeigt, welches Potenzial in Datenrecherche plus Communitydenken liegt. Die Methode könnte skalierbar sein. Und sie ist ein starkes Argument für das Prinzip Open Data. Denn nur, wenn Problemlagen und ihre Lösungen sichtbar sind, können sie auch verändert werden.
Autor:innen und Daten-Team
- Jan Russezki, Maren Krämer
- Rechercheteam: Gina La Mela, Tom Burggraf, Patrick Hünerfeld, Katharina Forstmair
- Webentwicklung: Simon Jockers, Felix Michel, David Will
- Datenanalyse: Ulrich Lang, Ina Kohler, Natalie Widmann
- Data Engineering: Heiko Sonnenberg, Michael Kreil
- Design: needs people GmbH
- Redaktion: Nico Heiliger, Elisa Harlan, Johannes Schmid-Johannsen
Hintergrund, Vorgehen und Learnings
Herausforderung: Ein fragmentiertes Rettungssystem strukturieren
- teil-automatisierte Datenerhebung und -validierung,
- technische Standardisierung,
- geobasierte Aufbereitung und
- redaktionsübergreifende Verteilung
Von SQL zu interaktiver Story
Tools:
- R / RStudio: Zentrale Plattform für Datenanalyse, Auswertung und Visualisierungen.
- QGIS: Verarbeitung und Visualisierung von Geodaten (inkl. manuell erstellter Rettungsdienstgrenzen).
- Datawrapper: Für interaktive Karten und Diagramme.
- ARD-ZDF-Box (Nextcloud-basiert): Verteilinfrastruktur für Recherchematerialien und Dossiers.
- GEOJSON: Basis für die geografische Kartierung.
- SQL + CSV-Pipeline: Speicherung, Transformation und Export der Umfrageergebnisse.
Personalisierte Webanwendung mit regionalem Kontext
Die Webstory auf notfallrettung.swr.de geht weit über klassische Datenportale hinaus: Sie kombiniert parametrisierte Datenfilter (Alter, Geschlecht, Wohnort) mit einer Storyline zur Reanimationsversorgung.
Automatisierte Daten-Dossiers: „Local-first“-Recherche mit System
Das SWR-Team entwickelte ein Template-System, um automatisch generierte PDF-Dossiers auf Basis von SQL-Datenbanken zu erstellen. Jede ARD-Redaktion bekam:
- einen Grundlagenartikel,
- Abschnitte zu Bundesland- und Rettungsdienstbereich,
- passende Diagramme und Karten.
Das bedeutete: Skalierung datenjournalistischer Arbeit für 9 Landesrundfunkanstalten mit über 100 Regionalstudios – ohne redaktionellen Mehraufwand pro Region.
Über Wochen wurden Sprechstunden angeboten, um mit Datenkompetenz und Anwendungshilfen die redaktionelle Nutzung zu maximieren.
Validierung und Plausibilitätsprüfung: „Human in the Loop“
- Drei Rückfragerunden bei den Rettungsdiensten,
- Crosschecks mit medizinischen Leitstellen und App-Betreibern,
- Klassifizierungen wie „keine Angabe“ als eigene, datensignifikante Kategorie,
- Transparente Darstellung methodischer Grenzen.
Ein wichtiges Prinzip: Nur Daten, die erklärbar und kontextualisierbar sind, dürfen publiziert werden.
Technikseitige Learnings:
- Automatisierte Dokumenterstellung aus SQL-Datenbanken schafft Skalierbarkeit.
- Open-Source (QGIS, R, ) ermöglicht kollaborative Analyse.
- Datenpersonalisierung erhöht Relevanz und Aufmerksamkeit, besonders im Storytelling.
- Cloudbasierte Dossier-Distribution fördert dezentrale Verwendung mit datenbasierter Tiefe.