Netzwerk Recherche feiert 1.000 Mitglieder

Jonas Schreijäg ist das 1000ste Mitglied von Netzwerk Recherche. Comiczeichnerin Naomi Fearn hat ihn und seine besten Geschichten in einer Urkunde verewigt.

Das Netzwerk Recherche wird nicht nur älter, sondern auch größer. Wir haben im März 2021, pünktlich zu unserem 20. Jubiläum, die magische Schallmauer von 1.000 Mitgliedern durchbrochen. Unser 1000stes Mitglied ist Grimmepreisträger Jonas Schreijäg. Comiczeichnerin Naomi Fearn hat ihn und seine besten Geschichten in einer Urkunde verewigt.

1.000 Mitglieder – das wollen wir feiern. Und weil wir gerade nicht gemeinsam anstoßen können, gehen wir das Ganze ein wenig journalistischer an, nämlich mit einer Datenanalyse: Wer sind wir eigentlich? Wie alt ist das durchschnittliche nr-Mitglied und wo kommen wir her? Hier gibt es alle viele Antworten. Stand der Daten ist Mitte März 2021.

Der (zuletzt) steile Weg zur 1.000

Netzwerk Recherche erfreute sich in den letzten Jahren wachsender Beliebtheit. Es hat mehr als 13 Jahre gedauert, um die ersten 500 Mitglieder zu gewinnen. Aber nicht einmal sieben für die nächsten 500.

Entwicklung der Mitgliederzahl

Ein exponentielles Wachstum ist das nicht. Aber davon hatten wir in den vergangenen Monaten ja auch wahrlich genug...

Weiterlesen

Panama Papers – weltweite Recherche-Kooperationen und jede Menge Daten

Seit einigen Tagen schlottern weltweiter Prominenz – vom Staatschef bis zum Fußballstar – die Knie. Die Panama Papers bringen lang unentdeckte Offshore-Geschäfte ans Licht, decken versteckte Milliarden auf und bringen einiges ins Wanken. Sie erhöhen den nötigen politischen und gesellschaftlichen Druck, Steueroasen trockenzulegen. Und sie zeigen auf, wie wichtig guter Recherche-Journalismus ist.

Was innerhalb des letzten Jahres hinter verschlossenen Türen recherchiert wurde und heute als unvergleichbare Enthüllungsgeschichte Wellen schlägt, begann mit einer kurzen E-Mail an das Investigativteam der Süddeutschen Zeitung. Aus der ersten Nachricht des „John Doe“ wurde eine stetig wachsende Datensammlung geleakter Informationen über die Geheimnisse der Kanzlei „Mossack Fonseca“, die von Panama City aus anonyme Briefkastenfirmen gründet: Zur Vertuschung großer Vermögen etwa, zur Geldwäsche, zur Finanzierung von Krieg und Terror oder der Umgehung von Sanktionen. Circa 2,6 Terabyte groß ist die Datenmenge, die der anonyme John Doe nach und nach an die Journalisten schickte. Schon früh war klar, dass dieser Berg an Informationen nicht von einer einzelnen deutschen Redaktion ausgewertet werden kann. Weiterlesen

E-Book zu Datenjournalismus erschienen

Datenjournalismus '14 - Netzwerk RechercheWas sind das für Menschen, die mit Zahlen und Daten Geschichten erzählen wollen?
Welche Herausforderungen stellen sich für den Datenjournalismus – und wo sind dessen eigene Grenzen vor dem Hintergrund jüngster Datenskandale?

Das in Kooperation mit epubli entstandene E-Book “Datenjournalismus ’14 und weitere Schwerpunkte der nr-Jahreskonferenz” kann auf der epubli-Seite eingesehen und erworben werden. Weiterlesen

Der Daten-Überflieger

Skepsis im Blick und immer auf der Hut, seine Augen sehen müde aus: Lorenz Matzat hat an diesem Tag schon einen Vortrag und einige Fachgespräche hinter sich Nur noch einige Minuten, dann hat er schon den nächsten Termin. Und doch redet er ruhig und mit Bedacht. Und während seine Zuhörer noch vor einigen Jahren eher ungläubig über seine Ideen staunten, kommt heute eher die Frage nach der Vorgehensweise. 2012 wurde Lorentz Matzat vom medium magazin als einer der journalistischen Newcomer des Jahres ausgezeichnet. Doch wie wird man eigentlich zu einem Vorreiter des Datenjournalismus?

Am Anfang stand für Lorentz Matzat zunächst ein Studium zum Diplom-Politikwissenschaftler mit dem Schwerpunkt der Drogenpolitik. Daneben eschäftigte er sich mit Computerlernen – also damit, wie Computerprogramme dem Menschen beim lernen helfen können. Erstmals mit solcher Technik in Berührung gekommen, war Matzat begeistert von dem Potential und den Möglichkeiten der Interaktion zwischen Mensch und Maschine.

Als Matzat, immer noch begeistert von den Möglichkeiten moderner Technik, aufmerksam die Datenjournalismus-Szene in Amerika studierte, musste er erstaunt feststellen, dass in Deutschland noch kaum Datenjournalismus betrieben wird. Stattdessen herrschte in den Redaktionen eine Angst vor dem Unbekannten, den Kosten, der eigenen Unfähigkeit mit solch neuen Methoden umzugehen.

Nach einem Volontariat begann Matzat zunächst als freier Journalist und Medienpädagoge tätig zu werden. Wie aber wird ein Geisteswissenschaftler zum Experten in einer journalistischen Disziplin, die auf technischem Fachwissen basiert? Entsprechende Kurse gab es in Deutschland noch nicht. . Die einzige Chance: Der Zusammenschluss mit Gleichgesinnten. Zusammen mit Marco Maas gründet Matzat die Datenjournalismus-Agentur „OpenDataCity“. Als Plattform für Fachkollegen und als Beratungsstelle für Redaktionen in Sachen Datenjournalismus gestartet, ist die Agentur zu einer echten Größe in der Szene geworden. Ihr erster großer Coup: die Geschichte Verräterisches Handy für Zeit Online zur Vorratsdatenspeicherung. Durch die, von dem Grünenpolitiker Malte Spitz eingeklagten Verbindungsdaten der Telekom ließ sich ein ziemlich genaues Bewegungsprofil samt ein- und ausgehender SMS und Telefonate erstellen – und das abstrakte Problem der Vorratsdatenspeicherung wurde für jedermann im Netz anschaulich begreifbar.

Doch das Projekt warf auch neue Fragen auf: Wie darf und soll Datenjournalismus mit privaten und geschützten Daten umgehen? Für Matzat ist dies eine Abwägungsfrage. Dient es dem gesellschaftlichen Wohl, Erkenntnisse zu erlangen, die anders nicht einsehbar sind, sei es im Einzelfall legitim, Missstände aufzudecken, indem man formale und juristische Grauzonen nutzt – ähnlich wie es schon bisher im investigativen Journalismus üblich ist. Dennoch gelte der Grundsatz: „Private Daten schützen, öffentliche Daten nutzen.“

Die Entwicklungen im Journalismus schreiten dank Leuten wir Matzat voran, doch noch schneller ist die Entwicklung in der Technik. Gesellschaft, Gesetzgebung oder Journalismus können nicht so schnell verarbeiten, was an Technik regelmäßig erscheint. Dazu passt es, dass Pionier Matzat sich zusätzlich auch mit dem Einsatz von Drohnen im Journalismus beschäftigt. Bekanntlich haben Drohnen keinen guten Ruf. Doch Daten-Überflieger Matzat sieht darin mehr als unbemannte Flugobjekte, die in die Privatsphäre eindringen können und zum Werkzeug skrupelloser Morde werden. Mit sensiblen Sensoren ausgestattet, wäre es etwa möglich, damit Umweltdaten zu sammeln und so Missstände aufzudecken. So könnte eine U-Boot ähnliche Drohne genutzt werden, um die Wasserqualität an Abflussrohren zu messen.

Die Technikaffinität im Journalismus erscheint aber vielerorts noch unterentwickelt. Lorenz Matzat hingegen sieht die Zukunft in der Nutzung von Hightech im Journalismus. OpenDataCity hat er inzwischen verlassen, um sein eigenes Projekt lokaler.de zu starten – ein Service, der Datensätze in Relation zu Geokarten setzten kann.

Doch noch ist sein Ziel, den Datenjournalismus im deutschsprachigen Raum fest zu verankern, nicht erreicht. Also wird er weiter regelmäßig über den Datenjournalismus referieren, Medienhäuser beraten und von einem Termin zum nächsten eilen.

Krankenhausstatistik unter der Lupe: der Operationsexplorer

Herzinfarkte, Hüftgelenke, HIV: Jede Woche werden neue medizinische Studien über die Deutschen und ihre Krankheiten vorgestellt. Wer deren Aussagen unabhängig überprüfen will, stößt häufig auf Hindernisse: Zwar sind viele Daten beispielsweise beim Statistischen Bundesamt gegen Gebühr erhältlich, aber ohne gute Statistikkenntnisse und Spezialsoftware kommt man in den ewig langen Tabellen nicht sehr weit.

Vor ähnlichen Problemen stand auch Wissenschaftsjournalist Volker Stollorz.

„Wir bekamen einen regelrechten „Excel-Krampf“ bei der Überprüfung von Datensätzen über Hysterektomien“, berichtet er über ein Rechercheprojekt zu der Frage, wie häufig und warum Frauen die Gebärmutter entfernt wird. Das Projekt aus dem Jahr 2011 wurde im Rahmen der an der TU Dortmund angesiedelten Initiative Wissenschaftsjournalismus gefördert. Schon damals hatte er das Gefühl, so etwas müsse einfacher werden, um an der Geschichte zu arbeiten. Sein Glück: Als „Journalist in Residence“ beim Heidelberger Institut für theoretische Studien (HITS) und mit finanzieller Unterstützung der Robert Bosch Stiftung entwickelte Journalist Stollorz gemeinsam mit dem Programmierer Meik Bittkowski den OperationsExplorer. Der OperationsExplorer ist ein medizin-journalistisches Analysetool. Er soll einen vereinfachten Überblick über 18 Millionen Datensätze zu Diagnosen und Behandlungen in deutschen Krankenhäusern bieten und noch im Jahr 2014 starten.

Hinter den Datensätzen verbergen sich die Diagnosen, Operationen und Prozeduren nahezu aller Klinikpatienten in Deutschland, klassifiziert nach ICD-10- (International Classification of Diseases) und OPS-Codes (Operationen- und Prozedurenschlüssel). Außerdem lassen sich die vorhandenen Datensätze aus knapp 2000 deutschen Krankenhäusern nach Wohnort des Patienten, Geschlecht und 18 Altersgruppen aufgeschlüsselt betrachten. Damit die Daten trotz unterschiedlicher Altersstrukturen in unterschiedlichen Regionen vergleichbar werden, normiert der OperationsExplorer die Fallzahlen auf Fälle pro 100.000 Einwohner und sorgt auf Knopfdruck für eine Altersstandardisierung.

Gut für den Nicht-Statistiker, der zum Beispiel nach Daten über eine bestimmte Krankheit in verschiedenen Regionen sucht: Man spart viel Zeit und zusätzlich werden Fehler durch das Nicht-Beherrschen eines statistischen Handwerks vermieden.

Nutzungsmöglichkeiten für den Explorer sind zum Beispiel Analysen über medizinische Trends und Entwicklungen. Egal, ob es um die Verbreitung von Masern-Epidemien oder die nicht mehr zeitgemäße Nutzung von überholten Behandlungen geht – mit dem passenden Code lassen sich die Daten schnell auswählen und auf einer Deutschlandkarte darstellen.

Volker Stollorz weist allerdings darauf hin, dass diese Analysen nur so gut sein können „wie die Daten halt sind“. Denn diese werden von den Kodierern der Kliniken ins Abrechnungssystem der Krankenkassen eingetragen. Und es ist nicht auszuschließen, dass dieser Vorgang fehlerhaft ist oder sogar manipuliert wird – etwa um den Ertrag einer Klinik zu erhöhen. Das geflügelte Wort „Traue keiner Statistik, die du nicht selbst gefälscht hast“ hat also auch hier eine gewisse Berechtigung. Andererseits gilt: Es gibt eben keine besseren Daten. Auch die Krankenkassen mit ihren Studien nehmen die Abrechnungsstatistik als Grundlage für ihre Darstellungen, wie gut die Krankenversorgungslage in verschiedenen Regionen Deutschlands ist.

Und manche Daten können oder dürfen auch gar nicht genauer erfasst werden. So wird immer nur die einzelne Behandlung und nicht der Patient als solcher kodiert. Dadurch steigt die Gesamtzahl der Datensätze. Erreicht jemand mit einer Grippe das Krankenhaus und verlässt es zusätzlich nach einer Lungenentzündung, taucht er somit zweimal in der Statistik auf.

Das aber hat bereits mit dem Datenschutz für den einzelnen Patienten zu tun. Wenn man über das Zusammenlegen verschiedener Informationen einen bestimmten Patienten de-anonymisieren könnte, wäre für Volker Stollorz eine ethische Grenze erreicht. Aus diesem Grund sind die Daten im OperationsExplorer auch nur dann angegeben, wenn Diagnosen oder Operationen in mindestens drei Fällen vorhanden sind. So soll der direkte Bezug auf einen Patienten erschwert werden. Um zusätzlich den verantwortungsvollen Umgang mit den Daten zu stärken, ist das Projekt nicht als OpenData-Projekt gedacht. Stattdessen muss man sich innerhalb eines Clubmodells registrieren und die Nutzungsbedingungen akzeptieren.

„Ziel meiner Berichterstattung ist die Qualität der Behandlung und der generellen medizinischen Qualität in Deutschland transparent zu machen und zu verbessern.“, sagt Volker Stollorz. Zunächst aber befindet sich der Explorer in einer Test-Phase, um den Umgang damit zu üben, später soll er dann über das Registrierungsmodell mehr Leuten zugänglich gemacht werden. Bisher sind im auch nur die Daten von stationären Behandlungen aufgeführt, eine Erweiterung um Daten aus dem ambulanten Versorgungsbereich ist noch Zukunftsmusik. Und es gibt weitere Pläne: Die Datenbank soll um ein weiteres Thema, eine regional aufgeschlüsselte Todesursachenstatistik, ergänzt werden.

Ebenso hoffen die Entwickler auf eine zukünftig schnellere Einspeisung der Daten. Da bisher nur die Daten bis 2012 eingepflegt sind, entsteht eine Zeitdifferenz, in der manche Trends längst nicht mehr aktuell sind. Aber trotzdem gibt Volker Stollorz sich zuversichtlich, mit dem neuen Tool so manchen künftigen Excel-Krampf lösen zu können: „Ich habe das Gefühl, dass da recht coole Geschichten zu finden sind.“

Die Strukturierte

Strahlenbelastung in Fukushima, halsbrecherische Snowboardstunts, Flüchtlingstote vor den Toren Europas – das sind Geschichten, die auf den ersten Blick nichts gemeinsam haben. Sylke Gruhnwald ist die Frau, die die Verbindung schafft, denn in ihrer Hand laufen alle Fäden zusammen.
Sylke Gruhnwald ist Datenjournalistin mit Leib und Seele; sie sucht, findet, analysiert Daten, mischt Daten, erhebt eigene Daten. Folgt man etwa dem einen Faden in ihrer Hand, landet man bei dem Porträt über Iouri Podladtchikov, einem weltberühmten Schweizer Snowboarder. Um seinen bekanntesten Trick für die Leser zu veranschaulichen, haben Sylke Gruhnwald und ihr Team von der Neuen Zürcher Zeitung den Sprung „einfach“ unter Laborbedingungen nachgestellt – mit einem IPhone. Das Ergebnis: die multimediale Visualisierung des „Yolo-Flips“, später ausgezeichnet mit dem Grimme Online Award 2014.

Für Sylke Gruhnwald könnte man das auch einen Aufstieg in die Königsklasse des Datenjournalismus nennen. Sie selbst versteht unter „Königsklasse“ allerdings etwas völlig anderes. Eine eigene Datenbank zu erstellen, also „Source Data“ – das sei königlich und kröne die „Vier Level des Datenjournalismus“.

Level 1: Show Data –Datenvisualisierungen.
Level 2: Mashup Data – das Mischen von Datensätzen.
Level 3: Analyze Data – saubere Datenanalyse.
Level 4: Source Data – eine eigene Datenbank aufbauen.

Alle datenjournalistischen Projekte ließen sich nach diesem Schema gliedern, sagt sie. So auch das Projekt The Migrant Files, eine Dokumentation der Flüchtlingstoten vor den Toren Europas. Eine Gruppe europäischer Journalisten (darunter auch das Team um Sylke Gruhnwald von NZZ-Data) begab sich auf die Spuren der Flüchtlinge und stellte die Ergebnisse in einer großen Datenbank zusammen – Source Data, Königsklasse.

Als Teamleiterin von NZZ Data ist Sylke Gruhnwald in der Welt der Daten zuhause, die Daten sind ihr tägliches Brot. Vorgezeichnet war dieser Weg nicht, vom Sinologie- und BWL-Studium hin zum Datenjournalismus. Noch während sie ihr Diplom machte, begann sie, für den Economist in Wien zu arbeiten, danach ging sie als Wirtschaftsredakteurin zu NZZ-Online. Dort kam sie nach und nach in den Bereich des Datenjournalismus‘, erst mit 40 Prozent ihrer Stelle, dann zu 100 Prozent. Sie kämpfte dafür, ein eigenes Team zu bekommen, denn sie sah in den Daten mehr als Zahlen – eigene Geschichten und die Chance, neue Felder des Online-Journalismus zu erschließen. Ihr Bemühen hatte Erfolg.

Seit nunmehr fast zwei Jahren ist NZZ Data fester Bestandteil der Neuen Zürcher Zeitung und längst aus den Kinderschuhen raus: bereits zwei Nominierungen für den Grimme Online Award, einmal für das preisgekrönte Snowboarder-Porträt, einmal für eine multimediale Webdoku zur Situation in Fukushima, zwei Jahre nach der Katastrophe.

Bei solchen Projekten reize besonders die Recherche, sagt Sylke Gruhnwald. Recherchieren, das ist ihre Kernkompetenz. Dabei sei „Trial and Error“ das wichtigste – der mögliche Fehler ist nämlich vor der Recherche nicht sichtbar. So könne man mit einer spannenden These in die Datensuche starten und dann merken: Die Recherche gibt nichts her! „Man muss auch den Mut haben, eine Geschichte nicht zu machen.“

Anderen Problemen, die dem Journalisten-Dasein häufiger Steine im Weg sind, begegnet Sylke Gruhnwald mit Hartnäckigkeit. „Wenn ich mir etwas in den Kopf gesetzt habe und es wirklich will, erstreite ich es mir auch schon mal“. Und damit hat sie Erfolg – so wie damals bei der Etablierung von NZZ Data.

Was sie dort aufgebaut hat, gibt sie nun jedoch in die Hände ihrer Kollegen ab. Im August 2014 verlässt sie die NZZ und beginnt neu beim Schweizer Radio und Fernsehen. „Mein Chef sagt, Leute wechseln nur, wenn es ihnen im Büro nicht mehr gefällt“, lacht sie. Doch das sei nicht der Grund für den Wechsel. Beim SRF wird sie für den Aufbau von „SRF Data“ verantwortlich sein, die Fäden des Datenjournalismus im Haus werden bei ihr zusammenlaufen, ähnlich wie zuvor bei der NZZ. Was anders sein wird, ist die Medienvielfalt. Datenjournalismus in Radio und Fernsehen bringt viele Herausforderungen und Möglichkeiten, die es so im rein Digitalen nicht gibt. Das reizt, findet Sylke Gruhnwald.

Positiv blickt sie in die Zukunft. Nicht nur in ihre eigene, auch in die des Journalismus im Allgemeinen. Zurzeit würden viele neue Felder erschlossen, das seien immer wieder auch neue Chancen für den Journalismus. „Wir haben die Möglichkeit, alles anders zu gestalten.“ Was dabei hilft, ist Biss. Den hat sie. Und was noch? „Eine positive Grundeinstellung!“

Der Interdisziplinäre

„Ich bin Informatiker geworden, weil ich einfach faul bin“, erzählt Kristian Kersting. Schon als Kind hat er sich gerne davor gedrückt, sein Zimmer aufzuräumen. Und fand die Vorstellung toll, irgendjemandem oder irgendetwas beizubringen, die Arbeit für ihn zu erledigen.

Was wie ein lustiger Kindheitstraum klingt, tut Kersting heute tatsächlich in gewisser Weise: Das Forschungsgebiet des Informatik-Professors ist das Data Mining, die Extraktion von Wissen aus großen und komplexen Datenmengen. 2006 hat Kersting auf diesem Gebiet in Freiburg promoviert, es folgte ein Aufenthalt am Massachusetts Institute of Technology (MIT), am Fraunhofer-Institut in Sankt Augustin und an der Universität Bonn, bis er eine Professur an der Technischen Universität in Dortmund annahm.

Dort kam er zum ersten Mal in direkten Kontakt mit dem Journalismus. Beim Antrittsbesuch im Rektorat lernte er Henrik Müller kennen, damals ebenfalls neu ernannter Professor am Lehrstuhl für wirtschaftspolitischen Journalismus. Man kam ins Gespräch und so wurde ein neues Projekt erdacht: Unter dem Namen „ECONIM“ (Economic Narratives in the Media) soll die internationale Berichterstattung um die Finanzkrise betrachtet werden. Dabei werden aus dem Repertoire von Online-Datenbanken mehrere Tausend Artikel unter die Lupe genommen, für einen Menschen ohne maschinelle Hilfe wäre in diesen Mengen ein „Aufräumen“ unmöglich. Welche Themen dabei dominant sind und welche Wörter in Verbindung miteinander auftreten, lässt sich mit Methoden aus dem Data Mining feststellen – und lässt möglicherweise Rückschlüsse auf Sichtweisen in den jeweiligen Ländern zu. Aus der Entwicklung können auch Prognosen für den weiteren Verlauf der Kriseabgeleitet und mögliche Erschütterungen im Voraus erkannt werden, sagt Kersting.

Aber egal wie viele Daten man aufräumt und sortiert, lässt sich die Zukunft überhaupt sicher vorhersagen?„Klar gibt es keine Sicherheiten, nur Wahrscheinlichkeiten. Irgendwann treffen Mensch und Maschine aber gemeinsam informierte Entscheidungen“, sagt der 40-Jährige. Für Kersting ergänzen sich die beiden kooperierenden Disziplinen aus Wissenschaft und Medien jedenfalls hervorragend: „Es gibt eine ganz natürliche Beziehung zwischen Informatikern und Journalisten“ – was die einen technisch besser finden könnten, verpackten die anderen in Worte.

Für die Zukunft wünscht sich Kersting jedenfalls eine bessere Aufklärung zum Umgang mit Daten schon in der Schule – und das auch außerhalb des Informatikunterrichts. Jeder solle wissen, dass er digital Daten hinterlässt. Aus den Vorteilen neuer Technologien kann nämlich nur der schöpfen, der auch mit den Risiken vertraut ist und diese umfassend im Blick behält. Das muss auch ein Informatiker wie Kersting – bei aller sympathischen Faulheit.

Der Investigative

Die Geschichte der im fünften Monat schwangeren Jessica Zeppa ist vielleicht typisch für das, was Andrew Lehrens Arbeit ausmacht: Recherchen an der Schnittstelle zwischen Investigativ- und Datenjournalismus. Zeppa musste sterben, weil in einem US-Militärkrankenhaus eine Sepsis – eine schwere Blutvergiftung– nicht erkannt wurde. Ein Einzelschicksal, das man nicht dramatisieren sollte, oder ein Indiz für die allgemein mangelnde Versorgung in Militärkrankenhäusern?

Um die Frage zu beantworten, kämpften sich Andrew Lehren und sein Team durch Datenberge; Akten, in denen unerwartete Todesfälle verzeichnet wurden, glichen sie mit jenen Akten ab, in denen unerwartete Todesfälle letztlich auch gemeldet wurden. Die Ergebnisse wurden sortiert, visualisiert und kombiniert mit einer investigativen Reportage über mangelnde Patientensicherheit – bedingt durch Strukturprobleme in Verwaltungsapparaten, Hierarchiekonflikte in Krankenhäusern und mangelnde Aufarbeitung durch die zuständigen Stellen des Pentagons. Datenrecherchen und Investigativrecherche verschmolzen so zu einer Einheit. Das Ergebnis: Im Zeitraum von 2011 bis 2013 waren 239 unerwartete Todesfälle dokumentiert, jedoch nur 100 an das „patient-safety-center“ des Pentagons weitergleitetworden – wo Experten herausfinden sollen, wie die Behandlung in Militärkrankenhäusern verbessert werden kann. Und das obwohl die betreffenden Krankenhäuser tatsächlich deutlich höhere Quoten von Komplikationen und Schäden bei Geburten und Operationen zu verzeichnen hatten. Zeppas Fall war somit charakteristisch für mangelhafte medizinische Versorgung sowie symbolhaft für viele vermeidbare Fehler mit Todesfolge.

Für Andrew Lehren bergen Daten unendlich viele Geschichten, die erzählt werden müssen, weil sie den Leser etwas angehen, ihn berühren. Doch anstatt nur ein Diagramm anzufertigen, geht er raus in die Welt und sucht die Menschen hinter den abstrakten Daten. Er beschäftigt sich mit konkreten Fällen, menschlichen Schicksalen und sucht gezielt nach ungeklärten Fragen. Um diese beantworten zu können, schreibt Andrew Lehren die Geschichten dieser Menschen auf. So will er sein Publikum informieren und auch emotional erreichen. Dabei kombiniert er immer wieder alte und neue Methoden der Recherche.

Angefangen hat alles 1988 mit dem Besuch einer Tagung der Vereinigung „Investigative Journalists and Editors“, die ihm klar machte, wie häufig Interessenkonflikte tatsächlich sind und wie unsicher Quellen sein können. Er begann zunehmend, die Dinge investigativ zu recherchieren und entwickelte eigene Strategien. Darüber ließe sich, wie er heute sagt, unendlich lange reden. Am wichtigsten ist ihm aber, dass Journalisten ständig und bei jeder Quelle kritisch denken – und nicht die Komplexität einer Geschichte aus Bequemlichkeiten fallen lassen. Anstatt die in den USA (und nicht nur dort) weit verbreiteten „He-said-she-said-stories“ zu schreiben, soll ein Journalist mit allen zur Verfügung stehenden Mitteln versuchen, dem Leser die Wahrheit zu liefern.

Ein weiteres Beispiel dafür, wie Andrew Lehren althergebrachte Recherche mit neuen Methoden verknüpft, ist die Geschichte von Sergant Bergdahl. Der in Afghanistan stationierte Soldat äußerte in Briefen an seine Eltern Zweifel am Vorgehen der amerikanischen Army. Als er danach plötzlich verschwand, wurde in Amerika eine Diskussion losgetreten, ob der Soldat wirklich von der Taliban entführt worden sei, wie es offiziell hieß. Um die Wahrheit zu finden, ging Andrew Lehren einen Schritt zurück und arbeitete sämtliche auf Wikileaks zugänglichen War Logs zur Einheit Bergdahls durch, die vor seinem Verschwinden geschrieben worden waren. Um ausschließen zu können, dass Bergdahl in Wahrheit aus Unzufriedenheit desertiert war, sondern tatsächlich entführt worden war, untersuchte Lehren das Thema –ohne Rücksicht auf die darauf projizierten politischen Probleme Amerikas zu. Anhand der analysierten Dokumenteließ sich die Entführung Bergdahls bestätigen, aber auch, dass seine stationierte Einheit bekannt für einige Schwierigkeiten war. Mehr noch: Sie spiegeltestrukturelle Probleme des gesamten amerikanischen Militärsystems wieder, weswegen die politische Diskussion um Bergdahls Unschuld erst losgetreten wurde.

Bei seinem persönlichen Kampf für die Wahrheit und für den Qualitätsjournalismus hilft Andrew Lehren die Beschaffung und Analyse von Datensätzen immer wieder – auch wenn es mal nicht um ein Militärthema geht. Bei der New York Times arbeiten dazu Hacker und Journalisten im Team an ihren Geschichten, um zu dafür zu sorgen, dass bei der Verarbeitung der Daten möglichst nichts schief geht. Der Leser soll an erster Stelle stehen und sich drauf verlassen könne, dass alles richtig ist. Andrew Lehrens Leidenschaft, die alte Schule der Journalismus zu pflegen, und zugleich ständig neue Recherchekünste zu lernen, erweist sich dabei inzwischen als die vielleicht beste Strategie.

Der Journalist als Programmierer? – Von Zaubertöpfen und Netzverstehern

Als Sebastian Vollnhals auf der Jahrestagung des Netzwerk Recherche von „Klicki-Bunti-Seiten“spricht, deren maschinenlesbare Informationen sich mit eigens programmierter Software aus dem Internet fischen lässt, blickt er in die ratlosen Gesichter vieler Journalisten. Denn wenn Vollnhals von diesen Scraping-Programmen redet, dann redet er auch viel von Quellcodes und von Formaten wie html, csv, xml, json, rss und atom. Als Journalist komme man darum aber eben nicht herum – zumindest nicht, wenn man Daten für Geschichten sucht, die sonst keiner hat.

Ein bisschen „wonky“ sei es ja schon, so viel gesteht Sebastian Vollnhals den Journalisten noch zu. Trotzdem ist Programmieren für ihn etwas, das jeder einfach lernen kann – jeder, der es wirklich versucht. „Das ist alles eine Frage des Selbstbewusstseins“, sagt Vollnhals. Er habe sich alles, was er über Programmierung weiß, selbst beigebracht, mithilfe von Büchern. Kein Studium – nur eine abgebrochene Ausbildung zum Fachinformatiker.

Sebastian Vollnhals ist der Typ Mensch, den man anhand von Klischees schnell in die Kategorie Nerd oder Geek steckt. Das scheint er zu wissen und irgendwie scheint es ihm sogar zu gefallen. „Ich bin wohl in den Zaubertopf gefallen“, erklärt er sein schnelles Verständnis für Daten und Programmiertechniken. Doch was tun, wenn besagter Zaubertopf nicht auffindbar ist? Muss der normale Journalist dann tatsächlich mühsam programmieren lernen, um mit Daten zu arbeiten?

Marco Maas glaubt das nicht: „Journalisten sind Storyteller“, erklärt der Datenjournalist. Dinge wie das Scrapen lägen nicht in ihrem Aufgabenbereich. Nicht umsonst müssten Programmierer ihren Job in der Regel fünf bis sechs Jahre lernen, bevor sie wirklich gut seien– ebenso wie Journalisten. „Das zu vermengen ist gar nicht unbedingt sinnvoll oder gewinnbringend“, sagt Maas. Vollnhals ist da anderer Meinung: „Es sollte mittlerweile zum Handwerkszeug eines Journalisten gehören, zumindest ansatzweise programmieren zu lernen.“ Informationen könne man heutzutage nicht mehr in einem Aktenschrank finden, auch reiche es nicht mehr aus, irgendwelche Leute zu interviewen. „Es kommen immer mehr Informationen aus dem Netz“, sagt er.

Auf den ersten Blick sind die beiden Datenjournalisten ein ungleiches Paar: Vollnhals ist der Exzentriker mit blau lackierten Fingernägeln und pinken Haaren, Maas eher der etwas ruhigere Anzugträger. Trotzdem gehören die beiden zum Kernteam von Open Data City, einer Datenjournalismus-Agentur. Zwar kennt sich auch Marco Maas mit Daten aus und weiß, wie man sie beschafft und visualisiert. Für ihn gibt es aber eine Grenze von dem, was ein Journalist wirklich lernen muss. Er selbst würde sich Hilfe holen, wenn er nicht mehr weiter weiß – zum Beispiel bei Vollnhals. „Es gibt Experten auf jedem Gebiet, die dann zusammenkommen, um gemeinsam an einem Projekt zu arbeiten“, sagt Maas. „Datenjournalismus wird immer mehr zur Teamarbeit.“

So oder so: Der Journalismus wird technischer, da sind sich die beiden einig. Vollnhals geht sogar noch einen Schritt weiter: „Es wird bald keinen Datenjournalismus mehr geben, weil es keinen Journalismus ohne Daten mehr geben wird“, sagt er. „Und wenn du selbst kein Nerd bist, such dir einen“, rät er denen, die sich so gar nicht damit anfreunden können. Finden kann man einen Nerd – das sollte ausreichend deutlich geworden sein– eben zum Beispiel bei Open Data City. Die Agentur hilft dabei, Technik-Freaks und Journalisten an einen Tisch zu bringen und so ganz neue Ideen umzusetzen.

Trotzdem sei es nicht verkehrt, sich mit manchen Dingen selbst auszukennen, findet auch Marco Maas: „Je mehr man selbst machen kann, desto besser kann man auch Geschichten umsetzen“, erklärt er. Dabei muss jeder selbst entscheiden, wie weit diese Eigenständigkeit gehen soll. „Ich glaube, es wird immer eine Teilung zwischen Hardcore-Codern und Journalisten geben, die ein bisschen verstehen, wie diese Leute ticken und vielleicht Einstiegssachen selbst machen können“, sagt Maas.Und dabei denkt er wohl auch an seinen Kollegen Vollnhals und sich selbst.

Der Spurensucher

Jeder ungeübte Internetnutzer hinterlässt Spuren im Datensumpf des WorldWideWeb, die sich nur schwer wieder verwischen lassen. Nur bei Sebastian Mondial scheint das anders zu sein: Privates über ihn ist kaum zu finden im Netz, schon sein Alter muss per Mail hinterfragt werden – gesetzt den Fall, der Suchende findet seine Adresse. Von den Spuren seiner Arbeit hat hingegen fast jeder schon einmal gehört: Mondial war einer der zentralen Figuren beim Investigativ-Projekt „offshore-Leaks“.

Seit Jahren verdient er sein Geld mit dem Datenjournalismus, lebt vom großen internationalen Vertrauen in sein Können als investigativer Datenspezialist. Nebenbei trainiert er andere Journalisten darin, digitale Informationen in der Recherche zu erschließen und zugleich mit den eigenen Daten sicher umzugehen.

Einer seiner ersten Aufträge nach dem Studium an der TU Dortmund kam – heute muss man sagen ausgerechnet – von google. Unter der sperrigen Berufsbezeichnung eines Search Quality Raters suchte er gezielt nach Daten und Informationen, die die Suchmaschine mit ihrem Algorithmus nicht zu finden vermochte und machte diese zugänglich. Ein derartiger Mitarbeiter untersucht und ändert unter anderem, wie gut die Reihenfolge der Suchergebnisse zu der Anfrage passt. Tippt der Suchende beispielsweise bayrischer Wald ein, soll zuerst ein Link zur Karte oder zum Gebiet erscheinen und nicht ein Restaurant mit diesem Namen.

Nächste Station war die Nachrichtenagentur dpa, genauer die Redaktion dpa-RegioData. Zuvor hatte er einen Teil der Redaktion schon in computergestützter Recherche geschult. Als die dpa beschloss, eine Datenjournalismus-Redaktion aufzubauen – die erste Redaktion Deutschlands, die sich darauf spezialisierte –, war Mondial ein erster Ansprechpartner. Nachdem er als Datenjournalist beim stern und als als Trainer an der Henri-Nannen-Schule seine nächsten Spuren hinterlassen hatte, kam dann eine überraschende Einladung aus Übersee. Ohne genau zu wissen, worum es eigentlich gehen sollte, saß Mondial bald einem Mitarbeiter der größten länderübergreifenden Vereinigung aus investigativen Journalisten (ICIJ) an einem großen Konferenztisch in Washington gegenüber. Der schob ihm bald darauf eine Festplatte zu, mit der Bitte die enthaltenden Daten auf vermeintliche Spuren zu Herkunft und Manipulationen zu untersuchen.

260 Gigabyte Daten galt es mit speziellen Programmen nach Auffälligkeiten zu durchforsten. Der Tragweite des Projektes war sich Mondial zunächst gar nicht bewusst, erst nach einem halben Jahr zeigte sich in einem ersten internen Überblick auch die mediale Reichweite. Das Resultat von über einem Jahr Arbeit war das wohl größte digitale Leak über Steuerhinterziehung – bei einer Bank mit Offshore-Finanzplatz und weltweiter Akteure im Steuerparadies – mit Sebastian Mondial als einem der zentralen Rechercheure, bekannt als offshore leaks. Er arbeitete mit einer teuren Forensik-Software, die normaler Weise in Kriminalfällen verwendet wird, um die Datenmenge zu analysieren und Auffälligkeiten zu entdecken, die wiederum von insgesamt 80 Journalisten zu Geschichten verarbeitet wurden.

Nach diesem riesigen Erfolg ist der Datenspezialist jedoch keinesfalls abgehoben, die wenigen Spuren von seiner Person selbst im Netz mögen dafür bereits ein Indiz sein. Mit einem realistischen Blick freut er sich in Zukunft auch wieder auf bodenständigere Projekte. Die Hauptsache dabei: Daten.

Die digitale Büchse der Pandora

Sei es im Sand, Matsch oder Schnee: Wo der Mensch auch hingeht, hinterlässt er sichtbare Spuren. Es lässt sich zurückverfolgen, wo er herkam, wo er hingeht. In der realen Welt kann er seine Spuren verwischen – im digitalen Internet ist das schwieriger. Spätestens seit dem NSA-Skandal lässt sich die permanente Massenüberwachung durch Behörden nicht mehr leugnen. Der Zugang zu privaten Telefonaten und E-Mails ist maschinell in Sekundenschnelle möglich.

„Es ist wie die Büchse der Pandora. Sie wurde geöffnet, nun gibt es kein Zurück mehr. Man kann nur versuchen, sich zu schützen“, sagt Sebastian Mondial, Journalist bei der „Zeit“. Der Erfolg seiner Arbeit und der seiner Kollegen in der investigativen Recherche hängt auch von der nötigen Geheimhaltung und Privatsphäre ab, die durch die Überwachung sabotiert und gefährdet wird. Welche Daten Geheimdienste über Journalisten gespeichert haben, können diese erfragen. Um dies möglichst einfach zu gestalten, hat das „netzwerkrecherche“ einen Antragsgenerator auf seiner Internetseite eingerichtet. Damit solle den Behörden gezeigt werden, dass ihr Handeln in der Öffentlichkeit kritisch betrachtet wird.

Ein absoluter Schutz vor Überwachung ist nämlich nicht möglich. Hat zum Beispiel die NSA eine Person im Visier, kann sie diese in jedem Fall überwachen – auch trotz persönlicher Sicherheitsmaßnahmen. Doch Sebastian Mondial geht es um die breite Masse: Wenn alle ihre Daten verschlüsselten, wäre deren flächendeckende Erfassung auch für Geheimdienste schlicht zu aufwendig. Einige Programme und Tricks, die die Überwachung zumindest erschweren, stellte Mondial auf der Jahrestagung des „netzwerkrecherche“ vor.

Eine große Rolle spielt dabei die Kryptografie, also die Verschlüsselung von Nachrichten. Der Handy-Messenger Threema generiert dafür zwei individuelle Schlüssel: Einen öffentlichen und einen privaten. Der öffentliche darf verbreitet werden und kann in Kombination mit dem Privaten eine Nachricht verschlüsseln. Eine Nachricht entschlüsselt dann nur der private Schlüssel, der unbedingt geheim bleiben sollte. Dabei speichert der Threema-Server die Nachricht nur im verschlüsselten Zustand. Ruft der Empfänger die Nachricht auf, wird diese direkt vom Server gelöscht.

Mit diesem Prinzip arbeiten auch diverse andere Programme wie PGP („PrettyGood Privacy“), mit denen E-Mails abgesichert werden können, oder “Tor”, das die verschlüsselte Nachricht erst durch mehrere Knotenpunkte im Web leitet, bis sie den Empfänger erreicht. Damit wird es nahezu unmöglich, den Weg eines Datenpakets durch das Internet zurückzuverfolgen. Dem Entwickler von „Tor“, Jacob Appelbaum, kann es gar nicht sicher genug sein: Er rät gänzlich von Smartphones ab, vor allem denjenigen mit einer GPS- Funktion. Denn auch viele der angebotenen Software und Apps, sowohl für den Computerals auch für das Telefon, stehen in der Kritik, Sicherheitslücken zu haben.
Besondere Vorsicht ist bei allen Programmen geboten, die Zugang zum Internet haben und ständig private Daten von dem Mobiltelefon auf den Server schicken – dazu gehören auch die Betriebssysteme selbst, etwa Android oder iOs. Es bringt schließlich nichts, wenn ein Brief verschlossen beim Empfänger ankommt, jedoch beim Schreiben schon mitgelesen werden kann.

Momentan schrecken viele Journalisten noch vor solchen Tools zurück. Für die einen sind es die Kosten, für die anderen der Aufwand. Manche Journalisten setzen auf absolute Transparenz ihrer Recherche, andere wiederum sehen einfach (noch) keinen Sinn in der Verschlüsselung. „Ich habe keine Themen am Wickel, die die NSA oder ein anderer großer Bruder, der uns beobachtet, nicht wissen dürfte“, sagte Birte Siedenburg, freie Wirtschaftsjournalistin in einem Zapp-Interview während der Netzwerk Recherche-Tagung. Georg Mascolo, Leiter des Rechercheverbundes von NDR, WDR und der Süddeutschen Zeitung wirft zudem die Frage auf, ob es nicht sicherer wäre, „sich im Heuhaufen zu verstecken“, anstatt mit der Benutzung von Anonymisierungssoftware die Aufmerksamkeit erst recht auf sich zu lenken. Denn offenbar gelten deren Nutzer vielen gleich als besonders verdächtig, dass sie etwas zu verbergen haben könnten.

Für die Standpunkte der beiden Kollegen hat auch Mondial Verständnis. Trotzdem schaut er optimistisch in die Zukunft der Kryptografie und hofft, dass einige Sicherheitsmaßnahmen bald Standard sind und „quasi mit zum Tarif“ gehören. Damit wäre dann auch der digitale Heuhaufen nicht mehr nötig – und die massenhafte Überwachung vielleicht schon bald Vergangenheit. Oder zumindest deutlich schwieriger.

Der Vermittler

Millionen von Datenpunkten mit tausenden Variablen, das ist die Welt von Claus Weihs. Er erforscht Methoden zur Analyse gewaltiger Datenmengen, eben jener, die Suchmaschinen, Behörden und Wirtschaftsunternehmen sammeln und speichern – von uns allen.

Auf dem Campus der TU Dortmund ragt ein architektonisch nicht gerade anziehender Turm aus Beton und Glas in den Himmel. Claus Weihs‘ Büro in der Fakultät Statistik liegt im 7. Stock. Sein blasses, etwas aus der Mode gekommenes Sakko ist stimmig: So stellt man sich einen Statistikprofessor vor. Doch Weihs ist alles andere als der blutleere Hochschullehrer, den man dem Klischee nach vielleicht erwarten würde. Seine Studenten kennen ihn als immer lustigen Professor, der gerne Geschichten erzählt. Zum Beispiel von seiner Arbeit in der Industrie, vor seiner wissenschaftlichen Karriere. Denn als Professor für Statistik ist er Quereinsteiger.

Auch seine vorherige Arbeitsumgebung war weniger grau als der Turm auf dem Campus. Frisch in Mathematik promoviert, entschied sich Claus Weihs zunächst gegen eine Karriere in der Wissenschaft und nahm eine Stelle in der Schweizer Vorzeigestadt Basel an, beim Chemie- und Pharma-Konzern Ciba. Von 1985 an arbeitete er dort als Statistikberater mit Naturwissenschaftlern, Medizinern und Ingenieuren zusammen. Natürlich spielten Datenbanken schon damals eine wichtige Rolle, gerade bei einem Wirtschaftsunternehmen. Von Big Data redete aber noch niemand. „Früher hatte man Papierordner – die standen alle in einer Reihe. Die Daten waren da, aber man konnte nicht so leicht damit arbeiten“, erinnert sich Weihs. Hinreichend leistungsfähige Rechner, um aus großen Datenmengen sinnvolle Informationen ziehen zu können, standen noch nicht zur Verfügung.

Bei Ciba faszinierte ihn die interdisziplinäre Arbeit an praxisrelevanten Problemen. Dass er seinen Posten im idyllischen Basel neun Jahre später dennoch gegen ein Büro im 7. Stock auf dem Dortmunder Universitätscampus tauschte, ist seiner Neugier geschuldet – und seiner Lust, noch einmal etwas ganz Neues zu machen. Schweren Herzens verließ er seine Wirkungsstätte. Als die TU einen Professor für Computergestützte Statistik suchte, lockte ihn die Möglichkeit, sich noch grundlegender mit statistischen Problemen beschäftigen zu können, als es bei Ciba möglich war.

Aktuell forscht Claus Weihs an Lösungen zur Analyse komplexer Datenstrukturen. Diese Gebilde entstehen, wenn man unterschiedliche Datenbanken miteinander verknüpft. Dann werden die Daten zu inhomogen und meist zu sperrig für die statistischen Standardmethoden. Weihs treibt nun die Frage um, wie man die klassischen Methoden ändern kann, damit sie sich auf solche komplexen Datenbanken anwenden lassen. Ihm geht es, wie er es nennt, um die Anpassung der Methoden der Mathematik an die Wirklichkeit.

Derlei mathematische Probleme überdehnen allerdings leicht die Wirklichkeit und Vorstellungskraft von Laien. Aber Claus Weihs ermutigt, gedanklich dran zu bleiben, am Thema Statistik und Big Data: „Alles was sich an Computersystemen und Software auf diesem Gebiet durchsetzt, ist nicht kompliziert – sonst werden die Leute ungeduldig und wollen etwas anderes“, beruhigt er.

Zwar ist Big Data derzeit vor allem noch ein schillernder Begriff, die Auswertung großer Datenmengen wird jedoch an Bedeutung gewinnen – nicht zuletzt im Datenjournalismus. Dort fehle es aber häufig an Sachkenntnis; Weihs bemängelt, dass bei der Jagd nach Storys die fundierte Datenanalyse allzu oft auf der Strecke bleibe. Dem Datenjournalismus fehle in vielen Fällen die statistisch-methodische Seite, sagt er, weil sie bei Journalisten im Normalfall nicht auf dem Lehrplan stehe.

Claus Weihs ist dabei, das zu ändern. Seit Jahren arbeitet er eng mit dem Institut für Journalistik in Dortmund zusammen. Er vermittelt dem journalistischen Nachwuchs die Fähigkeit, Qualität und Aussagekraft von Datenbanken und statistischen Kennzahlen richtig einzuschätzen. Vom Wintersemester 2014 an wird es an der TU Dortmund im Studiengang Wissenschaftsjournalismus zudem einen Schwerpunkt Datenjournalismus geben. Weihs ist einer der Architekten davon.

Der Umsteiger (Patrick Stotz)

Patrick Stotz im Panel „Mapping Data – So gelingen Geovisualisierungen”

Daten – ein schwer fassbarer, abstrakter Plural der modernen Online-Welt. Vor Patrick Stotz‘ geistigem Auge aber erscheinen bei diesem Begriff bunte Karten, sich bewegende Punkte und leuchtende Straßenverläufe. Die Leidenschaft zur Visualisierung von Daten aus der städtischen Umgebung entdeckte er erst im Laufe seines beruflichen Werdegangs; die Liebe zum urbanen Leben zeichnet ihn schon länger aus.

Vom Elternhaus in Balingen, Baden-Württemberg, zog es ihn an die Elbe in die Metropole Hamburg – geografisch könnte dieser Schritt auf der Deutschlandkarte größer kaum sein. Drei Jahre studierte er an der HafenCity Universität (HCU) sowie der TU Hamburg-Harburg und schloss mit dem Bachelor im Fach Stadtplanung ab. Es folgte ein vertiefender Master-Studiengang mit zwischenzeitlichem Ausflug in Richtung Süden, an die Universität in Marseille. Stadtentwicklungsprozesse wurden sein großes Thema – und im Jahr 2009 bot sich vor der eigenen wie der universitären Haustür das ideale Thema für eine Masterarbeit an: Die Umgestaltung der Hamburger Neustadt schritt voran und Stotz nahm besonders die Struktur öffentlicher und privater Investoren unter die Lupe. Weiterlesen

Der Beziehungs-Experte

Es ist ein langwieriger und schwieriger Kampf, den der Datenjournalist Miguel Paz in seiner Heimat Chile führt. Langwierig und schwierig, weil es keinen direkten Gegner gibt, den es zu besiegen gilt, sondern ein diffuses Netzwerk aus Korruption und nicht offengelegten Interessenskonflikten – mit vielen beteiligten Personen und Parteien. Die Situation in Chile ist anders als noch vor 38 Jahren, als Miguel Paz geboren wurde. Damals gab es einen klaren Feind in Person des Diktators Pinochet, vor dem Paz Eltern nach Panamá flohen. Paz wurde daher im Exil geboren, kam jedoch noch im Kindesalter nach Chile.

Heute ist der Feind nicht mehr so klar zu erkennen. Stattdessen gibt es Paz zu denken, dass die reichsten 20 Prozent des Landes zwischen 2000 und 400 000 Dollar im Monat verdienen, und die anderen 80 Prozent mit weitaus weniger auskommen müssen. Die Chance auf beruflichen Erfolg hänge hauptsächlich von der richtigen Familienzugehörigkeit ab, erklärt Paz. Das eigentliche Problem sieht er darin, dass die Verbindungen unter den Eliten des Landes längst nicht allen Chilenen bekannt sind. Und genau da greift er an: „Informationen sind Macht. Und nur informierte Menschen können gute Entscheidungen treffen und der Demokratie weiterhelfen.“

Die Bevölkerung Chiles informiert Paz mit seiner mächtigsten Waffe im Kampf gegen Korruption, die er 2012 schmiedete: der Webseite Poderopedia. Das bedeutet so viel wie „Wissen über die Macht“. Mit ihr greift er das einzig Fassbare im Machtnetzwerk an: die Knoten. Alleine schafft er das nicht, er ist ein Teamplayer. „Die Zeiten des einsamen Journalisten, der – einem Detektiv nicht unähnlich – Missstände aufdeckt, sind lange vorbei“, sagt er. Bei Poderopedia arbeiten deshalb Journalisten mit Programmierern zusammen: Aus Zeitungsartikeln, Wikis, Kongressprotokollen und ähnlichem extrahieren acht freiwillige Mitarbeiter Daten zu jeweils einer bestimmten Person: Wo hat sie bisher gearbeitet? Mit welchen anderen Personen steht sie in Verbindung? Hat sie eventuell Anteile an einer Firma? Mit den gesammelten Informationen wird ein Profil der Person erstellt und eine interaktive Netzwerkkarte der Beziehungen, durch die sich jeder Besucher der Webseiteklicken kann.

Will man sich durch alle Verbindungen der Machthaber arbeiten, braucht man viel Zeit: Rund 3500 Personendatensätze gibt es auf Poderopedia, ungefähr 1500 zu Firmen und weitere 1000 zu Institutionen. Bisher sind erst 1500 der Profile vollständig, und auch wenn nicht jede Verbindung gleich ein Hinweis auf Korruption bedeutet, lässt sich aus den Verbindungskarten doch schon einiges herauslesen.

Beispielsweise fanden Paz und sein Team heraus, dass der Leiter des chilenischen Finanzamts Entscheidungen traf, die seinen eigenen Firmen nutzten. Laut Paz blieb er nur im Amt, weil Präsident Pinera seine schützende Hand über ihn hielt. Doch auch die Verbindungen des Präsidenten konnte Paz im Netzwerk von Poderopedia ablesen. Er und seine Kollegen beleuchteten, dass dessen Cousin Andrés Chadwick, Minister für Innere Sicherheit, Anteile an einer großen Wasserversorgungsfirma besaß – und dass dessen Bruder Herman Chadwick stellvertretender Direktor des selben Konzerns war.

Wer sich mit solch mächtigen Männern anlegt, muss vorsichtig sein. Bis jetzt ist niemand zum Gegenangriff übergegangen, weder mit Gewalt noch mit juristischen Mitteln. Trotzdem gibt Miguel Paz keine Informationen über seine Familie heraus. Angst vor möglichen Racheakten habe er zwar nicht, aber trotzdem: Sicher ist sicher. Es sind die Momente, in denen er der Öffentlichkeit etwas mitteilen kann, die er so an seinem Beruf liebt. “Die Welt ein kleines bisschen besser machen“, nennt er das. Und er glaubt daran, dass sein bisheriger Kampf wenn schon nicht die Welt, dann doch Chile ein bisschen besser, will heißen, seine Bürger informierter gemacht hat.

Aber kann man Korruption jemals ganz besiegen? Eher nicht. Stattdessen kann man Teilsiege wie gegen Chadwick feiern. Und man braucht Beharrlichkeit. Die hat Miguel Paz genauso wie die Anerkennung seiner Kollegen: Unter anderem wurde Poderopedia 2013 für den internationalen Data Journalism Award des Global Editors Network nominiert.

Wahrscheinlich würde Paz nicht einmal dann aufhören, wenn alle Probleme in seiner Heimat gelöst wären. In Venezuela und Kolumbien gibt es bereits Ableger von Poderopedia. Bald, so Miguel Paz, auch in Deutschland: „Ich hoffe, dass das keine fünf Jahre mehr dauert“ erfährt man von ihm, bis dahin „wollen wir eine weltweite Gemeinschaft sein“, erfährt man von ihm. Es habe dazu gerade gute Gespräche in Deutschland gegeben. Mehr sagt er nicht, dazu sei es noch zu früh. Es scheint, als rüste er sich mit seinem eigenen Netzwerk für den nächsten, jetzt weltweiten Kampf: Wenn er mit seinen Mitarbeitern schon in Chile Machtnetze aufdecken kann, welche Verbindungen mag dann erst eine internationale Gemeinschaft mit Poderopedia zu Tage fördern?

Die Brückenbauerin

Eigentlich wollte Christina Elmer als Wissenschaftsjournalistin in Fernsehen und Hörfunk arbeiten. Während des Journalistik- und Biologie-Studiums waren die Redakteure von Wissenschaftssendungen wie Quarks&Co und den Reportagen der BBC ihre Vorbilder. Dass sie einmal eine d e r Datenjournalismus-Expertinnen in Deutschland wird – das war eigentlich nicht der Plan. „Ich hätte damals definitiv nicht daran gedacht, dass ich einmal Redakteurin für Datenjournalismus bei Spiegel Online sein würde.“

Auf den zweiten Blick ist Christina Elmer Lebenslauf allerdings viel geradliniger, als es zunächst scheint. Immerhin hatten vor zehn Jahren ohnehin erst wenige Journalistik-Studenten und Volontäre den Onlinejournalismus als Ziel vor Augen. „Onlinejournalismus war damals noch nicht so reich an Formaten und Anwendungen wie heute, und ich habe mich nie als reine Schreiberin verstanden“, sagt Christina Elmer. Ihr Volontariat beim WDR helfe ihr aber gerade bei Online-Texten bis heute: „Denn wer fürs Hören schreiben kann, hat auch mit Artikeln weniger Probleme, die unter Zeitdruck gelesen werden und besonders verständlich sein müssen.“

Gleichgültig in welcher Mediengattung, ein Ziel von Christina Elmer war es immer, relevanten Journalismus zu machen: Es sollten Themen sein, die den Menschen etwas bedeuten. Oder Informationen, die so wichtig sind, dass sie öffentlich zugänglich gemacht werden sollten. Und auch das führte dann irgendwie ganz logisch zum Datenjournalismus.

Die Initialzündung hierfür brachte ein Seminar bei Brant Houston während des Studiums in Dortmund. Elmer war angesteckt von der Methodik des Pioniers im „Computer Assisted Reporting“, aus strukturierten Daten Ansatzpunkte für journalistische Geschichten zu destillieren. Und so war es wiederum fast folgerichtig, dass Christina Elmer nach dem Volontariat als Redakteurin in der ersten Datenjournalismus-Redaktion Deutschlands begann, bei RegioData der dpa. „Wegweisend“, nennt sie ihre damalige Arbeit in einem Team aus fünf gleichgesinnten Kollegen: „Dabei kann man sich unglaublich gut austauschen und voneinander lernen, der kreative Prozess ist einfach viel reichhaltiger im Team. Natürlich arbeite ich heute auch bei jedem größeren Projekt im Team, aber in einem eigenen Ressort geht natürlich mehr.“

Als das dpa-Team nach drei Jahren wieder verkleinert wurde, war die Auswahl für Datenjournalisten bereits etwas größer, und Christina Elmer wechselte mit der dpa-Infografik als Zwischenstation in das Team Investigative Recherche des stern. Auch ihr bisher letzter Schritt in die Online-Welt des Spiegel ergibt Sinn. Denn Datenjournalisten haben viele Visualisierungsmöglichkeiten, die sich besonders in Online-Medien gut ausspielen lassen.

Doch die Entwicklung ist für Christina Elmer noch lange nicht am Ende – weder für ihre tägliche Arbeit, noch für das Feld insgesamt. Für die Zukunft hat sie sich zum Ziel gesetzt, den Datenjournalismus in der Redaktion auszubauen, zu verstärken und mit allen Ressorts mehr Projekte anzuschieben: „Thematisch würde ich gerne ein paar Themen knacken, für die es aktuell noch keine Daten gibt, oder wo Daten zurück gehalten werden. Vor allem im Bereich Politik und Umwelt gibt es einiges zu tun für Datenjournalisten.“ Und das gelte auch jenseits des eigenen Hauses: Beim Datenzugang, bei den Redaktionen selbst und bei den finanziellen Bedingungen für Journalisten gebe es überall Entwicklungsbedarf.

Seit vielen Jahren ist sie daher auch in der Aus- und Weiterbildung von Datenjournalisten engagiert. Was für sie selbstverständlich ist, ist für viele Journalisten noch ungewohnt: Recherchen mit ergebnisoffener Datenanalyse zu beginnen, um zunächst ein möglichst objektives Grundverständnis für die Thematik zu entwickeln. „Es wäre seltsam, anders an Themen heran zu gehen“, sagt sie. Und auch damit ist sie dann dichter am ursprünglichen Berufswunsch als gedacht. Denn nicht nur in dieser Herangehensweise ist es vom ursprünglichen Ziel des Wissenschaftsjournalismus‘ zum Datenjournalismus nicht mehr weit.

Der Weltverbesserer

„Keiner will reich werden, wir wollen etwas Nachhaltiges schaffen“, erklärt Marco Maas die Absicht der Datenjournalismus-Agentur Open Data City. Für ihre Arbeit hat die Agentur schon einige Preise gewonnen – nicht zuletzt den Grimme Online Award. Nebensächlich werden Preise für Maas und sein Team von Open Data City vor allem dann, wenn es um die gute Sache geht – Projekte, die die Demokratie stärken oder den Umweltschutz.

Maas ist Mitbegründer dieser Agentur. Sie spiegelt nicht nur seine journalistische Einstellung wieder, sondern ermöglicht ihm auch im Kleinen, seine Ideale zu verwirklichen. Als „saubere kleine Firma“, beschreibt Maas Open Data City. Zum „sauber sein“ gehören die Nutzung von Ökostrom, bezahlte Praktikanten und eine Bank die keine Hedge-Fond-Anlageformen unterstützt. Das Konzept soll auch seinen Mitgliedern die bestmöglichen Arbeitsbedingungen schaffen. Ein Ziel ist es, eine Balance zwischen Projekten für die Agentur und Privatleben zu finden. Dazu orientiert sich Open Data City am Konzept von Google: „Wir arbeiten vier Tage für die Agentur und haben einen Tag, um etwas eigenes zu schaffen“, erklärt Maas. Bei Open Data City arbeiten neben Journalisten auch Softwareentwickler und Visualisierer. Und die sollen nicht nur arbeiten, sondern sie sollen sich auch weiterentwickeln. Hier scheint alles bis ins Detail durchdacht. Und wer mit Marco Maas spricht, merkt schnell, dass er voll hinter dem steht was er tut.

Maas Karriere startete wie bei den meisten Journalisten in einer Lokalredaktion. Damals ging er noch zur Schule. In der Computer AG machte er erste Bekanntschaft mit dem Internet – damals noch eine Neuheit. „Wir mussten uns alles, was wir für die AG brauchten, selbst verdienen“, erzählt Maas. So fing er schon früh damit an, Websites zu gestalten und machte erste Erfahrungen mit html und Quellcodes – für ihn gleich „ein spannender Weg um Inhalte zu transportieren“.

Vor seinem Studium machte er dann ein Praktikum beim NDR: In seiner Bewerbung gab er an, dass er unbedingt in die Online-Redaktion wolle. Doch die gab es im Jahr 1999 noch gar nicht – jedenfalls nicht im eigentlichen Sinne. Online hieß damals noch, dass ein Haufen Sekretärinnen die Inhalte mittels copy and paste eins zu eins auf eine Webseite hochlud. Maas schreckte das nicht ab. Sein Vorteil – denn kurz darauf erfuhr das Internet einen ersten großen Aufschwung. Statt ins geplante Studium der Medientechnik verschlug es ihn daher zunächst längere Zeit zum NDR, der froh über seine Vorliebe fürs Internet war. Zwei Jahre lang übernahm er die Schwangerschaftsvertretung einer Kollegin. Beim NDR war er die Schnittstelle zwischen Internet und Journalismus – zwischen Daten und Geschichten. Eine Erfahrung die den Datenjournalismus für ihn bis heute ausmacht.

Als Marco Maas einige Jahre später Lorenz Matzat traf – inzwischen hatte er sein Studium abgeschlossen – entdeckte er mit ihm einen Gleichgesinnten. Vor allem in einem Punkt waren beide sich einig: Daten werden immer wichtiger! Als Ergebnis dieser Erkenntnis gründeten sie Open Data City, seit 2010 ist Maas dort Geschäftsführer.

Neben Journalisten wendeten sich nach einer Weile auch immer mehr Unternehmen an die Agentur, die Interesse an der Visualisierung und Auswertung ihrer Daten hatte. Um das vom Journalismus zu trennen, gründete das Team von Open Data City die „Datenfreunde“. Einer der ersten kommerziellen Kunden jenseits des Journalismus war der Internet-Provider 1&1: Für diesen wurde visualisiert, wer sich wo und wie lange ins Netz einloggt.

Auch bei solchen Aufgaben versucht Maas seinen Idealen treu zu bleiben: Würden die Atomlobby oder gar ein Rüstungsunternehmen an die Tür klopfen, würde die Tür gar nicht erst geöffnet. Unterstützt werden dagegen NGO´s wie Greenpeace. Und aus solchen kommerziellen Projekten könne oft auch wieder etwas Journalistisches entstehen, erklärt Maas: Denn manche Daten die hier zur Verfügung gestellt werden, seien auch relevant für die Öffentlichkeit.

Wo Daten für journalistische Zwecke genutzt werden, sieht Maas allerdings auch Risiken: „Wenn PR und öffentliche Firmen dahinter kommen, dass man mit guten Datenvisualisierungen die journalistisch aufbereitet sind, auch sehr einfach Meinungen beeinflussen kann, kann es gefährlich werden.“ Eine Grenze für seine eigene Arbeit zieht Maas, wenn persönliche Daten betroffen sind. Dabei folgt er wie seine Mitstreiter bei Open Data City einem Grundsatz des Chaos Computer Clubs: Öffentliche Daten nutzen, private Daten schützen.

Die Grenzgängerin

Ohne Plan, Geld und Sprachkenntnisse zog Brigitte Alfter mit 19 Jahren von Wuppertal nach Dänemark, genauer gesagt ins 1800-Seelen-Dörfchen Skals. Der Liebe und der Abenteuerlust wegen. Ein mutiger Schritt, der Wegweiser für Alfters Karriere als Journalistin war.

Denn nationale Grenzen überschreitet die heute 48-Jährige bei ihrer Arbeit inzwischen regelmäßig – um dort zu sein, wo politische und wirtschaftliche Entscheidungen getroffen werden. Alfters Interesse gilt den Machtstrukturen in Politik, Wirtschaft und Gesellschaft, unabhängig vom Ort des Geschehens. Dabei setzt sie seit Jahren auf internationale Teamarbeit – und betreibt „cross-border Journalismus“ mit unterschiedlichen Teams aus einem europäischen Recherchenetzwerk. Auf diesem Gebiet ist sie bislang eine von wenigen Pionieren.

Bestes Beispiel ist das Projekt Farmsubsidy. Vor wenigen Jahren machte sich Brigitte Alfter auf die Spuren des großen Geldes, der Agrarsubventionen der Europäischen Union. Nach Recherchen in Dänemark wollte sie für jedes EU-Land herausfinden, welcher Landwirt wie viel von dem gut 55 Millarden Euro großen Steuerkuchen bekam. Aber die EU-Kommision mauerte und vertagte den Zugriff auf die Daten – das Informationsfreiheitsgesetz der EU war zu diesem Zeitpunkt erst wenige Jahre alt. Mit der Blockade fand sich Alfter nicht ab und ging wieder einen neuen Weg. Zusammen mit Journalisten aus verschiedenen Ländern, Aktivisten und Forschern baute sie ein Netzwerk auf, das auf Grundlage der jeweils nationalen Informationsfreiheitsgesetze nun doch an die Datensätze herankam. Veröffentlicht wurden sie für 27 EU-Mitgliedsstaaten. Das Ergebnis: Zu den Profiteuren gehörten keineswegs nur kleine Bauern, sondern vor allem große Konzerne. Farmsubsidy.org brachte ihr internationales Ansehen in der EU-Berichterstattung.

Dass man oft unkonventionelle Wege gehen muss, um zum Ziel zu kommen, lehrten Brigitte Alfter vielleicht schon ihre ersten Jahre in Dänemark. Damals, noch weit weg vom Journalismus, begann sie, in der Schokoladenfabrik im Dorf zu arbeiten. Denn für diesen Job brauchte man weder Dänischkenntnisse noch eine Ausbildung, verdiente aber Geld. Zwei Jahre später fing sie eine Ausbildung als Automechanikerin an. Nicht ihr Traum, aber ein Beruf, der auf dem Land immer gebraucht wird. Außerdem konnte sie ihren politischen Interessen nachgehen, wenngleich das zunächst auf den Verband der Automechanikerlehrlinge und den Elternbeirat beschränkt blieb. Sechs Jahre später bewarb sie sich an der ältesten und größten dänischen Journalistenschule. Nachdem Alfter dann einige Zeit im Lokaljournalismus gearbeitet hatte, suchte sie sich die nächste Herausforderung: Sie ging als EU-Korrespondentin für vier Jahre nach Brüssel und war so ganz dicht am europäischen Machtzentrum.

Diese Anpassungsfähigkeit, die sich in Alfters Lebenslauf spiegelt, passt bis heute zu ihrer Einstellung zum Journalismus. Sie ist eine Vorreiterin für Veränderungen und neues Methodendenken für die Berichterstattung, das den Bedingungen und Möglichkeiten der Zeit enstpricht. Inzwischen arbeitet sie freiberuflich und geht investigativen Projekten nach wie etwa bei www.wobbing.eu, das Recherchen mit Hilfe der Informationsfreiheitsgesetze unterstützt. Methoden wie Datenjournalismus und Crossborder Journalismus will sie weiterentwickeln, im Herbst soll ein Buch dazu herauskommen. Das alles klingt dann schon mehr nach einem großen Plan als damals, beim ersten Sprung über die Grenze. Die Abenteuerlust aber ist bis heute geblieben.

„Alles eine Frage der Haltung“

Vier Fragen an… Nicola Kuhrt, Redakteurin SpiegelOnline
Weiterlesen

Ein langer Weg – Datenjournalismus im Lokalen

Feste Arbeitszeiten und ausreichend Budget – der Alltag von Lokalredakteuren sieht anders aus. Gearbeitet wird solange, bis die Seiten voll sind, schließlich muss am nächsten Morgen etwas im Blatt stehen. Geschrieben wird für die unmittelbare Veröffentlichung. Die Integration von datenjournalistischen Projekten auf lokaler Ebene scheint da hinsichtlich Zeit, Geld und Kompetenz schwer möglich. Wie kann sie trotzdem gelingen? Weiterlesen

Mit Excel gegen die US-Geheimdienste

Eine Recherchekooperation von NDR und Süddeutscher Zeitung deckt Geheimdienstaktivitäten der US-Regierung auf, die von deutschem Boden aus stattfinden. Forschung für das Pentagon, Drohnen in der Oberpfalz und Freunde der Folterpolizei – alles fein säuberlich recherchiert und hübsch verpackt auf www.geheimerkrieg.de . Weiterlesen

Du Journalist, ich Programmierer!?

„Sind wir nicht Journalisten geworden, weil wir Mathematik immer gehasst haben?“ So erklärt sich jedenfalls Miguel Paz das Unbehagen, das der Datenjournalismus bei vielen seiner Kollegen ausgelöst. „Die meisten haben den Boom der Online-Medien gerade erst verarbeitet, da überrollt sie bereits die nächste Welle der Informationstechnologie.“ Paz selbst hat schon früh die Scheu vor den neuen Technologien überwunden. Weiterlesen

„Die Datenlage könnte besser sein“

Vier Fragen an… Lorenz Matzat
Weiterlesen

„Muster erkennen, Strukturen verstehen“

Vier Fragen an… Volker Stollorz, freier Journalist mit Schwerpunkt Medizin

Volker Stollorz (Foto: Raphael Hünerfauth)

1. Welche besonderen Herausforderungen stellen sich für den Datenjournalismus in Deutschland?
Ich sehe – vor allem in meiner Rolle als Medizinjournalist – drei Dinge, die zu verbessern wären. Erstens: Transparenz. Während es in den Ländern wie den USA Projekte wie Dollars for Docs von ProPublica gibt, wo Zahlungen von Pharmafirmen an Ärzte veröffentlicht werden, um Interessenkonflikte erkennen zu können, sind solche Daten in Deutschland nicht zugänglich. Vielleicht wird so etwas ab 2016 möglich, aber fehlende Daten und mangelnde Transparenz sind in der gesamten Medizin hierzulande ein Problem. Zweitens: Teambildung. Die Kompetenzen im Datenjournalismus sind meist verteilt auf mehrere Personen. Es braucht aber Koordination und Strukturen für eine Teambildung, zur Auswertung diffiziler Datensätze und zum Geschichten finden und aufbereiten. Drittens: Bewusstseinsbildung. Im Zusammenhang mit der Verfügbarkeit von Daten muss sich ein stärkeres Bewusstsein für die Macht von Daten entwickeln – und dafür, wie sich damit Geschichten auf originelle Art erzählen lassen. Weiterlesen

„Wir brauchen ein Netzwerk außerhalb der Redaktionen“

Vier Fragen an… Christina Elmer, Redakteurin SpiegelOnline

Christina Elmer (Foto: Wulf Rohwedder)

1. Welche besonderen Herausforderungen stellen sich für Datenjournalisten in Deutschland?
Journalisten betreten im Datenjournalismus ein Feld, das es hierzulande noch nicht so lange gibt. Wir gestalten dieses Feld momentan, da gilt es, Strukturen aufzubrechen und neue Formate auszuprobieren. Wir sind also dabei, Pionierarbeit zu leisten. Gesellschaftlich gesehen müssen wir den Gedanken von OpenData weiter voran treiben, da es OpenData in Deutschland noch nicht solange gibt wie zum Beispiel in den USA oder anderen europäischen Ländern. Weiterlesen

“Wir brauchen eine Anlaufstelle”

Vier Fragen an… Claus Weihs, Statistik-Professor an der TU Dortmund

Claus Weihs (Foto: Privat)

1. Welche besonderen Herausforderungen stellen sich für Datenjournalisten in Deutschland?
Datenjournalisten benötigen neben dem journalistischen Handwerkszeug eine umfangreiche technische Ausbildung. Sie müssen in der Lage sein, Daten vernünftig auszuwerten. Das ist eine große Herausforderung, denn die Methoden und die Computer entwickeln sich ständig weiter. Daher empfehle ich Datenjournalisten, unbedingt mit Statistikern und Informatikern zusammen zu arbeiten. Gesellschaftlich ist der Datenjournalist aus meiner Sicht ähnlichen Anforderungen ausgesetzt, wie der Journalist an sich. Weiterlesen

„Nicht zu leicht geschlagen geben“

Vier Fragen an… Sylke Gruhnwald, Leitung Data-Journalismus, Neue Zürcher Zeitung

Sylke Gruhnwald (Foto: Raphael Hünerfauth)

1. Welche besonderen Herausforderungen stellen sich für Datenjournalisten in Deutschland?
Eine besondere Herausforderung birgt oftmals der Zugriff auf unterschiedlichen Datenquellen, sprich die Verfügbarkeit von Datensätzen und Dokumenten. Welche Datensätze und Dokumente sind öffentlich zugänglich, welche sind weggeschlossen? Wir nutzen das Schweizerische Öffentlichkeitsgesetz oder die Informationsfreiheitsgesetze in Deutschland und auf Ebene der Europäischen Union, um Zugriff auf solche bis dato verschlossenen Informationen der öffentlichen Verwaltungen zu bekommen. Verschiedene Initiativen auf nationaler und internationaler Ebene unterstützen und stärken Journalisten darin, diese an die Öffentlichkeit zu bringen. Dazu zählen Öffentlichkeitsgesetz.ch, Transparenzsgetz.at, Fragdenstaat.de und Asktheeu.org. Weiterlesen

„Das ist wie schreiben lernen“

Vier Fragen an… Brigitte Alfter

Brigitte Alfter (Foto: Wulf Rohwedder)

1. Welche besonderen Herausforderungen stellen sich für Datenjournalisten in Deutschland?
Das Problem ist, die relevanten Daten aus den Behörden rauszuholen. Der Traum im Moment ist es, dass Datenjournalismus alles Mögliche lösen kann. Aber ich sehe Datenjournalismus als eine von mehreren Methoden. Wir dürfen uns nicht blenden lassen und denken, dass in den Daten alles drin steckt. Wir müssen eine ganze Menge andere Recherchen betreiben. Daten sind der Ausgangspunkt für eine bestimmte Story und nicht die Lösung. Weiterlesen

“Money for nothing?“

Vier Fragen an… Marco Maas

Marco Maas (Foto: Raphael Hünerfauth)

1. Welche besonderen Herausforderungen stellen sich Datenjournalisten in Deutschland?
Erst einmal stellt sich die Herausforderung, damit Geld zu verdienen. Das ist eine der größten Herausforderungen, weil die Redaktionen heutzutage noch nicht die datenjournalistischen Kompetenzen schätzen und aufbauen. Und das ist etwas, das es für freie oder externe Journalisten schwer macht, sich in diesem Bereich zu etablieren. Gesellschaftlich werden wir uns der Frage stellen müssen, ob es wirklich gerechtfertigt ist, so viel Aufwand in solche Sachen reinzustecken: Sind die Dinge, die wir damit aufdecken, wirklich so relevant, dass es sich lohnt, mehr daraus zu machen als hübsche Grafiken, die sich bewegen. Die Frage ist: Wo ist der Mehrwert? Ich glaube aber, dass wir in einer Welt leben, die immer technischer wird. Daher brauchen wir Experten, die verstehen mit diesen Daten umzugehen. Weiterlesen

„Wir sprechen ja auch nicht vom ‚Telefonjournalismus‘“

Vier Fragen an… Miguel Paz

Miguel Paz (Foto: Raphael Hünerfauth)

1. Welche besonderen Herausforderungen stellen sich für Datenjournalisten in Deutschland?
Journalisten weltweit und eben auch in Deutschland müssen verstehen, dass Datenjournalismus ein Teil davon ist, wie Journalismus heute funktioniert. Eigentlich ist es nur eine Methodologie, ein Werkzeug, das wir zwar Datenjournalismus nennen, sich aber auf alle verschiedenen journalistischen Sparten anwenden lässt. Sei es im Sportjournalismus oder im Gesundheitsjournalismus. Irgendwann, wird man gar nicht mehr über „den“ Datenjournalismus sprechen, sondern über die Werkzeuge, die er dem Journalisten zur Verfügung stellt. Wir sprechen ja auch nicht vom „Telefonjournalismus“. Einfach, weil es ganz normal ist, ein Telefon zu verwenden. Dahin auch mit dem zu kommen, was wir heute Datenjournalismus nennen, sollte das Ziel sein. Denn Datenjournalismus führt zu einem besseren Journalismus – das sollten die Redaktionen verstehen und vorleben. Außerdem sind die Zeiten des Journalisten als einsamem Wolf ohnehin vorbei – so unromantisch das klingen mag. Wir müssen uns zu Teamplayern entwickeln. Und wenn wir vor einem Berg an Daten sitzen, dann muss einer im Team sein, der sie entschlüsseln kann. Weiterlesen

Datenschutz mit zweierlei Maß

Vier Fragen an… Gregor Aisch

Gregor Aisch (Foto: Benjamin Richter)

Welche besonderen Herausforderungen stellen sich für Datenjournalisten in Deutschland?
Zunächst gibt es in Deutschland noch einen großen Erklärungsbedarf bei den Redaktionen. Es geht um die Bedeutung des Datenjournalismus und der Datenvisualisierung. In USA ist dies seit langem keine Frage mehr. Jede Zeitung hat eine „Data-Driven-Journalism“-Abteilung. Dazu müssen die Redaktionen Mittel für den Datenjournalismus zur Verfügung stellen und Weiterbildungen für Journalisten ermöglichen. Journalisten brauchen auch eine Selbstmotivation, um sich mit Daten zu beschäftigen. Eine weitere Herausforderung ist es in Deutschland, dass die Anzahl von datenaffinen Journalisten zu niedrig ist. Sie sind nur 20 oder 30 im ganzen Land. Das reicht nicht für alle Zeitungen und Zeitschriften. Allein bei der New York Times sind wir mehr als 40. Zum Schluss ist die Datenverfügbarkeit in Europa noch nicht zufriedenstellend, wenn gleich dieser Prozess auf einem guten Weg ist. Weiterlesen

Weiter