Panama Papers – weltweite Recherche-Kooperationen und jede Menge Daten

Seit einigen Tagen schlottern weltweiter Prominenz – vom Staatschef bis zum Fußballstar – die Knie. Die Panama Papers bringen lang unentdeckte Offshore-Geschäfte ans Licht, decken versteckte Milliarden auf und bringen einiges ins Wanken. Sie erhöhen den nötigen politischen und gesellschaftlichen Druck, Steueroasen trockenzulegen. Und sie zeigen auf, wie wichtig guter Recherche-Journalismus ist.

Was innerhalb des letzten Jahres hinter verschlossenen Türen recherchiert wurde und heute als unvergleichbare Enthüllungsgeschichte Wellen schlägt, begann mit einer kurzen E-Mail an das Investigativteam der Süddeutschen Zeitung. Aus der ersten Nachricht des „John Doe“ wurde eine stetig wachsende Datensammlung geleakter Informationen über die Geheimnisse der Kanzlei „Mossack Fonseca“, die von Panama City aus anonyme Briefkastenfirmen gründet: Zur Vertuschung großer Vermögen etwa, zur Geldwäsche, zur Finanzierung von Krieg und Terror oder der Umgehung von Sanktionen. Circa 2,6 Terabyte groß ist die Datenmenge, die der anonyme John Doe nach und nach an die Journalisten schickte. Schon früh war klar, dass dieser Berg an Informationen nicht von einer einzelnen deutschen Redaktion ausgewertet werden kann. Weiterlesen

E-Book zu Datenjournalismus erschienen

Datenjournalismus '14 - netzwerk rechercheWas sind das für Menschen, die mit Zahlen und Daten Geschichten erzählen wollen?
Welche Herausforderungen stellen sich für den Datenjournalismus – und wo sind dessen eigene Grenzen vor dem Hintergrund jüngster Datenskandale?

Das in Kooperation mit epubli entstandene E-Book “Datenjournalismus ’14 und weitere Schwerpunkte der nr-Jahreskonferenz” kann auf der epubli-Seite eingesehen und erworben werden. Weiterlesen

Der Daten-Überflieger

Skepsis im Blick und immer auf der Hut, seine Augen sehen müde aus: Lorenz Matzat hat an diesem Tag schon einen Vortrag und einige Fachgespräche hinter sich Nur noch einige Minuten, dann hat er schon den nächsten Termin. Und doch redet er ruhig und mit Bedacht. Und während seine Zuhörer noch vor einigen Jahren eher ungläubig über seine Ideen staunten, kommt heute eher die Frage nach der Vorgehensweise. 2012 wurde Lorentz Matzat vom medium magazin als einer der journalistischen Newcomer des Jahres ausgezeichnet. Doch wie wird man eigentlich zu einem Vorreiter des Datenjournalismus?

Am Anfang stand für Lorentz Matzat zunächst ein Studium zum Diplom-Politikwissenschaftler mit dem Schwerpunkt der Drogenpolitik. Daneben eschäftigte er sich mit Computerlernen – also damit, wie Computerprogramme dem Menschen beim lernen helfen können. Erstmals mit solcher Technik in Berührung gekommen, war Matzat begeistert von dem Potential und den Möglichkeiten der Interaktion zwischen Mensch und Maschine.

Als Matzat, immer noch begeistert von den Möglichkeiten moderner Technik, aufmerksam die Datenjournalismus-Szene in Amerika studierte, musste er erstaunt feststellen, dass in Deutschland noch kaum Datenjournalismus betrieben wird. Stattdessen herrschte in den Redaktionen eine Angst vor dem Unbekannten, den Kosten, der eigenen Unfähigkeit mit solch neuen Methoden umzugehen.

Nach einem Volontariat begann Matzat zunächst als freier Journalist und Medienpädagoge tätig zu werden. Wie aber wird ein Geisteswissenschaftler zum Experten in einer journalistischen Disziplin, die auf technischem Fachwissen basiert? Entsprechende Kurse gab es in Deutschland noch nicht. . Die einzige Chance: Der Zusammenschluss mit Gleichgesinnten. Zusammen mit Marco Maas gründet Matzat die Datenjournalismus-Agentur „OpenDataCity“. Als Plattform für Fachkollegen und als Beratungsstelle für Redaktionen in Sachen Datenjournalismus gestartet, ist die Agentur zu einer echten Größe in der Szene geworden. Ihr erster großer Coup: die Geschichte Verräterisches Handy für Zeit Online zur Vorratsdatenspeicherung. Durch die, von dem Grünenpolitiker Malte Spitz eingeklagten Verbindungsdaten der Telekom ließ sich ein ziemlich genaues Bewegungsprofil samt ein- und ausgehender SMS und Telefonate erstellen – und das abstrakte Problem der Vorratsdatenspeicherung wurde für jedermann im Netz anschaulich begreifbar.

Doch das Projekt warf auch neue Fragen auf: Wie darf und soll Datenjournalismus mit privaten und geschützten Daten umgehen? Für Matzat ist dies eine Abwägungsfrage. Dient es dem gesellschaftlichen Wohl, Erkenntnisse zu erlangen, die anders nicht einsehbar sind, sei es im Einzelfall legitim, Missstände aufzudecken, indem man formale und juristische Grauzonen nutzt – ähnlich wie es schon bisher im investigativen Journalismus üblich ist. Dennoch gelte der Grundsatz: „Private Daten schützen, öffentliche Daten nutzen.“

Die Entwicklungen im Journalismus schreiten dank Leuten wir Matzat voran, doch noch schneller ist die Entwicklung in der Technik. Gesellschaft, Gesetzgebung oder Journalismus können nicht so schnell verarbeiten, was an Technik regelmäßig erscheint. Dazu passt es, dass Pionier Matzat sich zusätzlich auch mit dem Einsatz von Drohnen im Journalismus beschäftigt. Bekanntlich haben Drohnen keinen guten Ruf. Doch Daten-Überflieger Matzat sieht darin mehr als unbemannte Flugobjekte, die in die Privatsphäre eindringen können und zum Werkzeug skrupelloser Morde werden. Mit sensiblen Sensoren ausgestattet, wäre es etwa möglich, damit Umweltdaten zu sammeln und so Missstände aufzudecken. So könnte eine U-Boot ähnliche Drohne genutzt werden, um die Wasserqualität an Abflussrohren zu messen.

Die Technikaffinität im Journalismus erscheint aber vielerorts noch unterentwickelt. Lorenz Matzat hingegen sieht die Zukunft in der Nutzung von Hightech im Journalismus. OpenDataCity hat er inzwischen verlassen, um sein eigenes Projekt lokaler.de zu starten – ein Service, der Datensätze in Relation zu Geokarten setzten kann.

Doch noch ist sein Ziel, den Datenjournalismus im deutschsprachigen Raum fest zu verankern, nicht erreicht. Also wird er weiter regelmäßig über den Datenjournalismus referieren, Medienhäuser beraten und von einem Termin zum nächsten eilen.

Krankenhausstatistik unter der Lupe: der Operationsexplorer

Herzinfarkte, Hüftgelenke, HIV: Jede Woche werden neue medizinische Studien über die Deutschen und ihre Krankheiten vorgestellt. Wer deren Aussagen unabhängig überprüfen will, stößt häufig auf Hindernisse: Zwar sind viele Daten beispielsweise beim Statistischen Bundesamt gegen Gebühr erhältlich, aber ohne gute Statistikkenntnisse und Spezialsoftware kommt man in den ewig langen Tabellen nicht sehr weit.

Vor ähnlichen Problemen stand auch Wissenschaftsjournalist Volker Stollorz.

„Wir bekamen einen regelrechten „Excel-Krampf“ bei der Überprüfung von Datensätzen über Hysterektomien“, berichtet er über ein Rechercheprojekt zu der Frage, wie häufig und warum Frauen die Gebärmutter entfernt wird. Das Projekt aus dem Jahr 2011 wurde im Rahmen der an der TU Dortmund angesiedelten Initiative Wissenschaftsjournalismus gefördert. Schon damals hatte er das Gefühl, so etwas müsse einfacher werden, um an der Geschichte zu arbeiten. Sein Glück: Als „Journalist in Residence“ beim Heidelberger Institut für theoretische Studien (HITS) und mit finanzieller Unterstützung der Robert Bosch Stiftung entwickelte Journalist Stollorz gemeinsam mit dem Programmierer Meik Bittkowski den OperationsExplorer. Der OperationsExplorer ist ein medizin-journalistisches Analysetool. Er soll einen vereinfachten Überblick über 18 Millionen Datensätze zu Diagnosen und Behandlungen in deutschen Krankenhäusern bieten und noch im Jahr 2014 starten.

Hinter den Datensätzen verbergen sich die Diagnosen, Operationen und Prozeduren nahezu aller Klinikpatienten in Deutschland, klassifiziert nach ICD-10- (International Classification of Diseases) und OPS-Codes (Operationen- und Prozedurenschlüssel). Außerdem lassen sich die vorhandenen Datensätze aus knapp 2000 deutschen Krankenhäusern nach Wohnort des Patienten, Geschlecht und 18 Altersgruppen aufgeschlüsselt betrachten. Damit die Daten trotz unterschiedlicher Altersstrukturen in unterschiedlichen Regionen vergleichbar werden, normiert der OperationsExplorer die Fallzahlen auf Fälle pro 100.000 Einwohner und sorgt auf Knopfdruck für eine Altersstandardisierung.

Gut für den Nicht-Statistiker, der zum Beispiel nach Daten über eine bestimmte Krankheit in verschiedenen Regionen sucht: Man spart viel Zeit und zusätzlich werden Fehler durch das Nicht-Beherrschen eines statistischen Handwerks vermieden.

Nutzungsmöglichkeiten für den Explorer sind zum Beispiel Analysen über medizinische Trends und Entwicklungen. Egal, ob es um die Verbreitung von Masern-Epidemien oder die nicht mehr zeitgemäße Nutzung von überholten Behandlungen geht – mit dem passenden Code lassen sich die Daten schnell auswählen und auf einer Deutschlandkarte darstellen.

Volker Stollorz weist allerdings darauf hin, dass diese Analysen nur so gut sein können „wie die Daten halt sind“. Denn diese werden von den Kodierern der Kliniken ins Abrechnungssystem der Krankenkassen eingetragen. Und es ist nicht auszuschließen, dass dieser Vorgang fehlerhaft ist oder sogar manipuliert wird – etwa um den Ertrag einer Klinik zu erhöhen. Das geflügelte Wort „Traue keiner Statistik, die du nicht selbst gefälscht hast“ hat also auch hier eine gewisse Berechtigung. Andererseits gilt: Es gibt eben keine besseren Daten. Auch die Krankenkassen mit ihren Studien nehmen die Abrechnungsstatistik als Grundlage für ihre Darstellungen, wie gut die Krankenversorgungslage in verschiedenen Regionen Deutschlands ist.

Und manche Daten können oder dürfen auch gar nicht genauer erfasst werden. So wird immer nur die einzelne Behandlung und nicht der Patient als solcher kodiert. Dadurch steigt die Gesamtzahl der Datensätze. Erreicht jemand mit einer Grippe das Krankenhaus und verlässt es zusätzlich nach einer Lungenentzündung, taucht er somit zweimal in der Statistik auf.

Das aber hat bereits mit dem Datenschutz für den einzelnen Patienten zu tun. Wenn man über das Zusammenlegen verschiedener Informationen einen bestimmten Patienten de-anonymisieren könnte, wäre für Volker Stollorz eine ethische Grenze erreicht. Aus diesem Grund sind die Daten im OperationsExplorer auch nur dann angegeben, wenn Diagnosen oder Operationen in mindestens drei Fällen vorhanden sind. So soll der direkte Bezug auf einen Patienten erschwert werden. Um zusätzlich den verantwortungsvollen Umgang mit den Daten zu stärken, ist das Projekt nicht als OpenData-Projekt gedacht. Stattdessen muss man sich innerhalb eines Clubmodells registrieren und die Nutzungsbedingungen akzeptieren.

„Ziel meiner Berichterstattung ist die Qualität der Behandlung und der generellen medizinischen Qualität in Deutschland transparent zu machen und zu verbessern.“, sagt Volker Stollorz. Zunächst aber befindet sich der Explorer in einer Test-Phase, um den Umgang damit zu üben, später soll er dann über das Registrierungsmodell mehr Leuten zugänglich gemacht werden. Bisher sind im auch nur die Daten von stationären Behandlungen aufgeführt, eine Erweiterung um Daten aus dem ambulanten Versorgungsbereich ist noch Zukunftsmusik. Und es gibt weitere Pläne: Die Datenbank soll um ein weiteres Thema, eine regional aufgeschlüsselte Todesursachenstatistik, ergänzt werden.

Ebenso hoffen die Entwickler auf eine zukünftig schnellere Einspeisung der Daten. Da bisher nur die Daten bis 2012 eingepflegt sind, entsteht eine Zeitdifferenz, in der manche Trends längst nicht mehr aktuell sind. Aber trotzdem gibt Volker Stollorz sich zuversichtlich, mit dem neuen Tool so manchen künftigen Excel-Krampf lösen zu können: „Ich habe das Gefühl, dass da recht coole Geschichten zu finden sind.“

Die Strukturierte

Strahlenbelastung in Fukushima, halsbrecherische Snowboardstunts, Flüchtlingstote vor den Toren Europas – das sind Geschichten, die auf den ersten Blick nichts gemeinsam haben. Sylke Gruhnwald ist die Frau, die die Verbindung schafft, denn in ihrer Hand laufen alle Fäden zusammen.
Sylke Gruhnwald ist Datenjournalistin mit Leib und Seele; sie sucht, findet, analysiert Daten, mischt Daten, erhebt eigene Daten. Folgt man etwa dem einen Faden in ihrer Hand, landet man bei dem Porträt über Iouri Podladtchikov, einem weltberühmten Schweizer Snowboarder. Um seinen bekanntesten Trick für die Leser zu veranschaulichen, haben Sylke Gruhnwald und ihr Team von der Neuen Zürcher Zeitung den Sprung „einfach“ unter Laborbedingungen nachgestellt – mit einem IPhone. Das Ergebnis: die multimediale Visualisierung des „Yolo-Flips“, später ausgezeichnet mit dem Grimme Online Award 2014.

Für Sylke Gruhnwald könnte man das auch einen Aufstieg in die Königsklasse des Datenjournalismus nennen. Sie selbst versteht unter „Königsklasse“ allerdings etwas völlig anderes. Eine eigene Datenbank zu erstellen, also „Source Data“ – das sei königlich und kröne die „Vier Level des Datenjournalismus“.

Level 1: Show Data –Datenvisualisierungen.
Level 2: Mashup Data – das Mischen von Datensätzen.
Level 3: Analyze Data – saubere Datenanalyse.
Level 4: Source Data – eine eigene Datenbank aufbauen.

Alle datenjournalistischen Projekte ließen sich nach diesem Schema gliedern, sagt sie. So auch das Projekt The Migrant Files, eine Dokumentation der Flüchtlingstoten vor den Toren Europas. Eine Gruppe europäischer Journalisten (darunter auch das Team um Sylke Gruhnwald von NZZ-Data) begab sich auf die Spuren der Flüchtlinge und stellte die Ergebnisse in einer großen Datenbank zusammen – Source Data, Königsklasse.

Als Teamleiterin von NZZ Data ist Sylke Gruhnwald in der Welt der Daten zuhause, die Daten sind ihr tägliches Brot. Vorgezeichnet war dieser Weg nicht, vom Sinologie- und BWL-Studium hin zum Datenjournalismus. Noch während sie ihr Diplom machte, begann sie, für den Economist in Wien zu arbeiten, danach ging sie als Wirtschaftsredakteurin zu NZZ-Online. Dort kam sie nach und nach in den Bereich des Datenjournalismus‘, erst mit 40 Prozent ihrer Stelle, dann zu 100 Prozent. Sie kämpfte dafür, ein eigenes Team zu bekommen, denn sie sah in den Daten mehr als Zahlen – eigene Geschichten und die Chance, neue Felder des Online-Journalismus zu erschließen. Ihr Bemühen hatte Erfolg.

Seit nunmehr fast zwei Jahren ist NZZ Data fester Bestandteil der Neuen Zürcher Zeitung und längst aus den Kinderschuhen raus: bereits zwei Nominierungen für den Grimme Online Award, einmal für das preisgekrönte Snowboarder-Porträt, einmal für eine multimediale Webdoku zur Situation in Fukushima, zwei Jahre nach der Katastrophe.

Bei solchen Projekten reize besonders die Recherche, sagt Sylke Gruhnwald. Recherchieren, das ist ihre Kernkompetenz. Dabei sei „Trial and Error“ das wichtigste – der mögliche Fehler ist nämlich vor der Recherche nicht sichtbar. So könne man mit einer spannenden These in die Datensuche starten und dann merken: Die Recherche gibt nichts her! „Man muss auch den Mut haben, eine Geschichte nicht zu machen.“

Anderen Problemen, die dem Journalisten-Dasein häufiger Steine im Weg sind, begegnet Sylke Gruhnwald mit Hartnäckigkeit. „Wenn ich mir etwas in den Kopf gesetzt habe und es wirklich will, erstreite ich es mir auch schon mal“. Und damit hat sie Erfolg – so wie damals bei der Etablierung von NZZ Data.

Was sie dort aufgebaut hat, gibt sie nun jedoch in die Hände ihrer Kollegen ab. Im August 2014 verlässt sie die NZZ und beginnt neu beim Schweizer Radio und Fernsehen. „Mein Chef sagt, Leute wechseln nur, wenn es ihnen im Büro nicht mehr gefällt“, lacht sie. Doch das sei nicht der Grund für den Wechsel. Beim SRF wird sie für den Aufbau von „SRF Data“ verantwortlich sein, die Fäden des Datenjournalismus im Haus werden bei ihr zusammenlaufen, ähnlich wie zuvor bei der NZZ. Was anders sein wird, ist die Medienvielfalt. Datenjournalismus in Radio und Fernsehen bringt viele Herausforderungen und Möglichkeiten, die es so im rein Digitalen nicht gibt. Das reizt, findet Sylke Gruhnwald.

Positiv blickt sie in die Zukunft. Nicht nur in ihre eigene, auch in die des Journalismus im Allgemeinen. Zurzeit würden viele neue Felder erschlossen, das seien immer wieder auch neue Chancen für den Journalismus. „Wir haben die Möglichkeit, alles anders zu gestalten.“ Was dabei hilft, ist Biss. Den hat sie. Und was noch? „Eine positive Grundeinstellung!“

Der Interdisziplinäre

„Ich bin Informatiker geworden, weil ich einfach faul bin“, erzählt Kristian Kersting. Schon als Kind hat er sich gerne davor gedrückt, sein Zimmer aufzuräumen. Und fand die Vorstellung toll, irgendjemandem oder irgendetwas beizubringen, die Arbeit für ihn zu erledigen.

Was wie ein lustiger Kindheitstraum klingt, tut Kersting heute tatsächlich in gewisser Weise: Das Forschungsgebiet des Informatik-Professors ist das Data Mining, die Extraktion von Wissen aus großen und komplexen Datenmengen. 2006 hat Kersting auf diesem Gebiet in Freiburg promoviert, es folgte ein Aufenthalt am Massachusetts Institute of Technology (MIT), am Fraunhofer-Institut in Sankt Augustin und an der Universität Bonn, bis er eine Professur an der Technischen Universität in Dortmund annahm.

Dort kam er zum ersten Mal in direkten Kontakt mit dem Journalismus. Beim Antrittsbesuch im Rektorat lernte er Henrik Müller kennen, damals ebenfalls neu ernannter Professor am Lehrstuhl für wirtschaftspolitischen Journalismus. Man kam ins Gespräch und so wurde ein neues Projekt erdacht: Unter dem Namen „ECONIM“ (Economic Narratives in the Media) soll die internationale Berichterstattung um die Finanzkrise betrachtet werden. Dabei werden aus dem Repertoire von Online-Datenbanken mehrere Tausend Artikel unter die Lupe genommen, für einen Menschen ohne maschinelle Hilfe wäre in diesen Mengen ein „Aufräumen“ unmöglich. Welche Themen dabei dominant sind und welche Wörter in Verbindung miteinander auftreten, lässt sich mit Methoden aus dem Data Mining feststellen – und lässt möglicherweise Rückschlüsse auf Sichtweisen in den jeweiligen Ländern zu. Aus der Entwicklung können auch Prognosen für den weiteren Verlauf der Kriseabgeleitet und mögliche Erschütterungen im Voraus erkannt werden, sagt Kersting.

Aber egal wie viele Daten man aufräumt und sortiert, lässt sich die Zukunft überhaupt sicher vorhersagen?„Klar gibt es keine Sicherheiten, nur Wahrscheinlichkeiten. Irgendwann treffen Mensch und Maschine aber gemeinsam informierte Entscheidungen“, sagt der 40-Jährige. Für Kersting ergänzen sich die beiden kooperierenden Disziplinen aus Wissenschaft und Medien jedenfalls hervorragend: „Es gibt eine ganz natürliche Beziehung zwischen Informatikern und Journalisten“ – was die einen technisch besser finden könnten, verpackten die anderen in Worte.

Für die Zukunft wünscht sich Kersting jedenfalls eine bessere Aufklärung zum Umgang mit Daten schon in der Schule – und das auch außerhalb des Informatikunterrichts. Jeder solle wissen, dass er digital Daten hinterlässt. Aus den Vorteilen neuer Technologien kann nämlich nur der schöpfen, der auch mit den Risiken vertraut ist und diese umfassend im Blick behält. Das muss auch ein Informatiker wie Kersting – bei aller sympathischen Faulheit.

Der Investigative

Die Geschichte der im fünften Monat schwangeren Jessica Zeppa ist vielleicht typisch für das, was Andrew Lehrens Arbeit ausmacht: Recherchen an der Schnittstelle zwischen Investigativ- und Datenjournalismus. Zeppa musste sterben, weil in einem US-Militärkrankenhaus eine Sepsis – eine schwere Blutvergiftung– nicht erkannt wurde. Ein Einzelschicksal, das man nicht dramatisieren sollte, oder ein Indiz für die allgemein mangelnde Versorgung in Militärkrankenhäusern?

Um die Frage zu beantworten, kämpften sich Andrew Lehren und sein Team durch Datenberge; Akten, in denen unerwartete Todesfälle verzeichnet wurden, glichen sie mit jenen Akten ab, in denen unerwartete Todesfälle letztlich auch gemeldet wurden. Die Ergebnisse wurden sortiert, visualisiert und kombiniert mit einer investigativen Reportage über mangelnde Patientensicherheit – bedingt durch Strukturprobleme in Verwaltungsapparaten, Hierarchiekonflikte in Krankenhäusern und mangelnde Aufarbeitung durch die zuständigen Stellen des Pentagons. Datenrecherchen und Investigativrecherche verschmolzen so zu einer Einheit. Das Ergebnis: Im Zeitraum von 2011 bis 2013 waren 239 unerwartete Todesfälle dokumentiert, jedoch nur 100 an das „patient-safety-center“ des Pentagons weitergleitetworden – wo Experten herausfinden sollen, wie die Behandlung in Militärkrankenhäusern verbessert werden kann. Und das obwohl die betreffenden Krankenhäuser tatsächlich deutlich höhere Quoten von Komplikationen und Schäden bei Geburten und Operationen zu verzeichnen hatten. Zeppas Fall war somit charakteristisch für mangelhafte medizinische Versorgung sowie symbolhaft für viele vermeidbare Fehler mit Todesfolge.

Für Andrew Lehren bergen Daten unendlich viele Geschichten, die erzählt werden müssen, weil sie den Leser etwas angehen, ihn berühren. Doch anstatt nur ein Diagramm anzufertigen, geht er raus in die Welt und sucht die Menschen hinter den abstrakten Daten. Er beschäftigt sich mit konkreten Fällen, menschlichen Schicksalen und sucht gezielt nach ungeklärten Fragen. Um diese beantworten zu können, schreibt Andrew Lehren die Geschichten dieser Menschen auf. So will er sein Publikum informieren und auch emotional erreichen. Dabei kombiniert er immer wieder alte und neue Methoden der Recherche.

Angefangen hat alles 1988 mit dem Besuch einer Tagung der Vereinigung „Investigative Journalists and Editors“, die ihm klar machte, wie häufig Interessenkonflikte tatsächlich sind und wie unsicher Quellen sein können. Er begann zunehmend, die Dinge investigativ zu recherchieren und entwickelte eigene Strategien. Darüber ließe sich, wie er heute sagt, unendlich lange reden. Am wichtigsten ist ihm aber, dass Journalisten ständig und bei jeder Quelle kritisch denken – und nicht die Komplexität einer Geschichte aus Bequemlichkeiten fallen lassen. Anstatt die in den USA (und nicht nur dort) weit verbreiteten „He-said-she-said-stories“ zu schreiben, soll ein Journalist mit allen zur Verfügung stehenden Mitteln versuchen, dem Leser die Wahrheit zu liefern.

Ein weiteres Beispiel dafür, wie Andrew Lehren althergebrachte Recherche mit neuen Methoden verknüpft, ist die Geschichte von Sergant Bergdahl. Der in Afghanistan stationierte Soldat äußerte in Briefen an seine Eltern Zweifel am Vorgehen der amerikanischen Army. Als er danach plötzlich verschwand, wurde in Amerika eine Diskussion losgetreten, ob der Soldat wirklich von der Taliban entführt worden sei, wie es offiziell hieß. Um die Wahrheit zu finden, ging Andrew Lehren einen Schritt zurück und arbeitete sämtliche auf Wikileaks zugänglichen War Logs zur Einheit Bergdahls durch, die vor seinem Verschwinden geschrieben worden waren. Um ausschließen zu können, dass Bergdahl in Wahrheit aus Unzufriedenheit desertiert war, sondern tatsächlich entführt worden war, untersuchte Lehren das Thema –ohne Rücksicht auf die darauf projizierten politischen Probleme Amerikas zu. Anhand der analysierten Dokumenteließ sich die Entführung Bergdahls bestätigen, aber auch, dass seine stationierte Einheit bekannt für einige Schwierigkeiten war. Mehr noch: Sie spiegeltestrukturelle Probleme des gesamten amerikanischen Militärsystems wieder, weswegen die politische Diskussion um Bergdahls Unschuld erst losgetreten wurde.

Bei seinem persönlichen Kampf für die Wahrheit und für den Qualitätsjournalismus hilft Andrew Lehren die Beschaffung und Analyse von Datensätzen immer wieder – auch wenn es mal nicht um ein Militärthema geht. Bei der New York Times arbeiten dazu Hacker und Journalisten im Team an ihren Geschichten, um zu dafür zu sorgen, dass bei der Verarbeitung der Daten möglichst nichts schief geht. Der Leser soll an erster Stelle stehen und sich drauf verlassen könne, dass alles richtig ist. Andrew Lehrens Leidenschaft, die alte Schule der Journalismus zu pflegen, und zugleich ständig neue Recherchekünste zu lernen, erweist sich dabei inzwischen als die vielleicht beste Strategie.

Der Journalist als Programmierer? – Von Zaubertöpfen und Netzverstehern

Als Sebastian Vollnhals auf der Jahrestagung des netzwerk recherche von „Klicki-Bunti-Seiten“spricht, deren maschinenlesbare Informationen sich mit eigens programmierter Software aus dem Internet fischen lässt, blickt er in die ratlosen Gesichter vieler Journalisten. Denn wenn Vollnhals von diesen Scraping-Programmen redet, dann redet er auch viel von Quellcodes und von Formaten wie html, csv, xml, json, rss und atom. Als Journalist komme man darum aber eben nicht herum – zumindest nicht, wenn man Daten für Geschichten sucht, die sonst keiner hat.

Ein bisschen „wonky“ sei es ja schon, so viel gesteht Sebastian Vollnhals den Journalisten noch zu. Trotzdem ist Programmieren für ihn etwas, das jeder einfach lernen kann – jeder, der es wirklich versucht. „Das ist alles eine Frage des Selbstbewusstseins“, sagt Vollnhals. Er habe sich alles, was er über Programmierung weiß, selbst beigebracht, mithilfe von Büchern. Kein Studium – nur eine abgebrochene Ausbildung zum Fachinformatiker.

Sebastian Vollnhals ist der Typ Mensch, den man anhand von Klischees schnell in die Kategorie Nerd oder Geek steckt. Das scheint er zu wissen und irgendwie scheint es ihm sogar zu gefallen. „Ich bin wohl in den Zaubertopf gefallen“, erklärt er sein schnelles Verständnis für Daten und Programmiertechniken. Doch was tun, wenn besagter Zaubertopf nicht auffindbar ist? Muss der normale Journalist dann tatsächlich mühsam programmieren lernen, um mit Daten zu arbeiten?

Marco Maas glaubt das nicht: „Journalisten sind Storyteller“, erklärt der Datenjournalist. Dinge wie das Scrapen lägen nicht in ihrem Aufgabenbereich. Nicht umsonst müssten Programmierer ihren Job in der Regel fünf bis sechs Jahre lernen, bevor sie wirklich gut seien– ebenso wie Journalisten. „Das zu vermengen ist gar nicht unbedingt sinnvoll oder gewinnbringend“, sagt Maas. Vollnhals ist da anderer Meinung: „Es sollte mittlerweile zum Handwerkszeug eines Journalisten gehören, zumindest ansatzweise programmieren zu lernen.“ Informationen könne man heutzutage nicht mehr in einem Aktenschrank finden, auch reiche es nicht mehr aus, irgendwelche Leute zu interviewen. „Es kommen immer mehr Informationen aus dem Netz“, sagt er.

Auf den ersten Blick sind die beiden Datenjournalisten ein ungleiches Paar: Vollnhals ist der Exzentriker mit blau lackierten Fingernägeln und pinken Haaren, Maas eher der etwas ruhigere Anzugträger. Trotzdem gehören die beiden zum Kernteam von Open Data City, einer Datenjournalismus-Agentur. Zwar kennt sich auch Marco Maas mit Daten aus und weiß, wie man sie beschafft und visualisiert. Für ihn gibt es aber eine Grenze von dem, was ein Journalist wirklich lernen muss. Er selbst würde sich Hilfe holen, wenn er nicht mehr weiter weiß – zum Beispiel bei Vollnhals. „Es gibt Experten auf jedem Gebiet, die dann zusammenkommen, um gemeinsam an einem Projekt zu arbeiten“, sagt Maas. „Datenjournalismus wird immer mehr zur Teamarbeit.“

So oder so: Der Journalismus wird technischer, da sind sich die beiden einig. Vollnhals geht sogar noch einen Schritt weiter: „Es wird bald keinen Datenjournalismus mehr geben, weil es keinen Journalismus ohne Daten mehr geben wird“, sagt er. „Und wenn du selbst kein Nerd bist, such dir einen“, rät er denen, die sich so gar nicht damit anfreunden können. Finden kann man einen Nerd – das sollte ausreichend deutlich geworden sein– eben zum Beispiel bei Open Data City. Die Agentur hilft dabei, Technik-Freaks und Journalisten an einen Tisch zu bringen und so ganz neue Ideen umzusetzen.

Trotzdem sei es nicht verkehrt, sich mit manchen Dingen selbst auszukennen, findet auch Marco Maas: „Je mehr man selbst machen kann, desto besser kann man auch Geschichten umsetzen“, erklärt er. Dabei muss jeder selbst entscheiden, wie weit diese Eigenständigkeit gehen soll. „Ich glaube, es wird immer eine Teilung zwischen Hardcore-Codern und Journalisten geben, die ein bisschen verstehen, wie diese Leute ticken und vielleicht Einstiegssachen selbst machen können“, sagt Maas.Und dabei denkt er wohl auch an seinen Kollegen Vollnhals und sich selbst.

Der Spurensucher

Jeder ungeübte Internetnutzer hinterlässt Spuren im Datensumpf des WorldWideWeb, die sich nur schwer wieder verwischen lassen. Nur bei Sebastian Mondial scheint das anders zu sein: Privates über ihn ist kaum zu finden im Netz, schon sein Alter muss per Mail hinterfragt werden – gesetzt den Fall, der Suchende findet seine Adresse. Von den Spuren seiner Arbeit hat hingegen fast jeder schon einmal gehört: Mondial war einer der zentralen Figuren beim Investigativ-Projekt „offshore-Leaks“.

Seit Jahren verdient er sein Geld mit dem Datenjournalismus, lebt vom großen internationalen Vertrauen in sein Können als investigativer Datenspezialist. Nebenbei trainiert er andere Journalisten darin, digitale Informationen in der Recherche zu erschließen und zugleich mit den eigenen Daten sicher umzugehen.

Einer seiner ersten Aufträge nach dem Studium an der TU Dortmund kam – heute muss man sagen ausgerechnet – von google. Unter der sperrigen Berufsbezeichnung eines Search Quality Raters suchte er gezielt nach Daten und Informationen, die die Suchmaschine mit ihrem Algorithmus nicht zu finden vermochte und machte diese zugänglich. Ein derartiger Mitarbeiter untersucht und ändert unter anderem, wie gut die Reihenfolge der Suchergebnisse zu der Anfrage passt. Tippt der Suchende beispielsweise bayrischer Wald ein, soll zuerst ein Link zur Karte oder zum Gebiet erscheinen und nicht ein Restaurant mit diesem Namen.

Nächste Station war die Nachrichtenagentur dpa, genauer die Redaktion dpa-RegioData. Zuvor hatte er einen Teil der Redaktion schon in computergestützter Recherche geschult. Als die dpa beschloss, eine Datenjournalismus-Redaktion aufzubauen – die erste Redaktion Deutschlands, die sich darauf spezialisierte –, war Mondial ein erster Ansprechpartner. Nachdem er als Datenjournalist beim stern und als als Trainer an der Henri-Nannen-Schule seine nächsten Spuren hinterlassen hatte, kam dann eine überraschende Einladung aus Übersee. Ohne genau zu wissen, worum es eigentlich gehen sollte, saß Mondial bald einem Mitarbeiter der größten länderübergreifenden Vereinigung aus investigativen Journalisten (ICIJ) an einem großen Konferenztisch in Washington gegenüber. Der schob ihm bald darauf eine Festplatte zu, mit der Bitte die enthaltenden Daten auf vermeintliche Spuren zu Herkunft und Manipulationen zu untersuchen.

260 Gigabyte Daten galt es mit speziellen Programmen nach Auffälligkeiten zu durchforsten. Der Tragweite des Projektes war sich Mondial zunächst gar nicht bewusst, erst nach einem halben Jahr zeigte sich in einem ersten internen Überblick auch die mediale Reichweite. Das Resultat von über einem Jahr Arbeit war das wohl größte digitale Leak über Steuerhinterziehung – bei einer Bank mit Offshore-Finanzplatz und weltweiter Akteure im Steuerparadies – mit Sebastian Mondial als einem der zentralen Rechercheure, bekannt als offshore leaks. Er arbeitete mit einer teuren Forensik-Software, die normaler Weise in Kriminalfällen verwendet wird, um die Datenmenge zu analysieren und Auffälligkeiten zu entdecken, die wiederum von insgesamt 80 Journalisten zu Geschichten verarbeitet wurden.

Nach diesem riesigen Erfolg ist der Datenspezialist jedoch keinesfalls abgehoben, die wenigen Spuren von seiner Person selbst im Netz mögen dafür bereits ein Indiz sein. Mit einem realistischen Blick freut er sich in Zukunft auch wieder auf bodenständigere Projekte. Die Hauptsache dabei: Daten.

Die digitale Büchse der Pandora

Sei es im Sand, Matsch oder Schnee: Wo der Mensch auch hingeht, hinterlässt er sichtbare Spuren. Es lässt sich zurückverfolgen, wo er herkam, wo er hingeht. In der realen Welt kann er seine Spuren verwischen – im digitalen Internet ist das schwieriger. Spätestens seit dem NSA-Skandal lässt sich die permanente Massenüberwachung durch Behörden nicht mehr leugnen. Der Zugang zu privaten Telefonaten und E-Mails ist maschinell in Sekundenschnelle möglich.

„Es ist wie die Büchse der Pandora. Sie wurde geöffnet, nun gibt es kein Zurück mehr. Man kann nur versuchen, sich zu schützen“, sagt Sebastian Mondial, Journalist bei der „Zeit“. Der Erfolg seiner Arbeit und der seiner Kollegen in der investigativen Recherche hängt auch von der nötigen Geheimhaltung und Privatsphäre ab, die durch die Überwachung sabotiert und gefährdet wird. Welche Daten Geheimdienste über Journalisten gespeichert haben, können diese erfragen. Um dies möglichst einfach zu gestalten, hat das „netzwerkrecherche“ einen Antragsgenerator auf seiner Internetseite eingerichtet. Damit solle den Behörden gezeigt werden, dass ihr Handeln in der Öffentlichkeit kritisch betrachtet wird.

Ein absoluter Schutz vor Überwachung ist nämlich nicht möglich. Hat zum Beispiel die NSA eine Person im Visier, kann sie diese in jedem Fall überwachen – auch trotz persönlicher Sicherheitsmaßnahmen. Doch Sebastian Mondial geht es um die breite Masse: Wenn alle ihre Daten verschlüsselten, wäre deren flächendeckende Erfassung auch für Geheimdienste schlicht zu aufwendig. Einige Programme und Tricks, die die Überwachung zumindest erschweren, stellte Mondial auf der Jahrestagung des „netzwerkrecherche“ vor.

Eine große Rolle spielt dabei die Kryptografie, also die Verschlüsselung von Nachrichten. Der Handy-Messenger Threema generiert dafür zwei individuelle Schlüssel: Einen öffentlichen und einen privaten. Der öffentliche darf verbreitet werden und kann in Kombination mit dem Privaten eine Nachricht verschlüsseln. Eine Nachricht entschlüsselt dann nur der private Schlüssel, der unbedingt geheim bleiben sollte. Dabei speichert der Threema-Server die Nachricht nur im verschlüsselten Zustand. Ruft der Empfänger die Nachricht auf, wird diese direkt vom Server gelöscht.

Mit diesem Prinzip arbeiten auch diverse andere Programme wie PGP („PrettyGood Privacy“), mit denen E-Mails abgesichert werden können, oder “Tor”, das die verschlüsselte Nachricht erst durch mehrere Knotenpunkte im Web leitet, bis sie den Empfänger erreicht. Damit wird es nahezu unmöglich, den Weg eines Datenpakets durch das Internet zurückzuverfolgen. Dem Entwickler von „Tor“, Jacob Appelbaum, kann es gar nicht sicher genug sein: Er rät gänzlich von Smartphones ab, vor allem denjenigen mit einer GPS- Funktion. Denn auch viele der angebotenen Software und Apps, sowohl für den Computerals auch für das Telefon, stehen in der Kritik, Sicherheitslücken zu haben.
Besondere Vorsicht ist bei allen Programmen geboten, die Zugang zum Internet haben und ständig private Daten von dem Mobiltelefon auf den Server schicken – dazu gehören auch die Betriebssysteme selbst, etwa Android oder iOs. Es bringt schließlich nichts, wenn ein Brief verschlossen beim Empfänger ankommt, jedoch beim Schreiben schon mitgelesen werden kann.

Momentan schrecken viele Journalisten noch vor solchen Tools zurück. Für die einen sind es die Kosten, für die anderen der Aufwand. Manche Journalisten setzen auf absolute Transparenz ihrer Recherche, andere wiederum sehen einfach (noch) keinen Sinn in der Verschlüsselung. „Ich habe keine Themen am Wickel, die die NSA oder ein anderer großer Bruder, der uns beobachtet, nicht wissen dürfte“, sagte Birte Siedenburg, freie Wirtschaftsjournalistin in einem Zapp-Interview während der netzwerk recherche-Tagung. Georg Mascolo, Leiter des Rechercheverbundes von NDR, WDR und der Süddeutschen Zeitung wirft zudem die Frage auf, ob es nicht sicherer wäre, „sich im Heuhaufen zu verstecken“, anstatt mit der Benutzung von Anonymisierungssoftware die Aufmerksamkeit erst recht auf sich zu lenken. Denn offenbar gelten deren Nutzer vielen gleich als besonders verdächtig, dass sie etwas zu verbergen haben könnten.

Für die Standpunkte der beiden Kollegen hat auch Mondial Verständnis. Trotzdem schaut er optimistisch in die Zukunft der Kryptografie und hofft, dass einige Sicherheitsmaßnahmen bald Standard sind und „quasi mit zum Tarif“ gehören. Damit wäre dann auch der digitale Heuhaufen nicht mehr nötig – und die massenhafte Überwachung vielleicht schon bald Vergangenheit. Oder zumindest deutlich schwieriger.

Weiter