Der Daten-Überflieger

Skepsis im Blick und immer auf der Hut, seine Augen sehen müde aus: Lorenz Matzat hat an diesem Tag schon einen Vortrag und einige Fachgespräche hinter sich Nur noch einige Minuten, dann hat er schon den nächsten Termin. Und doch redet er ruhig und mit Bedacht. Und während seine Zuhörer noch vor einigen Jahren eher ungläubig über seine Ideen staunten, kommt heute eher die Frage nach der Vorgehensweise. 2012 wurde Lorentz Matzat vom medium magazin als einer der journalistischen Newcomer des Jahres ausgezeichnet. Doch wie wird man eigentlich zu einem Vorreiter des Datenjournalismus?

Am Anfang stand für Lorentz Matzat zunächst ein Studium zum Diplom-Politikwissenschaftler mit dem Schwerpunkt der Drogenpolitik. Daneben eschäftigte er sich mit Computerlernen – also damit, wie Computerprogramme dem Menschen beim lernen helfen können. Erstmals mit solcher Technik in Berührung gekommen, war Matzat begeistert von dem Potential und den Möglichkeiten der Interaktion zwischen Mensch und Maschine.

Als Matzat, immer noch begeistert von den Möglichkeiten moderner Technik, aufmerksam die Datenjournalismus-Szene in Amerika studierte, musste er erstaunt feststellen, dass in Deutschland noch kaum Datenjournalismus betrieben wird. Stattdessen herrschte in den Redaktionen eine Angst vor dem Unbekannten, den Kosten, der eigenen Unfähigkeit mit solch neuen Methoden umzugehen.

Nach einem Volontariat begann Matzat zunächst als freier Journalist und Medienpädagoge tätig zu werden. Wie aber wird ein Geisteswissenschaftler zum Experten in einer journalistischen Disziplin, die auf technischem Fachwissen basiert? Entsprechende Kurse gab es in Deutschland noch nicht. . Die einzige Chance: Der Zusammenschluss mit Gleichgesinnten. Zusammen mit Marco Maas gründet Matzat die Datenjournalismus-Agentur „OpenDataCity“. Als Plattform für Fachkollegen und als Beratungsstelle für Redaktionen in Sachen Datenjournalismus gestartet, ist die Agentur zu einer echten Größe in der Szene geworden. Ihr erster großer Coup: die Geschichte Verräterisches Handy für Zeit Online zur Vorratsdatenspeicherung. Durch die, von dem Grünenpolitiker Malte Spitz eingeklagten Verbindungsdaten der Telekom ließ sich ein ziemlich genaues Bewegungsprofil samt ein- und ausgehender SMS und Telefonate erstellen – und das abstrakte Problem der Vorratsdatenspeicherung wurde für jedermann im Netz anschaulich begreifbar.

Doch das Projekt warf auch neue Fragen auf: Wie darf und soll Datenjournalismus mit privaten und geschützten Daten umgehen? Für Matzat ist dies eine Abwägungsfrage. Dient es dem gesellschaftlichen Wohl, Erkenntnisse zu erlangen, die anders nicht einsehbar sind, sei es im Einzelfall legitim, Missstände aufzudecken, indem man formale und juristische Grauzonen nutzt – ähnlich wie es schon bisher im investigativen Journalismus üblich ist. Dennoch gelte der Grundsatz: „Private Daten schützen, öffentliche Daten nutzen.“

Die Entwicklungen im Journalismus schreiten dank Leuten wir Matzat voran, doch noch schneller ist die Entwicklung in der Technik. Gesellschaft, Gesetzgebung oder Journalismus können nicht so schnell verarbeiten, was an Technik regelmäßig erscheint. Dazu passt es, dass Pionier Matzat sich zusätzlich auch mit dem Einsatz von Drohnen im Journalismus beschäftigt. Bekanntlich haben Drohnen keinen guten Ruf. Doch Daten-Überflieger Matzat sieht darin mehr als unbemannte Flugobjekte, die in die Privatsphäre eindringen können und zum Werkzeug skrupelloser Morde werden. Mit sensiblen Sensoren ausgestattet, wäre es etwa möglich, damit Umweltdaten zu sammeln und so Missstände aufzudecken. So könnte eine U-Boot ähnliche Drohne genutzt werden, um die Wasserqualität an Abflussrohren zu messen.

Die Technikaffinität im Journalismus erscheint aber vielerorts noch unterentwickelt. Lorenz Matzat hingegen sieht die Zukunft in der Nutzung von Hightech im Journalismus. OpenDataCity hat er inzwischen verlassen, um sein eigenes Projekt lokaler.de zu starten – ein Service, der Datensätze in Relation zu Geokarten setzten kann.

Doch noch ist sein Ziel, den Datenjournalismus im deutschsprachigen Raum fest zu verankern, nicht erreicht. Also wird er weiter regelmäßig über den Datenjournalismus referieren, Medienhäuser beraten und von einem Termin zum nächsten eilen.

Die Strukturierte

Strahlenbelastung in Fukushima, halsbrecherische Snowboardstunts, Flüchtlingstote vor den Toren Europas – das sind Geschichten, die auf den ersten Blick nichts gemeinsam haben. Sylke Gruhnwald ist die Frau, die die Verbindung schafft, denn in ihrer Hand laufen alle Fäden zusammen.
Sylke Gruhnwald ist Datenjournalistin mit Leib und Seele; sie sucht, findet, analysiert Daten, mischt Daten, erhebt eigene Daten. Folgt man etwa dem einen Faden in ihrer Hand, landet man bei dem Porträt über Iouri Podladtchikov, einem weltberühmten Schweizer Snowboarder. Um seinen bekanntesten Trick für die Leser zu veranschaulichen, haben Sylke Gruhnwald und ihr Team von der Neuen Zürcher Zeitung den Sprung „einfach“ unter Laborbedingungen nachgestellt – mit einem IPhone. Das Ergebnis: die multimediale Visualisierung des „Yolo-Flips“, später ausgezeichnet mit dem Grimme Online Award 2014.

Für Sylke Gruhnwald könnte man das auch einen Aufstieg in die Königsklasse des Datenjournalismus nennen. Sie selbst versteht unter „Königsklasse“ allerdings etwas völlig anderes. Eine eigene Datenbank zu erstellen, also „Source Data“ – das sei königlich und kröne die „Vier Level des Datenjournalismus“.

Level 1: Show Data –Datenvisualisierungen.
Level 2: Mashup Data – das Mischen von Datensätzen.
Level 3: Analyze Data – saubere Datenanalyse.
Level 4: Source Data – eine eigene Datenbank aufbauen.

Alle datenjournalistischen Projekte ließen sich nach diesem Schema gliedern, sagt sie. So auch das Projekt The Migrant Files, eine Dokumentation der Flüchtlingstoten vor den Toren Europas. Eine Gruppe europäischer Journalisten (darunter auch das Team um Sylke Gruhnwald von NZZ-Data) begab sich auf die Spuren der Flüchtlinge und stellte die Ergebnisse in einer großen Datenbank zusammen – Source Data, Königsklasse.

Als Teamleiterin von NZZ Data ist Sylke Gruhnwald in der Welt der Daten zuhause, die Daten sind ihr tägliches Brot. Vorgezeichnet war dieser Weg nicht, vom Sinologie- und BWL-Studium hin zum Datenjournalismus. Noch während sie ihr Diplom machte, begann sie, für den Economist in Wien zu arbeiten, danach ging sie als Wirtschaftsredakteurin zu NZZ-Online. Dort kam sie nach und nach in den Bereich des Datenjournalismus‘, erst mit 40 Prozent ihrer Stelle, dann zu 100 Prozent. Sie kämpfte dafür, ein eigenes Team zu bekommen, denn sie sah in den Daten mehr als Zahlen – eigene Geschichten und die Chance, neue Felder des Online-Journalismus zu erschließen. Ihr Bemühen hatte Erfolg.

Seit nunmehr fast zwei Jahren ist NZZ Data fester Bestandteil der Neuen Zürcher Zeitung und längst aus den Kinderschuhen raus: bereits zwei Nominierungen für den Grimme Online Award, einmal für das preisgekrönte Snowboarder-Porträt, einmal für eine multimediale Webdoku zur Situation in Fukushima, zwei Jahre nach der Katastrophe.

Bei solchen Projekten reize besonders die Recherche, sagt Sylke Gruhnwald. Recherchieren, das ist ihre Kernkompetenz. Dabei sei „Trial and Error“ das wichtigste – der mögliche Fehler ist nämlich vor der Recherche nicht sichtbar. So könne man mit einer spannenden These in die Datensuche starten und dann merken: Die Recherche gibt nichts her! „Man muss auch den Mut haben, eine Geschichte nicht zu machen.“

Anderen Problemen, die dem Journalisten-Dasein häufiger Steine im Weg sind, begegnet Sylke Gruhnwald mit Hartnäckigkeit. „Wenn ich mir etwas in den Kopf gesetzt habe und es wirklich will, erstreite ich es mir auch schon mal“. Und damit hat sie Erfolg – so wie damals bei der Etablierung von NZZ Data.

Was sie dort aufgebaut hat, gibt sie nun jedoch in die Hände ihrer Kollegen ab. Im August 2014 verlässt sie die NZZ und beginnt neu beim Schweizer Radio und Fernsehen. „Mein Chef sagt, Leute wechseln nur, wenn es ihnen im Büro nicht mehr gefällt“, lacht sie. Doch das sei nicht der Grund für den Wechsel. Beim SRF wird sie für den Aufbau von „SRF Data“ verantwortlich sein, die Fäden des Datenjournalismus im Haus werden bei ihr zusammenlaufen, ähnlich wie zuvor bei der NZZ. Was anders sein wird, ist die Medienvielfalt. Datenjournalismus in Radio und Fernsehen bringt viele Herausforderungen und Möglichkeiten, die es so im rein Digitalen nicht gibt. Das reizt, findet Sylke Gruhnwald.

Positiv blickt sie in die Zukunft. Nicht nur in ihre eigene, auch in die des Journalismus im Allgemeinen. Zurzeit würden viele neue Felder erschlossen, das seien immer wieder auch neue Chancen für den Journalismus. „Wir haben die Möglichkeit, alles anders zu gestalten.“ Was dabei hilft, ist Biss. Den hat sie. Und was noch? „Eine positive Grundeinstellung!“

Der Interdisziplinäre

„Ich bin Informatiker geworden, weil ich einfach faul bin“, erzählt Kristian Kersting. Schon als Kind hat er sich gerne davor gedrückt, sein Zimmer aufzuräumen. Und fand die Vorstellung toll, irgendjemandem oder irgendetwas beizubringen, die Arbeit für ihn zu erledigen.

Was wie ein lustiger Kindheitstraum klingt, tut Kersting heute tatsächlich in gewisser Weise: Das Forschungsgebiet des Informatik-Professors ist das Data Mining, die Extraktion von Wissen aus großen und komplexen Datenmengen. 2006 hat Kersting auf diesem Gebiet in Freiburg promoviert, es folgte ein Aufenthalt am Massachusetts Institute of Technology (MIT), am Fraunhofer-Institut in Sankt Augustin und an der Universität Bonn, bis er eine Professur an der Technischen Universität in Dortmund annahm.

Dort kam er zum ersten Mal in direkten Kontakt mit dem Journalismus. Beim Antrittsbesuch im Rektorat lernte er Henrik Müller kennen, damals ebenfalls neu ernannter Professor am Lehrstuhl für wirtschaftspolitischen Journalismus. Man kam ins Gespräch und so wurde ein neues Projekt erdacht: Unter dem Namen „ECONIM“ (Economic Narratives in the Media) soll die internationale Berichterstattung um die Finanzkrise betrachtet werden. Dabei werden aus dem Repertoire von Online-Datenbanken mehrere Tausend Artikel unter die Lupe genommen, für einen Menschen ohne maschinelle Hilfe wäre in diesen Mengen ein „Aufräumen“ unmöglich. Welche Themen dabei dominant sind und welche Wörter in Verbindung miteinander auftreten, lässt sich mit Methoden aus dem Data Mining feststellen – und lässt möglicherweise Rückschlüsse auf Sichtweisen in den jeweiligen Ländern zu. Aus der Entwicklung können auch Prognosen für den weiteren Verlauf der Kriseabgeleitet und mögliche Erschütterungen im Voraus erkannt werden, sagt Kersting.

Aber egal wie viele Daten man aufräumt und sortiert, lässt sich die Zukunft überhaupt sicher vorhersagen?„Klar gibt es keine Sicherheiten, nur Wahrscheinlichkeiten. Irgendwann treffen Mensch und Maschine aber gemeinsam informierte Entscheidungen“, sagt der 40-Jährige. Für Kersting ergänzen sich die beiden kooperierenden Disziplinen aus Wissenschaft und Medien jedenfalls hervorragend: „Es gibt eine ganz natürliche Beziehung zwischen Informatikern und Journalisten“ – was die einen technisch besser finden könnten, verpackten die anderen in Worte.

Für die Zukunft wünscht sich Kersting jedenfalls eine bessere Aufklärung zum Umgang mit Daten schon in der Schule – und das auch außerhalb des Informatikunterrichts. Jeder solle wissen, dass er digital Daten hinterlässt. Aus den Vorteilen neuer Technologien kann nämlich nur der schöpfen, der auch mit den Risiken vertraut ist und diese umfassend im Blick behält. Das muss auch ein Informatiker wie Kersting – bei aller sympathischen Faulheit.

Der Investigative

Die Geschichte der im fünften Monat schwangeren Jessica Zeppa ist vielleicht typisch für das, was Andrew Lehrens Arbeit ausmacht: Recherchen an der Schnittstelle zwischen Investigativ- und Datenjournalismus. Zeppa musste sterben, weil in einem US-Militärkrankenhaus eine Sepsis – eine schwere Blutvergiftung– nicht erkannt wurde. Ein Einzelschicksal, das man nicht dramatisieren sollte, oder ein Indiz für die allgemein mangelnde Versorgung in Militärkrankenhäusern?

Um die Frage zu beantworten, kämpften sich Andrew Lehren und sein Team durch Datenberge; Akten, in denen unerwartete Todesfälle verzeichnet wurden, glichen sie mit jenen Akten ab, in denen unerwartete Todesfälle letztlich auch gemeldet wurden. Die Ergebnisse wurden sortiert, visualisiert und kombiniert mit einer investigativen Reportage über mangelnde Patientensicherheit – bedingt durch Strukturprobleme in Verwaltungsapparaten, Hierarchiekonflikte in Krankenhäusern und mangelnde Aufarbeitung durch die zuständigen Stellen des Pentagons. Datenrecherchen und Investigativrecherche verschmolzen so zu einer Einheit. Das Ergebnis: Im Zeitraum von 2011 bis 2013 waren 239 unerwartete Todesfälle dokumentiert, jedoch nur 100 an das „patient-safety-center“ des Pentagons weitergleitetworden – wo Experten herausfinden sollen, wie die Behandlung in Militärkrankenhäusern verbessert werden kann. Und das obwohl die betreffenden Krankenhäuser tatsächlich deutlich höhere Quoten von Komplikationen und Schäden bei Geburten und Operationen zu verzeichnen hatten. Zeppas Fall war somit charakteristisch für mangelhafte medizinische Versorgung sowie symbolhaft für viele vermeidbare Fehler mit Todesfolge.

Für Andrew Lehren bergen Daten unendlich viele Geschichten, die erzählt werden müssen, weil sie den Leser etwas angehen, ihn berühren. Doch anstatt nur ein Diagramm anzufertigen, geht er raus in die Welt und sucht die Menschen hinter den abstrakten Daten. Er beschäftigt sich mit konkreten Fällen, menschlichen Schicksalen und sucht gezielt nach ungeklärten Fragen. Um diese beantworten zu können, schreibt Andrew Lehren die Geschichten dieser Menschen auf. So will er sein Publikum informieren und auch emotional erreichen. Dabei kombiniert er immer wieder alte und neue Methoden der Recherche.

Angefangen hat alles 1988 mit dem Besuch einer Tagung der Vereinigung „Investigative Journalists and Editors“, die ihm klar machte, wie häufig Interessenkonflikte tatsächlich sind und wie unsicher Quellen sein können. Er begann zunehmend, die Dinge investigativ zu recherchieren und entwickelte eigene Strategien. Darüber ließe sich, wie er heute sagt, unendlich lange reden. Am wichtigsten ist ihm aber, dass Journalisten ständig und bei jeder Quelle kritisch denken – und nicht die Komplexität einer Geschichte aus Bequemlichkeiten fallen lassen. Anstatt die in den USA (und nicht nur dort) weit verbreiteten „He-said-she-said-stories“ zu schreiben, soll ein Journalist mit allen zur Verfügung stehenden Mitteln versuchen, dem Leser die Wahrheit zu liefern.

Ein weiteres Beispiel dafür, wie Andrew Lehren althergebrachte Recherche mit neuen Methoden verknüpft, ist die Geschichte von Sergant Bergdahl. Der in Afghanistan stationierte Soldat äußerte in Briefen an seine Eltern Zweifel am Vorgehen der amerikanischen Army. Als er danach plötzlich verschwand, wurde in Amerika eine Diskussion losgetreten, ob der Soldat wirklich von der Taliban entführt worden sei, wie es offiziell hieß. Um die Wahrheit zu finden, ging Andrew Lehren einen Schritt zurück und arbeitete sämtliche auf Wikileaks zugänglichen War Logs zur Einheit Bergdahls durch, die vor seinem Verschwinden geschrieben worden waren. Um ausschließen zu können, dass Bergdahl in Wahrheit aus Unzufriedenheit desertiert war, sondern tatsächlich entführt worden war, untersuchte Lehren das Thema –ohne Rücksicht auf die darauf projizierten politischen Probleme Amerikas zu. Anhand der analysierten Dokumenteließ sich die Entführung Bergdahls bestätigen, aber auch, dass seine stationierte Einheit bekannt für einige Schwierigkeiten war. Mehr noch: Sie spiegeltestrukturelle Probleme des gesamten amerikanischen Militärsystems wieder, weswegen die politische Diskussion um Bergdahls Unschuld erst losgetreten wurde.

Bei seinem persönlichen Kampf für die Wahrheit und für den Qualitätsjournalismus hilft Andrew Lehren die Beschaffung und Analyse von Datensätzen immer wieder – auch wenn es mal nicht um ein Militärthema geht. Bei der New York Times arbeiten dazu Hacker und Journalisten im Team an ihren Geschichten, um zu dafür zu sorgen, dass bei der Verarbeitung der Daten möglichst nichts schief geht. Der Leser soll an erster Stelle stehen und sich drauf verlassen könne, dass alles richtig ist. Andrew Lehrens Leidenschaft, die alte Schule der Journalismus zu pflegen, und zugleich ständig neue Recherchekünste zu lernen, erweist sich dabei inzwischen als die vielleicht beste Strategie.

Der Spurensucher

Jeder ungeübte Internetnutzer hinterlässt Spuren im Datensumpf des WorldWideWeb, die sich nur schwer wieder verwischen lassen. Nur bei Sebastian Mondial scheint das anders zu sein: Privates über ihn ist kaum zu finden im Netz, schon sein Alter muss per Mail hinterfragt werden – gesetzt den Fall, der Suchende findet seine Adresse. Von den Spuren seiner Arbeit hat hingegen fast jeder schon einmal gehört: Mondial war einer der zentralen Figuren beim Investigativ-Projekt „offshore-Leaks“.

Seit Jahren verdient er sein Geld mit dem Datenjournalismus, lebt vom großen internationalen Vertrauen in sein Können als investigativer Datenspezialist. Nebenbei trainiert er andere Journalisten darin, digitale Informationen in der Recherche zu erschließen und zugleich mit den eigenen Daten sicher umzugehen.

Einer seiner ersten Aufträge nach dem Studium an der TU Dortmund kam – heute muss man sagen ausgerechnet – von google. Unter der sperrigen Berufsbezeichnung eines Search Quality Raters suchte er gezielt nach Daten und Informationen, die die Suchmaschine mit ihrem Algorithmus nicht zu finden vermochte und machte diese zugänglich. Ein derartiger Mitarbeiter untersucht und ändert unter anderem, wie gut die Reihenfolge der Suchergebnisse zu der Anfrage passt. Tippt der Suchende beispielsweise bayrischer Wald ein, soll zuerst ein Link zur Karte oder zum Gebiet erscheinen und nicht ein Restaurant mit diesem Namen.

Nächste Station war die Nachrichtenagentur dpa, genauer die Redaktion dpa-RegioData. Zuvor hatte er einen Teil der Redaktion schon in computergestützter Recherche geschult. Als die dpa beschloss, eine Datenjournalismus-Redaktion aufzubauen – die erste Redaktion Deutschlands, die sich darauf spezialisierte –, war Mondial ein erster Ansprechpartner. Nachdem er als Datenjournalist beim stern und als als Trainer an der Henri-Nannen-Schule seine nächsten Spuren hinterlassen hatte, kam dann eine überraschende Einladung aus Übersee. Ohne genau zu wissen, worum es eigentlich gehen sollte, saß Mondial bald einem Mitarbeiter der größten länderübergreifenden Vereinigung aus investigativen Journalisten (ICIJ) an einem großen Konferenztisch in Washington gegenüber. Der schob ihm bald darauf eine Festplatte zu, mit der Bitte die enthaltenden Daten auf vermeintliche Spuren zu Herkunft und Manipulationen zu untersuchen.

260 Gigabyte Daten galt es mit speziellen Programmen nach Auffälligkeiten zu durchforsten. Der Tragweite des Projektes war sich Mondial zunächst gar nicht bewusst, erst nach einem halben Jahr zeigte sich in einem ersten internen Überblick auch die mediale Reichweite. Das Resultat von über einem Jahr Arbeit war das wohl größte digitale Leak über Steuerhinterziehung – bei einer Bank mit Offshore-Finanzplatz und weltweiter Akteure im Steuerparadies – mit Sebastian Mondial als einem der zentralen Rechercheure, bekannt als offshore leaks. Er arbeitete mit einer teuren Forensik-Software, die normaler Weise in Kriminalfällen verwendet wird, um die Datenmenge zu analysieren und Auffälligkeiten zu entdecken, die wiederum von insgesamt 80 Journalisten zu Geschichten verarbeitet wurden.

Nach diesem riesigen Erfolg ist der Datenspezialist jedoch keinesfalls abgehoben, die wenigen Spuren von seiner Person selbst im Netz mögen dafür bereits ein Indiz sein. Mit einem realistischen Blick freut er sich in Zukunft auch wieder auf bodenständigere Projekte. Die Hauptsache dabei: Daten.

Der Vermittler

Millionen von Datenpunkten mit tausenden Variablen, das ist die Welt von Claus Weihs. Er erforscht Methoden zur Analyse gewaltiger Datenmengen, eben jener, die Suchmaschinen, Behörden und Wirtschaftsunternehmen sammeln und speichern – von uns allen.

Auf dem Campus der TU Dortmund ragt ein architektonisch nicht gerade anziehender Turm aus Beton und Glas in den Himmel. Claus Weihs‘ Büro in der Fakultät Statistik liegt im 7. Stock. Sein blasses, etwas aus der Mode gekommenes Sakko ist stimmig: So stellt man sich einen Statistikprofessor vor. Doch Weihs ist alles andere als der blutleere Hochschullehrer, den man dem Klischee nach vielleicht erwarten würde. Seine Studenten kennen ihn als immer lustigen Professor, der gerne Geschichten erzählt. Zum Beispiel von seiner Arbeit in der Industrie, vor seiner wissenschaftlichen Karriere. Denn als Professor für Statistik ist er Quereinsteiger.

Auch seine vorherige Arbeitsumgebung war weniger grau als der Turm auf dem Campus. Frisch in Mathematik promoviert, entschied sich Claus Weihs zunächst gegen eine Karriere in der Wissenschaft und nahm eine Stelle in der Schweizer Vorzeigestadt Basel an, beim Chemie- und Pharma-Konzern Ciba. Von 1985 an arbeitete er dort als Statistikberater mit Naturwissenschaftlern, Medizinern und Ingenieuren zusammen. Natürlich spielten Datenbanken schon damals eine wichtige Rolle, gerade bei einem Wirtschaftsunternehmen. Von Big Data redete aber noch niemand. „Früher hatte man Papierordner – die standen alle in einer Reihe. Die Daten waren da, aber man konnte nicht so leicht damit arbeiten“, erinnert sich Weihs. Hinreichend leistungsfähige Rechner, um aus großen Datenmengen sinnvolle Informationen ziehen zu können, standen noch nicht zur Verfügung.

Bei Ciba faszinierte ihn die interdisziplinäre Arbeit an praxisrelevanten Problemen. Dass er seinen Posten im idyllischen Basel neun Jahre später dennoch gegen ein Büro im 7. Stock auf dem Dortmunder Universitätscampus tauschte, ist seiner Neugier geschuldet – und seiner Lust, noch einmal etwas ganz Neues zu machen. Schweren Herzens verließ er seine Wirkungsstätte. Als die TU einen Professor für Computergestützte Statistik suchte, lockte ihn die Möglichkeit, sich noch grundlegender mit statistischen Problemen beschäftigen zu können, als es bei Ciba möglich war.

Aktuell forscht Claus Weihs an Lösungen zur Analyse komplexer Datenstrukturen. Diese Gebilde entstehen, wenn man unterschiedliche Datenbanken miteinander verknüpft. Dann werden die Daten zu inhomogen und meist zu sperrig für die statistischen Standardmethoden. Weihs treibt nun die Frage um, wie man die klassischen Methoden ändern kann, damit sie sich auf solche komplexen Datenbanken anwenden lassen. Ihm geht es, wie er es nennt, um die Anpassung der Methoden der Mathematik an die Wirklichkeit.

Derlei mathematische Probleme überdehnen allerdings leicht die Wirklichkeit und Vorstellungskraft von Laien. Aber Claus Weihs ermutigt, gedanklich dran zu bleiben, am Thema Statistik und Big Data: „Alles was sich an Computersystemen und Software auf diesem Gebiet durchsetzt, ist nicht kompliziert – sonst werden die Leute ungeduldig und wollen etwas anderes“, beruhigt er.

Zwar ist Big Data derzeit vor allem noch ein schillernder Begriff, die Auswertung großer Datenmengen wird jedoch an Bedeutung gewinnen – nicht zuletzt im Datenjournalismus. Dort fehle es aber häufig an Sachkenntnis; Weihs bemängelt, dass bei der Jagd nach Storys die fundierte Datenanalyse allzu oft auf der Strecke bleibe. Dem Datenjournalismus fehle in vielen Fällen die statistisch-methodische Seite, sagt er, weil sie bei Journalisten im Normalfall nicht auf dem Lehrplan stehe.

Claus Weihs ist dabei, das zu ändern. Seit Jahren arbeitet er eng mit dem Institut für Journalistik in Dortmund zusammen. Er vermittelt dem journalistischen Nachwuchs die Fähigkeit, Qualität und Aussagekraft von Datenbanken und statistischen Kennzahlen richtig einzuschätzen. Vom Wintersemester 2014 an wird es an der TU Dortmund im Studiengang Wissenschaftsjournalismus zudem einen Schwerpunkt Datenjournalismus geben. Weihs ist einer der Architekten davon.

Der Beziehungs-Experte

Es ist ein langwieriger und schwieriger Kampf, den der Datenjournalist Miguel Paz in seiner Heimat Chile führt. Langwierig und schwierig, weil es keinen direkten Gegner gibt, den es zu besiegen gilt, sondern ein diffuses Netzwerk aus Korruption und nicht offengelegten Interessenskonflikten – mit vielen beteiligten Personen und Parteien. Die Situation in Chile ist anders als noch vor 38 Jahren, als Miguel Paz geboren wurde. Damals gab es einen klaren Feind in Person des Diktators Pinochet, vor dem Paz Eltern nach Panamá flohen. Paz wurde daher im Exil geboren, kam jedoch noch im Kindesalter nach Chile.

Heute ist der Feind nicht mehr so klar zu erkennen. Stattdessen gibt es Paz zu denken, dass die reichsten 20 Prozent des Landes zwischen 2000 und 400 000 Dollar im Monat verdienen, und die anderen 80 Prozent mit weitaus weniger auskommen müssen. Die Chance auf beruflichen Erfolg hänge hauptsächlich von der richtigen Familienzugehörigkeit ab, erklärt Paz. Das eigentliche Problem sieht er darin, dass die Verbindungen unter den Eliten des Landes längst nicht allen Chilenen bekannt sind. Und genau da greift er an: „Informationen sind Macht. Und nur informierte Menschen können gute Entscheidungen treffen und der Demokratie weiterhelfen.“

Die Bevölkerung Chiles informiert Paz mit seiner mächtigsten Waffe im Kampf gegen Korruption, die er 2012 schmiedete: der Webseite Poderopedia. Das bedeutet so viel wie „Wissen über die Macht“. Mit ihr greift er das einzig Fassbare im Machtnetzwerk an: die Knoten. Alleine schafft er das nicht, er ist ein Teamplayer. „Die Zeiten des einsamen Journalisten, der – einem Detektiv nicht unähnlich – Missstände aufdeckt, sind lange vorbei“, sagt er. Bei Poderopedia arbeiten deshalb Journalisten mit Programmierern zusammen: Aus Zeitungsartikeln, Wikis, Kongressprotokollen und ähnlichem extrahieren acht freiwillige Mitarbeiter Daten zu jeweils einer bestimmten Person: Wo hat sie bisher gearbeitet? Mit welchen anderen Personen steht sie in Verbindung? Hat sie eventuell Anteile an einer Firma? Mit den gesammelten Informationen wird ein Profil der Person erstellt und eine interaktive Netzwerkkarte der Beziehungen, durch die sich jeder Besucher der Webseiteklicken kann.

Will man sich durch alle Verbindungen der Machthaber arbeiten, braucht man viel Zeit: Rund 3500 Personendatensätze gibt es auf Poderopedia, ungefähr 1500 zu Firmen und weitere 1000 zu Institutionen. Bisher sind erst 1500 der Profile vollständig, und auch wenn nicht jede Verbindung gleich ein Hinweis auf Korruption bedeutet, lässt sich aus den Verbindungskarten doch schon einiges herauslesen.

Beispielsweise fanden Paz und sein Team heraus, dass der Leiter des chilenischen Finanzamts Entscheidungen traf, die seinen eigenen Firmen nutzten. Laut Paz blieb er nur im Amt, weil Präsident Pinera seine schützende Hand über ihn hielt. Doch auch die Verbindungen des Präsidenten konnte Paz im Netzwerk von Poderopedia ablesen. Er und seine Kollegen beleuchteten, dass dessen Cousin Andrés Chadwick, Minister für Innere Sicherheit, Anteile an einer großen Wasserversorgungsfirma besaß – und dass dessen Bruder Herman Chadwick stellvertretender Direktor des selben Konzerns war.

Wer sich mit solch mächtigen Männern anlegt, muss vorsichtig sein. Bis jetzt ist niemand zum Gegenangriff übergegangen, weder mit Gewalt noch mit juristischen Mitteln. Trotzdem gibt Miguel Paz keine Informationen über seine Familie heraus. Angst vor möglichen Racheakten habe er zwar nicht, aber trotzdem: Sicher ist sicher. Es sind die Momente, in denen er der Öffentlichkeit etwas mitteilen kann, die er so an seinem Beruf liebt. “Die Welt ein kleines bisschen besser machen“, nennt er das. Und er glaubt daran, dass sein bisheriger Kampf wenn schon nicht die Welt, dann doch Chile ein bisschen besser, will heißen, seine Bürger informierter gemacht hat.

Aber kann man Korruption jemals ganz besiegen? Eher nicht. Stattdessen kann man Teilsiege wie gegen Chadwick feiern. Und man braucht Beharrlichkeit. Die hat Miguel Paz genauso wie die Anerkennung seiner Kollegen: Unter anderem wurde Poderopedia 2013 für den internationalen Data Journalism Award des Global Editors Network nominiert.

Wahrscheinlich würde Paz nicht einmal dann aufhören, wenn alle Probleme in seiner Heimat gelöst wären. In Venezuela und Kolumbien gibt es bereits Ableger von Poderopedia. Bald, so Miguel Paz, auch in Deutschland: „Ich hoffe, dass das keine fünf Jahre mehr dauert“ erfährt man von ihm, bis dahin „wollen wir eine weltweite Gemeinschaft sein“, erfährt man von ihm. Es habe dazu gerade gute Gespräche in Deutschland gegeben. Mehr sagt er nicht, dazu sei es noch zu früh. Es scheint, als rüste er sich mit seinem eigenen Netzwerk für den nächsten, jetzt weltweiten Kampf: Wenn er mit seinen Mitarbeitern schon in Chile Machtnetze aufdecken kann, welche Verbindungen mag dann erst eine internationale Gemeinschaft mit Poderopedia zu Tage fördern?

Die Brückenbauerin

Eigentlich wollte Christina Elmer als Wissenschaftsjournalistin in Fernsehen und Hörfunk arbeiten. Während des Journalistik- und Biologie-Studiums waren die Redakteure von Wissenschaftssendungen wie Quarks&Co und den Reportagen der BBC ihre Vorbilder. Dass sie einmal eine d e r Datenjournalismus-Expertinnen in Deutschland wird – das war eigentlich nicht der Plan. „Ich hätte damals definitiv nicht daran gedacht, dass ich einmal Redakteurin für Datenjournalismus bei Spiegel Online sein würde.“

Auf den zweiten Blick ist Christina Elmer Lebenslauf allerdings viel geradliniger, als es zunächst scheint. Immerhin hatten vor zehn Jahren ohnehin erst wenige Journalistik-Studenten und Volontäre den Onlinejournalismus als Ziel vor Augen. „Onlinejournalismus war damals noch nicht so reich an Formaten und Anwendungen wie heute, und ich habe mich nie als reine Schreiberin verstanden“, sagt Christina Elmer. Ihr Volontariat beim WDR helfe ihr aber gerade bei Online-Texten bis heute: „Denn wer fürs Hören schreiben kann, hat auch mit Artikeln weniger Probleme, die unter Zeitdruck gelesen werden und besonders verständlich sein müssen.“

Gleichgültig in welcher Mediengattung, ein Ziel von Christina Elmer war es immer, relevanten Journalismus zu machen: Es sollten Themen sein, die den Menschen etwas bedeuten. Oder Informationen, die so wichtig sind, dass sie öffentlich zugänglich gemacht werden sollten. Und auch das führte dann irgendwie ganz logisch zum Datenjournalismus.

Die Initialzündung hierfür brachte ein Seminar bei Brant Houston während des Studiums in Dortmund. Elmer war angesteckt von der Methodik des Pioniers im „Computer Assisted Reporting“, aus strukturierten Daten Ansatzpunkte für journalistische Geschichten zu destillieren. Und so war es wiederum fast folgerichtig, dass Christina Elmer nach dem Volontariat als Redakteurin in der ersten Datenjournalismus-Redaktion Deutschlands begann, bei RegioData der dpa. „Wegweisend“, nennt sie ihre damalige Arbeit in einem Team aus fünf gleichgesinnten Kollegen: „Dabei kann man sich unglaublich gut austauschen und voneinander lernen, der kreative Prozess ist einfach viel reichhaltiger im Team. Natürlich arbeite ich heute auch bei jedem größeren Projekt im Team, aber in einem eigenen Ressort geht natürlich mehr.“

Als das dpa-Team nach drei Jahren wieder verkleinert wurde, war die Auswahl für Datenjournalisten bereits etwas größer, und Christina Elmer wechselte mit der dpa-Infografik als Zwischenstation in das Team Investigative Recherche des stern. Auch ihr bisher letzter Schritt in die Online-Welt des Spiegel ergibt Sinn. Denn Datenjournalisten haben viele Visualisierungsmöglichkeiten, die sich besonders in Online-Medien gut ausspielen lassen.

Doch die Entwicklung ist für Christina Elmer noch lange nicht am Ende – weder für ihre tägliche Arbeit, noch für das Feld insgesamt. Für die Zukunft hat sie sich zum Ziel gesetzt, den Datenjournalismus in der Redaktion auszubauen, zu verstärken und mit allen Ressorts mehr Projekte anzuschieben: „Thematisch würde ich gerne ein paar Themen knacken, für die es aktuell noch keine Daten gibt, oder wo Daten zurück gehalten werden. Vor allem im Bereich Politik und Umwelt gibt es einiges zu tun für Datenjournalisten.“ Und das gelte auch jenseits des eigenen Hauses: Beim Datenzugang, bei den Redaktionen selbst und bei den finanziellen Bedingungen für Journalisten gebe es überall Entwicklungsbedarf.

Seit vielen Jahren ist sie daher auch in der Aus- und Weiterbildung von Datenjournalisten engagiert. Was für sie selbstverständlich ist, ist für viele Journalisten noch ungewohnt: Recherchen mit ergebnisoffener Datenanalyse zu beginnen, um zunächst ein möglichst objektives Grundverständnis für die Thematik zu entwickeln. „Es wäre seltsam, anders an Themen heran zu gehen“, sagt sie. Und auch damit ist sie dann dichter am ursprünglichen Berufswunsch als gedacht. Denn nicht nur in dieser Herangehensweise ist es vom ursprünglichen Ziel des Wissenschaftsjournalismus‘ zum Datenjournalismus nicht mehr weit.

Der Weltverbesserer

„Keiner will reich werden, wir wollen etwas Nachhaltiges schaffen“, erklärt Marco Maas die Absicht der Datenjournalismus-Agentur Open Data City. Für ihre Arbeit hat die Agentur schon einige Preise gewonnen – nicht zuletzt den Grimme Online Award. Nebensächlich werden Preise für Maas und sein Team von Open Data City vor allem dann, wenn es um die gute Sache geht – Projekte, die die Demokratie stärken oder den Umweltschutz.

Maas ist Mitbegründer dieser Agentur. Sie spiegelt nicht nur seine journalistische Einstellung wieder, sondern ermöglicht ihm auch im Kleinen, seine Ideale zu verwirklichen. Als „saubere kleine Firma“, beschreibt Maas Open Data City. Zum „sauber sein“ gehören die Nutzung von Ökostrom, bezahlte Praktikanten und eine Bank die keine Hedge-Fond-Anlageformen unterstützt. Das Konzept soll auch seinen Mitgliedern die bestmöglichen Arbeitsbedingungen schaffen. Ein Ziel ist es, eine Balance zwischen Projekten für die Agentur und Privatleben zu finden. Dazu orientiert sich Open Data City am Konzept von Google: „Wir arbeiten vier Tage für die Agentur und haben einen Tag, um etwas eigenes zu schaffen“, erklärt Maas. Bei Open Data City arbeiten neben Journalisten auch Softwareentwickler und Visualisierer. Und die sollen nicht nur arbeiten, sondern sie sollen sich auch weiterentwickeln. Hier scheint alles bis ins Detail durchdacht. Und wer mit Marco Maas spricht, merkt schnell, dass er voll hinter dem steht was er tut.

Maas Karriere startete wie bei den meisten Journalisten in einer Lokalredaktion. Damals ging er noch zur Schule. In der Computer AG machte er erste Bekanntschaft mit dem Internet – damals noch eine Neuheit. „Wir mussten uns alles, was wir für die AG brauchten, selbst verdienen“, erzählt Maas. So fing er schon früh damit an, Websites zu gestalten und machte erste Erfahrungen mit html und Quellcodes – für ihn gleich „ein spannender Weg um Inhalte zu transportieren“.

Vor seinem Studium machte er dann ein Praktikum beim NDR: In seiner Bewerbung gab er an, dass er unbedingt in die Online-Redaktion wolle. Doch die gab es im Jahr 1999 noch gar nicht – jedenfalls nicht im eigentlichen Sinne. Online hieß damals noch, dass ein Haufen Sekretärinnen die Inhalte mittels copy and paste eins zu eins auf eine Webseite hochlud. Maas schreckte das nicht ab. Sein Vorteil – denn kurz darauf erfuhr das Internet einen ersten großen Aufschwung. Statt ins geplante Studium der Medientechnik verschlug es ihn daher zunächst längere Zeit zum NDR, der froh über seine Vorliebe fürs Internet war. Zwei Jahre lang übernahm er die Schwangerschaftsvertretung einer Kollegin. Beim NDR war er die Schnittstelle zwischen Internet und Journalismus – zwischen Daten und Geschichten. Eine Erfahrung die den Datenjournalismus für ihn bis heute ausmacht.

Als Marco Maas einige Jahre später Lorenz Matzat traf – inzwischen hatte er sein Studium abgeschlossen – entdeckte er mit ihm einen Gleichgesinnten. Vor allem in einem Punkt waren beide sich einig: Daten werden immer wichtiger! Als Ergebnis dieser Erkenntnis gründeten sie Open Data City, seit 2010 ist Maas dort Geschäftsführer.

Neben Journalisten wendeten sich nach einer Weile auch immer mehr Unternehmen an die Agentur, die Interesse an der Visualisierung und Auswertung ihrer Daten hatte. Um das vom Journalismus zu trennen, gründete das Team von Open Data City die „Datenfreunde“. Einer der ersten kommerziellen Kunden jenseits des Journalismus war der Internet-Provider 1&1: Für diesen wurde visualisiert, wer sich wo und wie lange ins Netz einloggt.

Auch bei solchen Aufgaben versucht Maas seinen Idealen treu zu bleiben: Würden die Atomlobby oder gar ein Rüstungsunternehmen an die Tür klopfen, würde die Tür gar nicht erst geöffnet. Unterstützt werden dagegen NGO´s wie Greenpeace. Und aus solchen kommerziellen Projekten könne oft auch wieder etwas Journalistisches entstehen, erklärt Maas: Denn manche Daten die hier zur Verfügung gestellt werden, seien auch relevant für die Öffentlichkeit.

Wo Daten für journalistische Zwecke genutzt werden, sieht Maas allerdings auch Risiken: „Wenn PR und öffentliche Firmen dahinter kommen, dass man mit guten Datenvisualisierungen die journalistisch aufbereitet sind, auch sehr einfach Meinungen beeinflussen kann, kann es gefährlich werden.“ Eine Grenze für seine eigene Arbeit zieht Maas, wenn persönliche Daten betroffen sind. Dabei folgt er wie seine Mitstreiter bei Open Data City einem Grundsatz des Chaos Computer Clubs: Öffentliche Daten nutzen, private Daten schützen.

Die Grenzgängerin

Ohne Plan, Geld und Sprachkenntnisse zog Brigitte Alfter mit 19 Jahren von Wuppertal nach Dänemark, genauer gesagt ins 1800-Seelen-Dörfchen Skals. Der Liebe und der Abenteuerlust wegen. Ein mutiger Schritt, der Wegweiser für Alfters Karriere als Journalistin war.

Denn nationale Grenzen überschreitet die heute 48-Jährige bei ihrer Arbeit inzwischen regelmäßig – um dort zu sein, wo politische und wirtschaftliche Entscheidungen getroffen werden. Alfters Interesse gilt den Machtstrukturen in Politik, Wirtschaft und Gesellschaft, unabhängig vom Ort des Geschehens. Dabei setzt sie seit Jahren auf internationale Teamarbeit – und betreibt „cross-border Journalismus“ mit unterschiedlichen Teams aus einem europäischen Recherchenetzwerk. Auf diesem Gebiet ist sie bislang eine von wenigen Pionieren.

Bestes Beispiel ist das Projekt Farmsubsidy. Vor wenigen Jahren machte sich Brigitte Alfter auf die Spuren des großen Geldes, der Agrarsubventionen der Europäischen Union. Nach Recherchen in Dänemark wollte sie für jedes EU-Land herausfinden, welcher Landwirt wie viel von dem gut 55 Millarden Euro großen Steuerkuchen bekam. Aber die EU-Kommision mauerte und vertagte den Zugriff auf die Daten – das Informationsfreiheitsgesetz der EU war zu diesem Zeitpunkt erst wenige Jahre alt. Mit der Blockade fand sich Alfter nicht ab und ging wieder einen neuen Weg. Zusammen mit Journalisten aus verschiedenen Ländern, Aktivisten und Forschern baute sie ein Netzwerk auf, das auf Grundlage der jeweils nationalen Informationsfreiheitsgesetze nun doch an die Datensätze herankam. Veröffentlicht wurden sie für 27 EU-Mitgliedsstaaten. Das Ergebnis: Zu den Profiteuren gehörten keineswegs nur kleine Bauern, sondern vor allem große Konzerne. Farmsubsidy.org brachte ihr internationales Ansehen in der EU-Berichterstattung.

Dass man oft unkonventionelle Wege gehen muss, um zum Ziel zu kommen, lehrten Brigitte Alfter vielleicht schon ihre ersten Jahre in Dänemark. Damals, noch weit weg vom Journalismus, begann sie, in der Schokoladenfabrik im Dorf zu arbeiten. Denn für diesen Job brauchte man weder Dänischkenntnisse noch eine Ausbildung, verdiente aber Geld. Zwei Jahre später fing sie eine Ausbildung als Automechanikerin an. Nicht ihr Traum, aber ein Beruf, der auf dem Land immer gebraucht wird. Außerdem konnte sie ihren politischen Interessen nachgehen, wenngleich das zunächst auf den Verband der Automechanikerlehrlinge und den Elternbeirat beschränkt blieb. Sechs Jahre später bewarb sie sich an der ältesten und größten dänischen Journalistenschule. Nachdem Alfter dann einige Zeit im Lokaljournalismus gearbeitet hatte, suchte sie sich die nächste Herausforderung: Sie ging als EU-Korrespondentin für vier Jahre nach Brüssel und war so ganz dicht am europäischen Machtzentrum.

Diese Anpassungsfähigkeit, die sich in Alfters Lebenslauf spiegelt, passt bis heute zu ihrer Einstellung zum Journalismus. Sie ist eine Vorreiterin für Veränderungen und neues Methodendenken für die Berichterstattung, das den Bedingungen und Möglichkeiten der Zeit enstpricht. Inzwischen arbeitet sie freiberuflich und geht investigativen Projekten nach wie etwa bei www.wobbing.eu, das Recherchen mit Hilfe der Informationsfreiheitsgesetze unterstützt. Methoden wie Datenjournalismus und Crossborder Journalismus will sie weiterentwickeln, im Herbst soll ein Buch dazu herauskommen. Das alles klingt dann schon mehr nach einem großen Plan als damals, beim ersten Sprung über die Grenze. Die Abenteuerlust aber ist bis heute geblieben.

Der Investigative (Andrew Lehren)

Andrew Lehren (Foto: Wulf Rohwedder)

Von der lokalen Sportberichterstattung bis zu Recherchen in Sachen NSA war es für Andrew Lehren ein weiter Weg. In einem Interview spricht er von einem „Turning Point“, als er 1988 zum ersten Mal eine Tagung der „Investigative Reporters and Editors“ besuchte.

Sein Glaube an die Zuverlässigkeit von Quellen war gebrochen. Er begann zunehmend investigativ zu recherchieren und Interessekonflikte seiner Quellen stärker zu berücksichtigen. Sprachgeschicklichkeit reiche eben nicht aus, um systematischen und verantwortungsvollen Journalismus zu realisieren, meint er. Bei der New York Times stellte er sich Herausforderungen auch emotional aufgeladener Themen wie Afghanistan, dem Irakkrieg und Guantanamo. Zuletzt berichtete er, wie die NSA über scheinbar harmlose Apps wie „Angry Birds“ die persönlichen Daten der Nutzer ausspioniert. Außerdem beschrieb er anhand von NSA-Dokumenten, wie die der US-Geheimdienst Hilfsorganisationen und ausländische Energiekonzerne ausspionierte. Inzwischen gibt er sein Wissen auch an der New Yorker City University weiter – etwa darüber, wie Journalisten Behördeninformationen und Datenbanken nutzen können.

Von Lehrens Erfahrungen profitieren die nr14-Teilnehmer in der Veranstaltung „Crunching the numbers: the secrets behind big data journalism projects“.

Die Datenleserin (Nicola Kuhrt)

Nicola Kuhrt (Foto: privat)

Die Arbeit als Einzelkämpferin gehörte für Nicola Kuhrt lange Zeit zum Alltag: Ihre Karriere begann sie nach einem Volontariat als Allein-Redakteurin im Wissenschaftsressort der Westdeutschen Zeitung. Inzwischen arbeitet sie als stellvertretende Wissenschaftsressortleiterin bei Spiegel Online mit einem ganzen Team – und engagiert sich mit weiteren Medizin-Journalisten in Projekten wie medien-doktor.de, einem Qualitätsmonitoring der Medizinberichterstattung.

Und auch wenn es bei ihr (neben dem Schwerpunkt Medizin) um Datenjournalismus geht, ist die Zeit als Einzelkämpferin längst vorbei. Gemeinsam mit Kollegen von Spiegel Online trägt sie auf dem Blog #datenlese (fast) alles zum Thema Daten zusammen. Weiterlesen

Die Gerichtsfeste (Jennifer LaFleur)

Jennifer LaFleur mit Moderator Mirko Lorenz im Panel „Best of Data-Driven Journalism – Ten things every data journalist should know“ (Foto: Wulf Rohwedder)

Ärzte in den USA verschrieben Rezepte für Markenpräparate, obwohl günstigere Varianten des gleichen Medikaments verfügbar gewesen wären. Dass dieser Missbrauch der öffentlichen Krankenkasse „Medicare“ viele Milliarden US-Dollar kostete, machte erst eine Recherche der Datenjournalistin Jennifer LaFleur und ihres Teams transparent. Aber egal ob Zahlen zu den Kosten im Gesundheitssystem oder eine Statistik zum Einsatz von Gefängniswärtern mit kriminellem Hintergrund: Beharrlich und mit viel Ausdauer kämpfte sich Jennifer LaFleur schon mehr als ein Dutzend Mal durch alle Rechtsinstanzen, um zum Beispiel wertvolle Daten zu erstreiten – ohne sich während langjähriger Prozesse einschüchtern oder gar durch Niederlagen vor Gericht entmutigen zu lassen. Sie arbeitete u.a. für die „Dallas Morning News“, die „San Jose Mercury News“ und „ProPublica“. Als Senior Editor für Datenjournalismus am Centre for Investigative Reporting gibt sie ihre Erfahrungen auch an junge Journalisten weiter. Weiterlesen

Paul Myers: “I’m a researcher for the BBC”

Paul Myers (Foto: Raphael Hünerfauth)

Paul Myers Arbeit beginnt mit dem immer gleichen Satz: „Finde jemanden für uns.“ Wenn die Recherche für die meisten Journalisten beendet ist, zu schwierig, zu wenig Hinweise, dann fängt sie für Myers erst an. 

Myers ist Internetexperte, Rechercheur und Trainer bei der BBC. Früher wäre er ein klassischer Mann der zweiten Reihe gewesen. Jemand, der im Archiv wühlt, während die Journalisten die großen Geschichten schreiben und den Ruhm ernten. Aber heute hält jemand wie Myers Vorträge in Deutschland, Großbritannien, Norwegen und den Niederlanden, mit hunderten Zuhörern.

Auch an diesem Freitagnachmittag steht Myers auf einer Bühne, die Sitze vor ihm sind bis auf den letzten besetzt. Myers trägt ein St.-Pauli-Trikot, am Bauch spannt es ein wenig. Ein Zuschauer hat Bedenken: Müsse Myers denn nicht erwähnen, dass jedes Mal, wenn jemand mit Hilfe von google recherchiert, die NSA mithöre? Stimmt, sagt Myers. Einmal habe er eine Geschichte über britische Verteidigungspolitik recherchiert. Er war der IP-Adresse des Verteidigungsministeriums auf der Spur, als sein Handy anfing zu klingeln. Eine halbe Minute klingelte es, bis er auf Google ging und in die Tastatur tippte: „I’m a researcher at the BBC.“ Myers grinst: „Dann ging das Telefon aus.“ Ungläubige Pause. Das Publikum lacht. Weiterlesen