Positionspapier zu Künstlicher Intelligenz
Künstliche Intelligenz verschiebt die Grenzen journalistischer Recherche: Sie unterstützt Journalist:innen dabei, Zusammenhänge aufzudecken, komplexe Informationsflüsse zu analysieren, bisher verborgene Strukturen sichtbar zu machen und Recherchen zu beschleunigen. Gleichzeitig stellt sie bewährte journalistische Kontrollmechanismen auf die Probe. Automatisierte Analysen und KI-generierte Inhalte erfordern neue Strategien, Informationen zu verifizieren, Fehlerquellen zu erkennen und die Qualität journalistischer Arbeit zu sichern.
Ein zentrales Anliegen von Netzwerk Recherche (NR) ist es, seine Mitglieder dabei zu unterstützen, die KI‑Transformation kritisch, kompetent und gemeinschaftlich zu gestalten. Der Verein unterstützt seine Mitglieder dabei mit Weiterbildungen, Panels auf Konferenzen, Online‑Veranstaltungen sowie einer Fachgruppe, die als Kontaktpunkt für Fragen oder die Vermittlung von Trainer:innen dient.
Dieses Papier ist entstanden, weil unter den NR-Mitgliedern der Wunsch nach Orientierung aufkam: Welche Entwicklungen erwarten uns und wie geht Netzwerk Recherche damit um? Ein Arbeitskreis KI-affiner Mitglieder hat daraufhin in Abstimmung mit dem Vorstand die für Netzwerk Recherche relevanten Themen und Positionen ausgearbeitet. Das Dokument hat nicht den Anspruch, bestehende Leitlinien wie den Pressekodex oder redaktionelle Richtlinien zu ersetzen. Stattdessen ergänzt es diese um die spezifische Perspektive von Netzwerk Recherche und bündelt die wichtigsten Erkenntnisse und Handlungsfelder für recherchierende Journalist:innen.
1. KI-Systeme kompetent bei der Recherche nutzen
Auch wenn nicht jeder fachlich gleich tief einsteigen kann und muss: Journalist:innen sollten verstehen, welche unterschiedlichen KI-Systeme es gibt. Was ist gemeint, wenn von KI die Rede ist, und wie können solche Systeme helfen, Rechercheprozesse zu verbessern? Journalist:innen sollten sich mit den Funktionsweisen, aber auch mit den Grenzen verschiedener KI-Systeme vertraut machen und deren Unterschiede einschätzen können. Redaktionen und Arbeitgeber sind in der Verantwortung, dafür Zeit, Schulungen und den Zugang zu relevanten Ressourcen zu ermöglichen. Denn so wie heute niemand mehr ohne Internetzugang recherchiert, wird über kurz oder lang auch die Recherche ohne KI-Unterstützung überholt sein.
Bereits heute können Large Language Models (LLMs) Journalist:innen im Arbeitsalltag etwa beim Brainstorming oder der Planung von Recherchen unterstützen. Es lassen sich mittels KI Dokumente zusammenfassen, Audiodaten transkribieren sowie Texte, Muster, Objekte oder Gesichter in Bilddokumenten erkennen. Mit sogenannten RAG-Tools werden große Dokument- und Datenmengen leicht durchsuchbar. Deep-Research-Tools recherchieren im Auftrag von Journalist:innen eigenständig im Netz, werten Quellen aus, machen zum Beispiel typische OSINT-Rechercheschritte und erstellen umfassende Berichte. Für Datenjournalist:innen sind KI-Systeme oft wichtige Sparringspartner beim Programmieren. Und LLMs erzeugen auf Befehl auch gänzlich eigenen Programmcode, etwa um Daten automatisiert von Internetseiten auszulesen.
KI-Systeme eröffnen vielfältige Möglichkeiten, ersetzen aber nicht journalistisches Urteilsvermögen. Wo KI tief in journalistische Abläufe eingreift, wächst die Pflicht, ihre Nutzung bewusst zu gestalten und Grenzen zu setzen. Auch bleibt letztlich immer der oder die Recherchierende verantwortlich für die Ergebnisse der Recherche.
2. KI-generierte Inhalte kennzeichnen
Journalist:innen sollten offenlegen, in welcher Form sie KI in ihrer Arbeit eingesetzt haben, wenn die Technologie den Inhalt wesentlich geprägt hat. Diese Transparenz ist nicht nur gute journalistische Praxis, sondern stärkt das Vertrauen in die Arbeit der Redaktion und ermöglicht es, Informationen im richtigen Kontext zu bewerten. Netzwerk Recherche spricht sich daher für konsequente Kennzeichnungspflichten aus. Diese sollten von den Redaktionen definiert und eingehalten werden.
3. KI-generierte Inhalte erkennen
Journalist:innen müssen auch in der Lage sein, von anderen mittels KI generierte Inhalte zu erkennen und kritisch einzuordnen. Netzwerk Recherche unterstützt Journalist:innen mit praxisnahen Schulungen, etwa zu OSINT‑Techniken und forensischen Methoden zur Erkennung von Manipulationen. Nur mit dem entsprechenden Handwerkszeug lässt sich das Risiko minimieren, dass KI‑Inhalte unbeabsichtigt für authentisch gehalten werden.
4. KI verantwortungsbewusst einsetzen
Bei KI-Systemen lässt sich oft nicht unmittelbar nachvollziehen, wie sie zu ihren Ergebnissen kommen. Umso wichtiger ist hier die Prüfung der durch die KI verwendeten Quellen und Methoden – beispielsweise, wenn Programmcode durch die KI generiert wurde.
Die Entwicklung von KI-Technologien wird stark von einigen wenigen Konzernen geprägt. Ein Ausweichen auf andere Anbieter ist daher im Berufsalltag oft nicht praktikabel. KI verantwortungsbewusst einzusetzen heißt dennoch auch, Alternativen zu prüfen, Ressourcen zu schonen und die ökologischen, sozialen und politischen Kosten moderner KI‑Modelle mitzudenken.
Gerade bei investigativen Recherchen wird häufig mit Daten hantiert, die auf keinen Fall in ein intransparent agierendes KI-System in einer externen Infrastruktur gegeben werden sollten. Insbesondere Informationen, die auf Informant:innen schließen lassen können, dürfen von Journalist:innen grundsätzlich nicht für Prompts bei Online-KI-Anwendungen verwendet werden – auch wenn dies mögliche Produktivitätsnachteile bedeutet.
Bei investigativen Recherchen kann es notwendig sein, KI-Modelle lokal auf eigenen Rechnern zu installieren, damit beim Einsatz der Modelle keine Daten die Redaktion verlassen. Arbeitgeber sollten Mittel für das technische Equipment zur Verfügung stellen und die Projekte, etwa durch den Einkauf des nötigen Knowhows, unterstützen.
Netzwerk Recherche befürwortet grundsätzlich transparente Modelle, also solche, über die ausreichend Informationen vorliegen, um ihre Vertrauenswürdigkeit, Eignung und Limitationen zu beurteilen. Netzwerk Recherche plädiert zudem für die möglichst umfassende Veröffentlichung von KI-Modellen (Open Source). Um dies zu erreichen, können Selbstverpflichtungen der Firmen oder politische Regulierungen notwendig sein.
5. KI als Berichterstattungsgegenstand erklären und einordnen
KI-Technologien prägen zunehmend alle Lebensbereiche – von politischen Entscheidungen über wirtschaftliche Prozesse bis hin zur privaten Kommunikation. Für den Journalismus bedeutet das: KI ist nicht nur ein Werkzeug, sondern muss auch selbst Gegenstand kritischer Recherche und öffentlicher Debatte sein. Je tiefer KI in gesellschaftliche Strukturen eingreift, desto wichtiger ist die Auseinandersetzung mit all jenen Personen, Organisationen und Unternehmen, die sie entwickeln, betreiben und einsetzen.
Journalist:innen tragen Verantwortung, Chancen und Risiken von KI klar und verständlich zu vermitteln, gezielt über Gefahren wie Desinformation oder Deepfakes aufzuklären und so die demokratische Debatte zu stärken. Netzwerk Recherche erachtet Bildungs- und Aufklärungsangebote als einen wichtigen Baustein, um Medien und Öffentlichkeit resilient gegenüber dem Missbrauch von KI zu machen.
Bei der Berichterstattung über KI können neben den üblichen Regeln guter journalistischer Praxis speziell entwickelte Qualitätskriterien wie die des „Mediendoktor KI” an der TU Dortmund als Orientierung herangezogen werden.
6. KI-Systemen die richtigen Leitplanken geben
Der EU AI Act ist im Sommer 2024 offiziell in Kraft getreten und wird bis 2026 schrittweise verbindliche Vorgaben für den Einsatz von KI-Systemen einführen, insbesondere in Bezug auf Transparenz, Kennzeichnungspflichten und Anwendungsbereiche. Netzwerk Recherche sieht Medienhäuser in der Pflicht, sowohl fest angestellte als auch freie Mitarbeiter:innen darüber zu informieren und gegebenenfalls bestehende Richtlinien in Einklang mit dem rechtlichen Rahmen zu bringen. Interne Schulungen können hilfreich sein, um Mitarbeiter:innen die Inhalte solcher Richtlinien zu vermitteln. Für Journalist:innen bieten die bestehenden Selbstverpflichtungen bereits jetzt eine wichtige Orientierung, um KI-Anwendungen testen und sinnvoll in die eigenen Workflows einbauen zu können. Arbeitgeber:innen sollten Sorge dafür tragen, ein Umfeld zu schaffen, in dem die Mitarbeitenden niederschwellig und sicher im Rahmen solcher Richtlinien mit dem Einsatz von KI-Systemen experimentieren können.