Link zur Startseite der Technischen Universität Dortmund Zur Startseite
Zur Startseite

SciCAR: Wo Wissenschaft und (Daten-)Journalismus einander begegnen

Diskurse für die Zukunft in Dortmunder DASA Arbeitsweltausstellung

Where science meets computerassisted reporting. Der Slogan der SciCAR-Konferenz am 26./27. August 2022 stellt den Austausch in den Mittelpunkt – zwischen Wissenschaft und Datenjournalismus, die beide evidenzbasiert vorgehen und doch nach unterschiedlichen Logiken arbeiten. Die SciCAR will diese Domänen miteinander verknüpfen und mit datenbereitstellenden Behörden zusammenbringen, um fachlichen Austausch und Kooperationen zu initiieren.

Und auch auf der sechsten SciCAR-Konferenz in Dortmund wurde deutlich: Alle Seiten haben großes Interesse, die Schnittstellen auszuloten und gemeinsame Herausforderungen zu diskutieren, etwa die Vermittlung und Analyse aktueller Megathemen wie Corona-Pandemie, Energiewende und Klimakrise. Die Gesellschaft informieren, Entwicklungen einordnen und Orientierung schaffen – dafür sind alle Akteure wichtig, ob aus der Forschung, dem Journalismus oder der amtlichen Statistik.

Die Physikerin Viola Priesemann, die durch ihre Modellierung zur Ausbreitung der Corona-Pandemie zur häufig zitierten Expertin in der deutschen Medienlandschaft wurde, bestätigte das in ihrer Keynote eindrucksvoll. Sie berichtete, welche Erfahrungen sie mit den Medien gemacht hat und dass ihr die Kommunikation von Wissenschaft ein großes, aber herausforderndes Anliegen ist. Neben ihrer Forschung gingt sie in ihrem Vortrag auch darauf ein, welche Erwartungen sie an den Journalismus hat und wie eine ideale Zusammenarbeit aussehen könnte.

Welchen Risiken Journalist:innen bei der Arbeit mit Daten ausgesetzt sind und inwiefern sie diese bewältigen können, erklärte Jonathan Soma in seiner Keynote. Es wurde schnell deutlich: Datenjournalismus und Automatisierung sind Entwicklungen, die neue Türen öffnen, die Arbeit erleichtern und bereichern können. Doch gerade deswegen ist es wichtig, sich den Risiken bewusst zu sein. Darunter Fragen wie: Welche Konsequenzen hat meine Veröffentlichung? Wie kann ich meine Daten und Algorithmen überprüfen? Und wie sollte ich Daten präsentieren?

In vielen weiteren Panels ging es an zwei Tagen in einen gemeinsamen Diskurs zwischen den verschiedenen Akteuren. Dabei standen vor allem aktuelle Entwicklungen, Projekte und die Kooperation im Vordergrund. Auf dieser Seite finden Sie kurze Zusammenfassungen und weiterführende Links zu den einzelnen Sessions der SciCAR-Konferenz 2022. Die Sammlung wird fortlaufend aktualisiert.

Die SciCAR 2022 Sessions im Detail

Dieser Abschnitt wird fortlaufend befüllt, sobald Links und Präsentationen bereitgestellt werden.

Jonathan Soma: Automation and AI-assisted reporting – Embracing risk when machines do the work

Jonathan Soma lehrt an der Columbia Journalism School. Dort leitet er unter anderem das „LEDE Program“, einen Intensivkurs in Programmierung und Datenanalyse für Journalist:innen. In seiner Keynote geht er auf die Risiken bei der Arbeit mit Daten ein.

Es sei einer Redakteurin oder einem Redakteur zu verzeihen, wenn er oder sie selbst tausende Tweets lese und dabei ein Fehler unterlaufe. Wohingegen es deutlich weniger Verständnis gebe, wenn ein Algorithmus einen Fehler mache, weil eine Zeile Programmcode nicht stimmt. Darüber hinaus könne ein Mensch nur eine begrenzte Anzahl an Fehlern in einer Minute machen. Ein Algorithmus hingegen könne in einer Sekunde eine Millionen Fehler produzieren. Diese Gegenüberstellung mache deutlich, dass die Arbeit mit Algorithmen mit Bedacht erfolgen müsse. Die Frage nach den Risiken sei auch eine Frage der Abwägung und der Adressierung. Journalist:innen müssten sich bewusst sein, an welchen Stellen Risiken eingegangen würden und um welchen Preis diese Risiken einzugehen seien.

In einer digitalen Umfrage fragt Soma die Teilnehmenden, bis zu welcher Anzahl von Tweets sie diese zu Recherchezwecken selbst lesen würden und ab wann sie einen Algorithmus bevorzugen würden. Das Ergebnis: 60% der Befragten würden bis zu 10.000 Tweets eher selbst lesen, als ein Programm einzusetzen. Dies hält Soma für eine solide Größe. Das bedeute, ein Algorithmus sei nicht zwangsläufig ein geeignetes Mittel und sofern der Aufwand nicht viel zu groß ist, könne es sinnvoller sein, die Arbeit „händisch“ zu erledigen.

Als Handlungsorientierung stellt Soma eine Checkliste mit drei Fragen vor:

  1. Konsequenzen: Wer zahlt welchen Preis?

  2. Überprüfbarkeit: Ist es schwierig die Arbeit zu überprüfen?

  3. Präsentation: Wie viel zeigen Sie den Leser:innen?

Es geht also zum einen darum, welche Folgen es haben könnte, wenn Fehler unterlaufen. Führt dies lediglich zu mehr Arbeit oder einer Situation der Verlegenheit von einem Selbst? Oder können durch die Ergebnisse gar Menschen ins Gefängnis wandern? Außerdem spielt eine Rolle, wie Überprüfbar die Arbeit ist. Können wir den Algorithmus nachvollziehen und gegebenenfalls Fehler aufdecken, oder ist eine Überprüfbarkeit unmöglich? Drittens ist es auch eine Frage der Präsentation. Wie viel Gewissheit vermittelt eine Geschichte? Und werden in der Präsentation der Daten eventuelle Unsicherheit transparent gemacht? All diese Fragen sind zu beantworten, um abzuwägen, ob der Einsatz von Algorithmen oder lernenden Systemen (KI) die Recherche bereichert. Die Checkliste veröffentlichte Jonathan Soma auf seinem Github-Account, wo sich auch Tutorials zu datenjournalistischen Methoden und Links zu beispielhaften Veröffentlichungen finden.

Links:

Dr. Viola Priesemann - Science communication in times of polarization and crisis: Communicating COVID-19 modeling

Moderation: Anja Martini (NDR)

Viola Priesemann bringt die Themen Wissenschaft, Wissenschaftskommunikation und Daten zusammen. Sie ist Physikerin am Max-Planck Institut für Dynamik und Selbstorganisation in Göttingen. Mit ihrem Team forscht sie an Modellen zur Ausbreitung und Eindämmung der Pandemie. Sie war daher gefragte Gesprächspartnerin in Talkshows wie „Markus Lanz“ und viele Medien bezogen ihre Expertise in die Berichterstattung ein. Auf der SciCAR sprach Priesemann über Ihre Erfahrungen im Hinblick auf Medien und die Wissenschaftskommunikation. Die Wissenschaftlerin hat in der Pandemie-Zeit sehr viel Zeit und Mühe in die Kommunikation ihrer Forschungsergebnisse gesteckt. Mit den Medien habe Priesemann sowohl gute als auch schlechte Erfahrungen gemacht. Sie erklärt, dass sie lieber mit Wissenschaftsjournalist*innen spreche. Aus anderen Ressorts bekomme Sie häufig Fragen gestellt, die nicht in ihrem Forschungsfeld zu verorten seien und zu denen sie sich daher nicht äußern wolle. Auch die Autorisierung von Zitaten und Interviews findet die Physikerin wichtig. Es sei ein Mechanismus, um Missverständnisse auszuräumen und eventuelle Faktenfehler vor der Veröffentlichung schon richtigzustellen. Ein grundsätzliches Problem sieht sie darin, dass Journalismus oft einem schnellen Rhythmus folgt und Wissenschaft eher einem langsamen. In einer idealen Welt müsse die Kommunikation langsamer stattfinden, so Priesemann. Es sei schwierig, im teilweise tagesaktuell funktionierenden Journalismus die Wissenschaft abzubilden, die sich deutlich langsamer entwickelt, in der zum Beispiel ein Peer Review Prozess vor der Veröffentlichung einer Studie durchlaufen wird.

Sie erzählt, dass sie häufig als Null-COVID-Wissenschaftlerin tituliert wurde. Dies entspräche jedoch nicht der Wahrheit. Priesemann berichtet in Ihrer Keynote auch von ihrer Forschung. Dabei zeigt sie zum Beispiel, welche enormen Auswirkungen es hat, wann welche Maßnahmen zu Eindämmung der Pandemie getroffen werden. Ursprünglich forschte die Physikerin am Max-Planck Institut zum Lernen in neuronalen Netzen. Viele dieser Modelle und Ansätze hätten Ähnlichkeiten mit der Ausbreitung eines Virus. Und ebenso, wie sich diese Ansätze auf die Ausbreitung von Viren übertragen ließen, sei dies auch im Hinblick auf weitere Themengebiete, wie zum Beispiel Fake News, möglich, so Priesemann. Die Physikerin schließt Ihre Präsentation mit einer Reihe von Wünschen an den Journalismus ab. Darunter zum Beispiel Transparenz und Klarheit, etwa indem Versionierung für Artikel eingeführt wird oder dass wichtige Artikel nicht hinter einer Paywall liegen sollten. Aber auch zu quantifizieren, statt zu polarisieren.

Link:

Wenn Daten der Rohstoff der Zukunft sind – wie können wir ihn fördern?

Speakers: Markus Zwick (Statistisches Bundesamt), Susanne Moebus (Universitätsklinikum Essen), Thomas Bauer (RWI), Louisa Specht-Riemenschneider (Rheinische Friedrich-Wilhelms-Universität Bonn)

Moderation: Christina Elmer (TU Dortmund)

Das Datenökosystem in Deutschland entwickelt sich rasant, immer mehr Informationen sind digital verfügbar und die wachsende Bedeutung der Datenbestände scheint erkannt. Jedoch mangelt es an Vernetzung, das System ist fragmentiert, Potenziale bleiben auf der Strecke. Das Panel diskutierte, welche Informationsinfrastruktur Deutschland braucht, um aktuelle Herausforderungen zu meistern und international anschlussfähiger zu werden. Darunter Fragen wie: Kann ein Dateninstitut helfen? Und welche Rolle spielt die amtliche Statistik?

Links:

  • Präsentation (pptx) von Markus Zwick (Statistisches Bundesamt) zur Amtlichen Statistik

Wege zu besseren Daten-Workflows in der Redaktion

Speakers: Marie-Louise Timcke (Süddeutsche Zeitung), Steffen Kühne (Bayerischer Rundfunk), Camillo Sulzer & Yannik Venohr (Science Media Center Germany), Marcel Pauly (Spiegel)

Moderation: Patricia Ennenbach (Railslove)

In der datenjournalistischen Arbeit spielen effiziente und robuste Workflows eine Schlüsselrolle. Besonders deutlich wurde das während der Corona-Pandemie, als viele Redaktionen neue Dashboards entwickelten und automatisierte Formate aufbauten. Was lässt sich aus dieser Zeit für die nächsten Projekte lernen? Wie funktionieren gute Prozesse und welche Werkzeuge sind dafür essenziell? In vier Gruppen wurden in diesem Workshop Daten-Workflows in den Redaktionen unter die Lupe genommen. Jedes Team konzentrierte sich auf einen der Schwerpunkte:

  • Themen / Datenquellen APIs

  • Automatisierung / Infrastruktur

  • Visualisierung / Tools / Einbindung Redaktionssystem

  • Maintenance / Rufbereitschaft, Tücken

Neues aus dem Innovationslabor

Speakers: Ingmar Weber (Saarland University), Linus Grabenhenrich (RKI), Markus Zwick (Statistisches Bundesamt), Frauke Kreuter (Ludwig Maximilians Universität)

Moderation: Patricia Ennenbach (Railslove)

Experimente in der amtlichen Statistik, transparente Metadaten bei Behörden und neuartige Datenquellen in der Forschung: Auf diesem Panel wurden innovative Methoden vorgestellt und diskutiert, die auch für den Datenjournalismus relevant sind.

(Noch) mehr Fortschritt wagen! Statistik in der Digitalisierungspolitik

Speakers: Walter Radermacher (Ludwig Maximilians Universität München, Präsident des Statistischen Bundesamtes a.D., Generaldirektor Eurostat a.D.), Katja Ickstadt (TU Dortmund)

Die Corona-Krise hat uns vieles gelehrt, nicht zuletzt die Bedeutung von Daten, Statistiken und Indikatoren für politische Entscheidungen und den öffentlichen Diskurs. Solide Fakten können wesentlich zur Versachlichung und Verbesserung beitragen; unsolide oder schlecht kommunizierte bewirken das Gegenteil, nämlich Fehlentscheidungen, Misstrauen, parallele Wahrnehmungswelten. Bürgerinnen und Bürger müssen sich auf die Qualität der statistischen Fakten verlassen können, die der öffentliche Sektor bereitstellt. Man erwartet dementsprechend, im Koalitionsvertrag der Bundesregierung, dessen Leitmotiv „Deutschland braucht einen umfassenden digitalen Aufbruch“ ist, entsprechende Passagen und Aussagen zur Statistik zu finden. Leider sucht man vergeblich nach nur einer Erwähnung der Statistik im Koalitionsvertrag, obwohl dieser an zahlreichen Stellen politische Aussagen hinsichtlich Daten, Digitalisierung, Register, Monitoring, Forschung etc. trifft.

Offensichtlich wird die Modernisierung der Statistik (noch) nicht als ein strategisch wichtiges Element in der deutschen Digitalisierungspolitik verstanden. Dass die Statistik beim Aufbau eines Dateninstituts einen wesentlichen Beitrag leisten kann, dass sie sich auf die Bereitstellung neuer Informationen (z.B. Wohlstandsberichterstattung) und Services flexibler einstellen muss, dass sie Datenzugänge und Datenschutz für alle Nutzergruppen zum Ausgleich bringen kann, usw. sind nur einige der wichtigen Herausforderungen, vor denen die Statistik steht. Im Vergleich zu anderen Akteuren auf dem Digitalparkett, aber auch im internationalen Vergleich arbeitet die deutsche Statistik jedoch mit veralteten rechtlichen Rahmenbedingungen, unter denen die Bewältigung der bestehenden Aufgaben schwierig, zu langsam oder gänzlich unmöglich sein wird.

Zu dieser Thematik gaben Walter Radermacher, Professor an der LMU München, Präsident des Statistischen Bundesamts a.D. und Generaldirektor Eurostat a.D. sowie Katja Ickstadt, Professorin an der TU Dortmund und Vorsitzende der Deutschen Arbeitsgemeinschaft Statistik, einen Überblick. Das Roundtable-Panel lud danach zur Diskussion ein, welche Aufgaben die Statistik in der Digitalisierungsoffensive übernehmen sollte und wie hierfür die richtigen Weichen gestellt werden können, gerade auch aus Sicht des Datenjournalismus. Den Austausch zu diesem Thema wollen die beteiligten Gruppen auch über die SciCAR hinaus fortführen und vertiefen.

Links:

Klimadaten for future?!

Speakers: Sören Müller-Hansen (Süddeutsche Zeitung), Cornelia Auer (PIK Potsdam), Sebastian Seiffert (Johannes Gutenberg-Universität Mainz), Lorenz Matzat (Netzwerk Klimajournalismus)

Moderation: Holger Wormer (TU Dortmund)

Für datenbasierte Analysen und Forschungsprojekte zur Klimakrise stehen enorme Datensätze zur Verfügung. Doch helfen sie auch bei der Kommunikation des Themas? Dieses Panel diskutierte die Herausforderungen von Wissenschaft und Journalismus, schaute auf gemeinsame Ziele, auf Unterschiede zwischen den Domänen und Lösungsansätze.

Links:

  • Input von Sebastian Seiffert

Gemeinsam für eine gut informierte Öffentlichkeit – und trotzdem kritisch

Speakers: Christina Elmer (TU Dortmund), Linus Grabenhenrich (RKI), Christian Endt (Zeit Online), Thilak Mahendran (Bundesverwaltungsamt)

Moderation: Susanne Wegner (TU Dortmund)

Schon auf der fünften SciCAR bestritten Linus Grabenhenrich vom Robert Koch-Institut und Christian Endt von Zeit Online gemeinsam ein Panel. Auch 2021 stand die bessere Zusammenarbeit zwischen RKI und dem Journalismus hinsichtlich der Corona-Daten im Fokus. In der Zwischenzeit wurde zudem eine erste Version für einen Code of Conduct entwickelt, der im Workshop diskutiert wurde. Die Diskussion der Teilnehmenden aus Behörden, Journalismus und Wissenschaft spiegelte diese positive Entwicklung wider, gleichwohl wurden auch Potenziale deutlich. Es bestand Einigkeit, dass das gegenseitige Verständnis der verschiedenen Akteure gefördert werden muss, um Prozesse und Erwartungen verstehen zu können. Darüber hinaus hat sich gezeigt, dass die Zusammenarbeit auf der Bundesebene bereits besser funktioniert. Auf Länderebene oder in den Kommunen gebe es noch größere Schwierigkeiten, berichteten mehrere Teilnehmer:innen. Zentral erscheint in diesem Diskurs die Ambivalenz von Distanz und Vertrauen in der Zusammenarbeit. Neuartige Rollen wie Chief Data Officer in der öffentlichen Verwaltung könnten dabei helfen, diese Herausforderung zu lösen. Auch Frage wurden in dem Panel aufgeworfen. So etwa: Wie sollten Journalist:innen mit Daten von kommerziellen Anbietern umgehen? Und wie steht es um juristische Vorgaben bezogen auf Open Data?

The data trails of causality

Speakers: Ana Moya (Handelsblatt), Konstantin Genin (Universität Tübingen), Andreas Loos (ZEIT ONLINE), Laura Bronner (ETH Zürich)

Moderation: Kira Schacht (Deutsche Welle / Journocode)

Regression, Random Forest, Causal Inference: In diesem Panel ging es darum, wie man Ursache-Wirkung-Zusammenhänge sinnvoll untersucht, beweist und beschreibt. Es wurden verschiedene datengetriebene Methoden betrachtet, ethische Fragen reflektiert und diskutiert, inwieweit die Methoden in einem journalistischen Kontext anwendbar sind.

Laura Bronner, die am Immigration Policy Lab der ETH Zürich forscht, startete mit einem Überblick über Causal Inference und dem Auftreten im Datenjournalismus. Neben dem deskriptiven, also beschreibenden, Datenjournalismus, der berichtet, was passiert, spiele auch Kausalität eine Rolle. Dann nämlich, wenn es darum geht, Effekte zu erklären und zu ergründen. Wichtig sei dabei, zu reflektieren, wie Forscher:innen über Kausalität schreiben, wie die Medien darüber berichten und wie Leser:innen dies verstehen. Vertiefend präsentierte sie ein Beispiel der Berichterstattung, bei der die Frage aufgeworfen wurde, ob ein bestimmter Laufschuh die Läufer:innen schneller mache.

Konstantin Genin, der die Forschungsgruppe „Epistemology and Ethics of ML“ and der Universität Tübingen leitet, gab einen Einblick in die moralischen und methodischen Fragen des Maschinellen Lernens. Ethiker:innen seien dafür verantwortlich, neue „Leitplanken“ einzubauen, während sich die Methoden immer weiterentwickeln. Die ethischen Fragen seien somit abhängig von methodischen. Zum Beispiel seien RCTs, also randomisierte kontrollierte Studien, aus ethischer Sicht mit vielen Fragen verbunden, obwohl sie einen großen Erkenntnisgewinn versprächen.

Andreas Loos, Data Scientist bei Zeit Online, und Ana Moya, Head of Data Analytics beim Handelsblatt, diskutierten in ihrem Input die datenbasierte Wahlberichterstattung von Zeit Online im Jahr 2017. Andreas Loos war selbst an der Berichterstattung beteiligt. Ana Moya hat im Nachhinein die Berichterstattung gemeinsam mit Marie-Louise Timcke für ein Kapitel im Buch „Statistische Datenanalyse im Journalismus“ analysiert. So schreibt Zeit Online beispielsweise: „Je höher das Einkommen, desto erfolgreicher die FDP“. Die Korrelation in den Daten zeigt also, dass die FDP besonders dort erfolgreich war, wo die Haushalte höhere Einkommen haben. Dennoch sei es wichtig deutlich zu machen, dass dies nicht zwangsläufig auch eine Kausalität ist. Dass das höhere Einkommen die Ursache für den Effekt, also die Wahl der FDP war, ist an dieser Stelle ungewiss. Die Berichterstattung zur Bundestagswahl 2017 und der Link zum Buch befinden sich unten.

Die anschließende Diskussion handelte vor allem davon, wie Medien in der Berichterstattung mit oder über solche statistischen Methoden und Erkenntnisse vorgehen sollten.

Links:

Die Metrik der nächsten Corona-Welle

Speakers: André Karch (Universität Münster), Lars Koppers (Science Media Center Germany), Marcel Pauly (Spiegel)

Moderation: Anja Martini (NDR)

Was kommt nach Inzidenzen und Hospitalisierungsraten? Mit der Entwicklung der Corona-Pandemie haben sich auch die zentralen Indikatoren gewandelt, die einen Eindruck zur pandemischen Lage geben konnten. In diesem Workshop ging es darum, auf welche Metriken es in der nächsten Welle der Pandemie ankommt und was bei der Kommunikation zu beachten ist.

Wie Journalist:innen SOEP-Forschungsdaten auswerten können

Speaker: Katja Schmidt (DIW Berlin)

Das Sozio-oekonomische Panel (SOEP) ist die größte und am längsten laufende Wiederholungsbefragung zur sozialen und wirtschaftlichen Lage in Deutschland, für die jedes Jahr etwa 30.000 Menschen in 15.000 Haushalten befragt werden. Dabei geht es u.a. um Familie, Arbeit, Bildung, Einkommen und Vermögen, aber auch um aktuelle Themen wie die gesellschaftlichen Folgen des Klimawandels. Die Befragungsdaten werden von Wissenschaftler:innen aus der ganzen Welt genutzt.

Im vom BMBF geförderten Projekt SOEP-Transfer macht das SOEP-Team diesen Datenschatz künftig auch (Daten-)journalist:innen zugänglich und baut dafür seit 2020 eine neue Transfer-Schnittstelle auf. Kern der Schnittstelle ist eine Auswertungsplattform, mit deren Hilfe Journalist*innen selbst SOEP-Daten auswerten und analysieren können. Darüber hinaus werten SOEP-Expert:innen Daten für oder gemeinsam mit den Journalist:innen aus und beraten sie bei datenjournalistischen Projekten.

Auf der SciCAR wurde in diesem Workshop die beta-Version der Auswertungsplattform „SOEP Statistics“ vorgestellt. Dafür haben die Teilnehmenden in einer „Hands-on“ Session exklusiven Datenzugang erhalten und konnten mithilfe der Plattform eigene Auswertungen machen, interpretieren und gemeinsam diskutieren. Da sich die Plattform noch im Aufbau befindet, fließt das Feedback zur Gebrauchstauglichkeit direkt in die Weiterentwicklung der Plattform.

Inputs aus der Forschung für besseren Datenjournalismus

Speakers: Gianna-Carina Grün (Deutsche Welle / TU Dortmund), Michael Hörz (ZDFheute / Frei)

Wie wirken datenjournalistische Beiträge auf ihre Rezipient:innen? Wie müssen Datenvisualisierungen gestaltet sein, damit sie gut funktionieren? Welche Faktoren beeinflussen, ob sich Nutzer:innen mit Datenvisualisierungen auseinandersetzen? In dieser Lightning Talk-Serie wurden wissenschaftliche Studien kuratiert und kompakt vorgestellt, die Datenjournalist:innen kennen sollten.

Vorgestellt wurden folgende Veröffentlichungen (pdfs via Google Scholar):

  • Appelgren (2018): An Illusion of Interactivity. The paternalistic side of data journalism. Journalism Practice. [DOI | pdf]

  • Bradshaw (2021): Data journalism with impact. Data Journalism Handbook. [DOI | pdf

  • de Haan et al. (2018): When does an infographic say more than a thousand words? Journalism Studies. [DOI | pdf]  

  • Franconeri et al. (2021): The Science of Visual Data Communication: What Works. Psychological Science in the Public Interest. [DOI | pdf

  • Haim (2022): The German Data Journalist in 2021. Journalism Practice. [DOI | pdf

  • Heravi et al. (2021): Preserving Data Journalism: A Systematic Literature Review. Journalism Practice. [DOI | pdf

  • Kennedy et al. (2016): Engaging with (big) data visualizations. First Monday. [DOI | pdf

  • Powers & Curry (2019): How Journalists Assess the Impact and Define the Boundaries of Solutions Journalism. Journalism Studies. [DOI | pdf

  • Stalph et al. (2022): Local Data Journalism in Germany: Data-Driven Reporting Amidst Local Communities and Authorities. Journalism Practice. [DOI | pdf

  • Tong & Zuo (2021): The Inapplicability of Objectivity: Understanding the Work of Data Journalism. Journalism Practice. [DOI | pdf]  

Links:

  • Lightning-Paper-Präsentation mit Zusammenfassungen der einzelnen Studien

  • Twitter-Thread als Ort für ergänzende Empfehlungen von Konferenz-Teilnehmer:innen

Wissenschaftliche Modelle und Dashboards im Check

Speakers: Lars Koppers (Science Media Center), Jochen Linßen (Forschungszentrum Jülich)

Nicht nur im Datenjournalismus findet eine Dashboardisierung statt. Auch aus der Forschung werden immer wieder Dashbords zur Verfügung gestellt, in denen Szenarien und Prognosen zu öffentlich relevanten Sachverhalten modelliert werden. Auch außerhalb der Dashboards werden oft Ergebnisse veröffentlicht, denen man auf den ersten schnellen Blick gar nicht ansieht, wie viel Modellierung in ihnen steckt. Wer vermutet schon hinter einer “Berechnung” der Übersterblichkeit gleich mehrere komplexe statistische Methoden, die Limitationen in den Daten ausgleichen sollen, selbst aber auch mögliche Fehlerquellen sind.

In diesem Workshop wurden anhand von Beispielen aus verschiedenen Themenbereichen (z.B. Gasversorgung, Corona) Strategien erarbeitet, wie man veröffentlichte Modellierungsstudien und -Dashboards systematisch prüfen kann, um im Anschluss die Qualität besser einschätzen zu können. Außerdem ging es um die Frage beschäftigt, was wir eigentlich von der Wissenschaft benötigen, um diese Überprüfung möglichst effizient durchführen zu können.

BARsession im Domicil

Am Abend vor der Konferenz fand im Domicil ein Get Together statt. Die Dortmunder Wirtschaftsförderung und die Business Academy Ruhr veranstalteten dort eine BARsession. Raphael Gielgen hielt eine Keynote mit dem Titel „RETURN TO WHERE? Warum wir die Wissensarbeit neu denken sollten“. Mehr Informationen dazu finden Sie hier.

Fotos auf dieser Seite: Netzwerk Recherche

X

Wir verwenden Cookies

Wir nutzen Cookies auf unserer Website. Einige sind notwendig, während andere uns helfen, diese Website und Ihre Erfahrung zu verbessern.