Link zur Startseite der Technischen Universität Dortmund Zur Startseite
Zur Startseite

SciCAR 2024: „Konferenz von Nerds für Nerds“

Auf der 8. SciCAR sind Datenjournalist:innen und Forschende zusammengekommen, um sich auszutauschen – über Methoden, Innovationen und aktuelle Entwicklungen.

Zum achten Mal fand am 27. und 28. September die Datenjournalismus-Konferenz SciCAR in Dortmund statt. Austragungsort der Tagung, die vom Institut für Journalistik, dem Netzwerk Recherche, der Wissenschaftspressekonferenz sowie dem Science Media Center Germany veranstaltet wird, war in diesem Jahr die Sparkassenakademie NRW am Dortmunder Phoenixsee.

Noch am Wochenende sind erste Feedbacks zur Konferenz in den sozialen Medien zu finden: „Ich kann gar nicht genug betonen, wie dankbar ich für Konferenzen wie die #Scicar bin. Konferenzen von Nerds für Nerds, bei denen wir uns ehrlich machen.“ So zieht Haluka Maier-Borst, Teamlead Data Journalism beim Handelsblatt und Absolvent des Instituts für Journalistik, sein Fazit zu zwei Tagen Konferenz in Dortmund.

Die Teilnehmenden diskutieren in den Panels über Themen wie die Vermessung des Rechtsrucks und den Einsatz von KI-Modellen. Über Diskussionen zu Algorithmic Accountability und Metadatenjournalismus bis hin zu der Auswertung von Agrardaten sowie Sensorjournalismus deckte die diesjährige SciCAR ein breites Spektrum verschiedener Bereiche des Datenjournalismus ab. 

Neben den fachlichen Sessions bot die SciCAR Raum für den Austausch, gerade auch zu herausfordernden Aspekten, etwa gescheiterten Projekten. In seinem Beitrag auf LinkedIn betonte Referent Jakob Vicari (tactile.news) die Offenheit unter den Teilnehmenden: „Das ist eine wirklich feine Konferenz. Mit guten, offenen Gesprächen, wie sie selten geworden sind unter Kolleg:innen in einer Branche unter Druck. Und mit diesem Nerdblick auf die Welt: Schön, dass alles da draußen so kompliziert ist.“

Dokumentation der Konferenz - Die Sessions im Detail

Autor:innen: Tim Berninghaus, Leonie Klingberg, Romina Orlowski, Merle Sophie Rickers, Lennart Thomas

Keynote: WIE DATEN UND VISUAL FORENSICS DEN INVESTIGATIVJOURNALISMUS VERÄNDERN

Speakerin: Christina Brause

Den ersten Konferenztag eröffnete Christina Brause, investigative Datenjournalistin, mit einer Keynote zur Frage, wie Daten und Visual Forensics den Investigativjournalismus verändern. Die Felder Investigation, Datenjournalismus, Reportage und OSINT hätten im journalistischen Alltag nur wenige Berührungspunkte. Zu Unrecht, meint Brause: Eigentlich hätten etwa Datenjournalismus und Investigation viele Gemeinsamkeiten. Beide seien nerdig, detail- und faktenverliebt. Es gingen also viele Potenziale verloren, wenn die Bereiche nicht ineinandergreifen würden – die verdeutlichte Brause anhand einiger beispielhafter Recherchen.

Keynote: Kurs halten. Ein Kompass für (Daten-)Journalismus in Zeiten lernender Systeme (KI)

Speakerin: Prof. Dr. Marlis Prinzing

Die zweite Keynote-Speakerin, Marlis Prinzing, Professorin für Journalismus an der Hochschule Macromedia, zeigte den Gästen einen Kompass für Datenjournalismus in Zeiten lernender Systeme auf. KI-Systeme würden schon heute den gesamten journalistischen Produktionsprozess unterstützen. Daher empfahl Prinzing eine innovationsoffene Redaktionskultur sowie redaktionelle Leitlinien zu etablieren. Zudem solle die Medienkompetenz innerhalb der Gesellschaft gestärkt, Governanceprozesse beobachtet und digitale Transformation grundlegend in der Berichterstattung verankert werden. Außerdem sei nach Prinzing die aktive Beteiligung am gesellschaftlichen Diskurs von besonderer Relevanz. 

KEYNOTE: DIGITAL UND RESILIENT? TECHNOLOGIEGETRIEBENE DEMOKRATIEFORSCHUNG UND DATENJOURNALISMUS IN KRISENZEITEN

Speaker: Dr. Jonas Fegert

Am zweiten Konferenztag hielt Jonas Fegert, Leiter des House of Participation am FZI, die Keynote zu technologiegetriebener Demokratieforschung und Datenjournalismus in Krisenzeiten. Dabei gab er einen Einblick in das Forschungsfeld der Digitalen Demokratie und berichtete, welche Chancen und Risiken Technologien und Plattformen für die Demokratie haben. Außerdem sprach er über Ansätze, wie gesellschaftliche Stimmungen in Zeiten von Krisen analysiert werden können und inwiefern der Datenjournalismus dies nutzen kann.

Innovative Ideen für den Datenjournalismus

Speaker:innen: Michael Hörz, Marcus Pfeil, Anja Noster, Sigrid März, Moderation: Gianna-Carina Grün

Der WPK-Innovationsfonds fördert regelmäßig innovative Ideen für den Wissenschafts- und Datenjournalismus. Im Rahmen dieses Panels wurden drei der geförderten Projekte präsentiert.

Marcus Pfeil stellte sein Unternehmen Vertical52 vor, das den neuen Bereich des Satellitenjournalismus ausbauen möchten. Vertical52 beliefert Medienhäuser mit hochauflösenden Satellitenbildern, etwa für die Berichterstattung über die Zerstörung in Gaza oder auch die Versiegelung innerhalb verschiedener Städte.

Daneben entwickelt das Unternehmen Trainingsprogramme und Werkzeugkästen für Journalist:innen, um ihnen die Recherche aus dem All nahezubringen.

Sigrid März präsentierte „CheckerEvi“, den Chatbot für irreführende Gesundheitsinformationen. Nahrungsergänzungsmittel dürfen laut dem Gesetz keine arzneiliche Wirkung haben, die Unternehmen diese also auch nicht versprechen. Chatbot „CheckerEvi“ checkt die Werbeversprechen des gesuchten Nahrungsergänzungsmittels auf Zulässigkeit. Ist das Werbeversprechen nicht zulässig, gibt es die Möglichkeit, die Werbung bei den zuständigen Behörden zu melden.

Michael Hörz berichtete vom Projekt „KI-Geo-Finder“ von NDRData. Mittels Satellitenbildern und Luftaufnahmen soll mit dem „KI-Geo-Finder“ etwa die Frage beantwortet werden, wie die eigene Stadt aussähe, wenn die Parkplätze in Grünflächen umgestaltet würden.

Zur Audioaufzeichnung

Erreichbarkeit von Krankenhäusern

Speaker: Lars Koppers, Ulrich Lang, Tim Holthaus, Sven Lautenbach

Im Rahmen der Krankenhausreform werden immer wieder einzelne Leistungen an einem Ort oder gleich ganze Klinikstandorte oder in Frage gestellt. Dadurch ändert sich die Erreichbarkeit von Leistungen/Standorten. Bei der datenjournalistischen Bearbeitung dieses Themas gibt es verschiedene Hürden: Welche Liste von Krankenhäusern wird als Grundgesamtheit angenommen? Wie und mit welchen Metadaten wird diese angereichert (Notfallstufen, Zertifizierungen, Angebot bestimmter Behandlungen)? Wie werden eigentlich Entfernungen zu Krankenhäusern gemessen? Und wie können wir eine allgemeine Infrastruktur für diesen Themenbereich schaffen, die von allen Redaktionen genutzt werden kann, damit nicht alle mit >500 GB Daten hantieren müssen?

Links:

Browserdatenspenden wissenschaftlich und journalistisch einsetzen

Speaker:innen: Maren Schuster, Felix Münch

Würdest du deinen Browserverlauf an die Wissenschaft spenden? Und was würde die Wissenschaft mit deinen Browserdaten anfangen? Neben der Neugier nach spannenden Erkenntnissen sind viele Journalist:innen auch besorgt um Quellenschutz und Datensicherheit. Das berichteten auch Maren Schuster und Felix Münch in ihrem Vortrag „Browserdaten – wissenschaftlich und journalistisch einsetzen“.  Die Forschenden der Universität Halle Wittenberg und des Leibniz Institut für Medienforschung berichten in ihrem Vortrag von den Ergebnissen ihrer Pilotstudie, in der sie Browserdaten von Journalist:innen ausgewertet haben. Zu Beginn des Vortrags stellten die Forschenden relevante Erkenntnisse der Pilotstudie vor und den Teilnehmenden das Programm zum Ausprobieren zur Verfügung. Nach einer kurzen Fragerunde starteten die Forschenden eine Diskussionsrunde zu der Frage, wie Journalist:innen und Wissenschaftler:innen das verwendete Programm zur Browserdatenspende noch verwenden könnte. Dazu stellten die Teilnehmenden spannende Ideen vor und diskutierten über den möglichen Nutzen, Ausbaumöglichkeiten und potenzielle Herausforderungen.

Lieber spät als gar nicht? Verkehrsdaten, Journalismus und Verkehrswende

Speaker:innen: Simon Koenigsdorff, Stefan Kaufmann, Dorothee Sigg, Uta Schauf, Moderation: Dr. Jan Georg Plavec

Bei der Stuttgarter Zeitung stelle man sich die Frage, warum die Berichterstattung über Verkehrsdaten so zufällig, unsystematisch und nicht kontinuierlich erfolge. Und das, obwohl Verkehrsdaten in unfassbar großer Menge vorhanden seien und auch kontinuierlich erhoben würden, so Jan Georg Plavec. Um diese Frage sollte es in diesem Panel gehen, bei dem Vertreter:innen aus Wissenschaft, Datenjournalismus und des Nordhessischen Verkehrsverbunds Perspektiven austauschten. Für den Nordhessischen Verkehrsverbund gab Uta Schauf, verantwortlich für den Bereich Fahrgastinformation und Verkehrsdatenmanagement, Einblicke in ihre Arbeit. 

Der Medieninformatiker Stefan Kaufmann hat selbst die Deutsche Bahn beraten und konnte eine wissenschaftliche Sicht auf die Verkehrsdaten einbringen. Aus dem Bereich des Journalismus berichten Simon Koenigsdorff und Dorothee Sigg von den Herausforderungen bei der Arbeit mit Verkehrsdaten bei der Stuttgarter Zeitung.

Zur Audioaufzeichnung

Metadatenjournalismus - mehr strukturierte Informationen für Journalist:innen

Speaker:innen: Michael Hörz, Dr. Andreas Becker, Hannes Wünsche, Thomas Tursics

Wie kommen Journalist:innen eigentlich am besten an Daten? Der Deutsche Wetterdienst, das Robert Koch-Institut (RKI) und GovData helfen weiter.

Im Panel erklären sie, wo man bei ihnen auf welche Daten zugreifen kann. Und woher sie diese überhaupt haben.

Michael Hörz vom NDR steckte in einer Recherche zu Atemwegserkrankungen. Aus den Daten vom RKI war ihm nicht gleich ersichtlich, von wann diese Erhebungen eigentlich sind. Für alle Journalist:innen, die solche Probleme kennen (Von wann stammen meine Daten? Und woher? Oder wo kann ich sehen, wie sie eigentlich erhoben wurden?), hat er das Panel „Metadatenjournalismus - mehr strukturierte Informationen für Journalist*innen“ organisiert. Als Referenten waren Hannes Wünsche vom RKI, Thomas Tursics von GovData und Andreas Becker vom Deutschen Wetterdienst dabei. Stellvertretend für ihre Organisationen haben sie einen Einblick gegeben, wie man auf ihren Webseiten Auskunft über die Metadaten erhält.

Die Versiegelung vermessen

Speaker:innen: Max Donheiser, Marcus Pfeil

Satellitendaten bieten unzählige Einsatzmöglichkeiten, die weit über Forschungszwecke und militärische Nutzung hinausgehen können. Michael Anthony berichtete in seinem Vortrag über journalistische Recherchen, die mithilfe von Satellitendaten eindrucksvolle Geschichten erzählen konnten. Als Co-Founder von Vertical52 hilft er Medienunternehmen dabei, an Geodaten zu kommen: „Gemeinsam mit Medienhäusern können wir aufwendigere Recherchen umsetzen, bei denen es vor allem um algorithmische Recherchen geht“.

Max Donheiser von Correctiv berichtet außerdem von einer aktuellen Recherche, die gemeinsam mit Vertical52 entstanden ist. Mithilfe von Satellitendaten wurde die Versiegelung von Oberflächen in deutschen Städten vermessen. So konnte unter anderem gezeigt werden, welche Effekte Versiegelung auf die Temperatur in den Städten hat, aber auch, ob Bestrebungen zur Wiederbegrünung (Entsiegelung) Wirkung zeigen.

Mehr zu der Recherche gibt es hier.

Vom Text zur Analyse: Large Language Models als Werkzeug für datenjournalistische Anwendungen

Speaker: Meik Bittkowski

Wenn ich vor einem riesigen Datensatz sitze, wie kann ich aus ihm Daten extrahieren? Kann mir da eine KI weiterhelfen?

Egal, ob aus einem Video, einer PDF oder zum Beispiel einer Website: Meik Bittkowski zeigte in seinem Kurzworkshop, wie das gehen könnte. Er benutzt als Werkzeug das Language Model „Fabric API“.

Im Workshop erklärte Bittkowski, wie das Programm effektiv verwendet werden kann. Er veranschaulichte zum Beispiel, wie man die KI mit gegebenen oder eigens erstellten Pattern füttert, um so schnell an die Daten oder die Inhalte zu kommen, die einen interessieren. Außerdem ging es darum, wie man diese Inhalte anschließend validiert.

Editorial meets Artificial Intelligence: Bleibt Journalismus relevant, wenn KI-Modelle Inhalte erstellen?

Speakerin: Dr. Ana Moya

Die Relevanz von Künstlicher Intelligenz (KI) in deutschen Redaktionen nimmt rasant zu. Worüber sich Journalist*innen Sorgen machen und welche Chancen KI bieten kann, diskutierten die Teilnehmenden des Panels „Editorial meets AI“. Ana Moya von der International School of Management hat dazu drei Fragen mitgebracht, über die sich die Teilnehmenden des Panels austauschten. Zum einen stellte Ana Moya die Frage, wie KI die Beziehung zwischen Journalisten*innen und Lesenden beeinflussen kann. Außerdem sprachen die Teilnehmenden darüber, wie der Einsatz von KI die Glaubwürdigkeit journalistischer Inhalte beeinflussen kann. Zuletzt waren auch die Effekte des Einsatzes von KI auf die Zahlungsbereitschaft der Lesenden Thema der Diskussion.

Aus dem Publikum kamen spannenden Anmerkungen zum Beispiel dazu, dass viele dieser Fragen von der Transparenz des Mediums zur Nutzung von KI abhängig seien. Aber auch in Bezug auf die Sozialen Medien und Fake News sprachen einige Personen aus dem Publikum an, dass durch KI bestehende Probleme, ähnlich einem Brennglas, nur verstärkt würden.

Lernende Systeme überall: (Wie) können KI-Modelle den Journalismus verbessern?

Speaker:innen: Jan Eggers, Sebastian Mondial, Prof. Dr. Marlis Prinzing, Dr. Jakob Vicari, Moderation: Prof. Christina Elmer

In Panel „Lernende Systeme überall: „Wie können KI-Modelle den Journalismus verbessern?“ diskutierten die Expert:innen darüber, was bei der Verwendung von KI-Systemen in Redaktionen beachtet werden muss, welche Herausforderungen sie meistern müssen und wie KI den Journalismus gegenwärtig und zukünftig verändern wird. Im Panel wurde schnell die Herausforderung klar, Verantwortung und Experimentierfreudigkeit, die beide als wichtig angesehen werden, in Waage zu halten. Als eine weitere Herausforderung, mit dem vor allem der öffentlich-rechtliche Rundfunk umgehen muss, wurden Richtlinien diskutiert. Etwa wenn in diesen Richtlinien die Verwendung von KI-Tools untersagt würde und die Redakteur:innen stattdessen einfach ihre privaten Accounts verwenden würden, so Jakob Vicari. Marlis Prinzing merkte an, dass Richtlinien wichtig seien, um Orientierung zu schaffen, anstelle von Verboten einzelner Anwendungen.

Als sehr positive Maßnahme schätzte Sebastian Mondial vom SWR das Anbieten und Weiterentwickeln von Schulungen hinsichtlich verschiedener KI-Anwendungen innerhalb der Redaktionen ein.

Jan Eggers und Sebastian Mondial präsentieren auf dem Panel einige Test-Szenarien, mit denen KI-Anwendungen auf die Probe gestellt wurden. Darunter etwa den Versuch, eine KI-Anwendung als Zufallszahlen-Generator zu verwenden. Dieser Versuch misslang, die Zahl 42 kam überdurchschnittlich häufig vor.

Zur Audioaufzeichnung

Algorithmic Accountability: Wie messen und vermitteln wir, ob Algorithmen zuverlässig und fair arbeiten?

Speaker:innen: Prof. Henrike Weinert, Prof. Dr. Katja Ickstadt, Lisa Goldschmidtböing, Kai-Robin Lange

Stellen Sie sich vor, Sie googeln „eine indische Person“ und die ersten neunzig Bilder, die die KI zur Verfügung stellt, sind nur Männer. Gibt es in Indien nur Männer? Nein, aber die KI, die für Sie sucht, funktioniert nach einem bestimmten Algorithmus, der voller Fehler sein kann.

Der Workshop zu Algorithmic Accountability beschäftigte sich genau mit dieser Frage: Können gesellschaftlich relevante Algorithmen Verantwortung übernehmen? Ob bei Algorithmen von Instagram, beim Einstellen von Mitarbeitern oder bei der Google Bildersuche: Wie erkennt man deren Fehler? Und wie vermittelt man diese als Journalist:in an Laien? Dem gingen die Teilnehmenden in Gruppenarbeiten auf den Grund. Geleitet wurde der Workshop von Prof. Henrike Weinert und Kai-Robin Lange, die Teil einer Forschungsgruppe der TU Dortmund zu diesem Thema sind.

Demokratie auf der Kippe? Wie sich der Rechtsruck vermessen lässt

Speaker:innen: Sören Müller-Hansen, Natalie Sablowski, Jan Philipp Thomeczek, Leonard Eckwert, Dr. Jonas Fegert, Moderation: Gianna-Carina Grün

Der Frage, wie sich der Rechtsruck vermessen lässt, näherten sich die Panelist:innen in dieser Session mithilfe der Analysen, die sie bereits zu diesem Thema unternommen hatten. So stellte Sören Müller-Hansen von der SZ eine Recherche vor, in der betrachtet wurde, wo sich die Parteien politische verorten lassen. Es lasse sich dabei beobachten, dass in diesem Jahr die „Waage der Demokratie“ – mit der gemessen wurde, ob sich eher rechte und eher linke Parteien ausgleichen – aus dem Gleichgewicht sei. Dennoch wurde angemerkt, dass gegenwärtig die Verordnung in ein Rechts-Links-Schema möglicherweise ausgedient habe, da mehr Aspekte zu berücksichtigen seien. Jan Philipp Thomeczek, Politikwissenschaftler an der Uni Potsdam, berichtete über seine Forschung anhand des Länder-Expert-Surveys. Mit diesem Umfrage-Datensatz sollte etwa die Frage beantwortet werden, wo die Landesverbände der Parteien im Gegensatz zu ihrem Bundesverband zu verorten seien. Natalie Sablowski, Datenjournalistin bei der SZ, zeigte anhand einer ihrer Recherchen, wie Textdaten, also Sprache, für die Beantwortung der Frage nach dem Rechtsruck herangezogen werden können. So wurde untersucht, welche Begriffe Parteien besonders häufig verwenden. Eine Erkenntnis: Die AfD würde mitunter normale Begriffe zu Kampfwörtern umdeuten, so etwa bei dem Begriff der Multikulturalisierung. Der Politikwissenschaftler Jonas Fegert gab einen Ausblick und erklärte, dass es etwa spannend wäre zu untersuchen, wann einzelne Begriffe etwa in Social Media, im Parlament und wann im Journalismus zu finden seien.

Leonard Eckwert ging zudem auf die Perspektive der Regionalmedien ein und berichtete, dass beim MDR auch das Handeln der Parteien, also etwa welche Kooperationen einzelne Parteien eingehen, untersucht würde.

Zur Audioaufzeichnung

Finding leads in big data lakes: State of the art of the FollowTheMoney toolkit

Speaker: Simon Wörpel

Der Bibliothekar für Datenbänke: Die Person "Max Mustermann" hat am "23.06.1978" Geburtstag, aber auch am "06.1978". Er arbeitet als "Bäcker", aber ist auch "Firmenchef" und manchmal findet man ihn auch unter "Max Musterherr".

Das ist das Problem mit Daten, sie sind ungenau, sie verändern sich. Simon Wörpel fasste es anders zusammen: „Daten sind fuzzy". Wer in großen Datenbanken recherchiere, stelle das selbst schnell fest. In seinen Vortrag bot Simon Wörpel aber auch eine Lösung an. FollowTheMoney ist nicht nur ein gut gemeinter Rat für Investigativjournalisten, sondern auch ein Python Toolkit. Es erstellt für Elemente einer Datenbank eine einheitliche Ontologie. Dadurch werde es einfacher, Elemente zu suchen, zu finden und zu vernetzen. Ziel ist es, aus großen Datenbanken übersichtliche Datenkataloge zu machen, wie zum Beispiel Aleph oder nomenklatura. Recherche funktioniert nämlich besser, wenn man Vladimir Putin auch unter Wladimir Wladimirowitsch Putin findet.

Landwirtschaft in der Krise? Wie wir mit Daten über den Agrarsektor berichten

Speaker:innen: Simon Jockers, Maren Krämer

Maren Krämer und Simon Jockers vom SWR Datalab berichteten von ihren Rechercheerfahrungen zum Thema Landwirtschaft und beantworteten die Frage „Warum mithilfe von Daten über Landwirtschaft berichten?“

Wenn man sich die Berichterstattung zu dem Thema anschaue, merke man schnell, dass sich meistens auf Einzelfälle konzentriert würde. „Unsere Frage war dann, kriegen wir das ein bisschen weggezoomt?“, so Maren Krämer. Denn um festzustellen, ob es ein Höfesterben gibt und wie stark die Landwirtschaft in der Krise steckt, sei das Gesamtbild von Bedeutung. Simon Jockers fügte hinzu, dass die gesellschaftliche Diskussion ziemlich schnell polarisierend wurde. Das alles spreche dafür, sich genauer anzuschauen, was die Zahlen überhaupt sagen. Im Laufe des Panels erfuhren die Teilnehmenden nicht nur auf welchen Plattformen sie am besten Daten zum Thema Landwirtschaft finden, sondern auch, worauf sie beim Betrachten dieser Statistiken achten müssen. So gebe es in dem Sektor große regionale Unterschiede, weshalb die Daten der Bundesländer nicht immer einfach miteinander zu vergleichen seien, erklärte Simon Jockers. Maren Krämer ergänzte, dass natürlich auch bei diesem Thema eine zusätzliche Einordnung der Zahlen wichtig sei.

Das Fazit ihres Vortrags, zugleich auch ein Takeaway ihrer Recherche, ist, dass beim Thema Landwirtschaft meist keine generalisierenden Aussagen möglich sind.

Was krabbelt da? Von der Insektenkamera ins Programm

Speaker:innen: Joachim Budde, Sigrid März

Sigrid März und Joachim Budde sind mit innovativem Gepäck zur SciCAR gereist. Zur Konferenz brachten sie die Insektenkamera mit und präsentierten das Projekt „Was krabbelt da?“.

Das Projekt ist ein innovativer Ansatz zur Berichterstattung über die Biodiversitätskrise und in diesem Fall über Insekten. Mittels der Schuhkarton-großen Kamera kann erhoben werden, welche Insekten an ihrem Standort gerade haltmachen. Mithilfe künstlicher Intelligenz kann die Insektenart bestimmt werden und Nutzer:innen können die Daten online einsehen.

Im Rahmen des Workshops diskutierten die Teilnehmenden auf diesem Panel selbst über Format-Ideen, wie die Insektenkamera die Berichterstattung bereichern kann.

Zur Audioaufzeichnung

Den Zufall in den Griff bekommen: KI-Modelle und Prompts mit Chainforge testen

Speakers: Jan Eggers, Sebastian Mondial

Wie viele Witze kennt ChatGPT? - Mit dieser Frage stiegen Jan Eggers und Sebastian Mondial in ihren Workshop ein. Hinter der Frage verbirgt sich ein größeres Problem. Wer mit KI-Programmen oder LLMs arbeiten will, muss sie verstehen, oder wissen, ob nach dem achten Witz vielleicht noch ein besserer kommt. Mit ChainForge kann man solchen Fragen auf den Grund gehen. Dafür sei, auch zur Freude von Sebastian Mondial, kein großes Programmieren nötig. Eine Frage ließe sich verschiedenen Programmen gleichzeitig stellen und das beliebig oft. Welche Auswirkung Änderungen in der Frage oder dem Prompt haben, ließe sich ebenfalls testen. Dabei ist es laut Jan Eggers zum Beispiel egal, ob man „Bitte“ und „Danke“ sagt.

Im Selbsttest durften die Teilnehmer selbst experimentieren, wobei unter anderen auffiel, dass schlechte Witze und Witze für Kinder oft das gleiche sind.

Fotos: Anna Klinge, Julian Welz

X

Wir verwenden Cookies

Wir nutzen Cookies auf unserer Website. Einige sind notwendig, während andere uns helfen, diese Website und Ihre Erfahrung zu verbessern.