Neuer Artikel: Der Robo-Journalismus mit seinen Tücken und Möglichkeiten – Was Journalisten denken

blogpost_automatjourn(Foto von mir – der kleine BB-8 gehört natürlich zum Star Wars-Universum)

 

Wie bereits freudig erzählt und im letzten Post zum Radiointerview mit SWR2 Impuls noch einmal erwähnt, ist ein neuer Artikel erschienen, in welchem ich mich zusammen mit meinen Kollegen Prof. Neil Thurman (Ludwig-Maximilians-Universität München) und Konstantin Dörr (Universität Zürich) mit automatisiertem Journalismus befasse. Wir haben dazu Journalisten von großen Medienhäusern, wie z.B. der BBC und Reuters, entsprechende Software ausprobieren lassen, und sie hinterher zu ihren Einschätzungen befragt. Hier eine kleine Zusammenfassung der Ergebnisse.

Der ganze Artikel – in englischer Sprache – lässt sich mit einem Klick auf das pdf-Symbol herunterladen:

pdf-icon_klein

 

Bevor es zu den Ergebnissen geht –  was ist automatisierter Journalismus bzw. „Robo-Journalismus“ überhaupt?

Mit automatisiertem Journalismus ist gemeint, dass mittels Software und Algorithmen Texte geschrieben werden, d.h. dass nicht jede Nachricht einzeln von einem Menschen getippt wird. Die dazu nötigen Informationen werden aus Datensätzen entnommen, und automatisch in einen Text umgewandelt – dieses Vorgehen bietet sich besonders dort an, wo mit vielen strukturiert aufbereiteten Zahlen gearbeitet wird, wie z.B. in der Finanzbranche, in der für die Unternehmen immer ähnliche Kennzahlen vorkommen. Wenn die Software richtig programmiert ist, wird z.B. ein Finanzbericht in Windeseile ohne weiteres Zutun eines Menschen auf dem Bildschirm ausgespuckt.

Prinzipiell lässt sich das Verfahren überall dort anwenden, wo Geschehnisse als möglichst detaillierte Datenpunkte erfasst werden können. So auch im Sport, wie im Fußball – denn Spieler, Anzahl der Tore, der gelben Karten, oder auch die Auswechslungen können einzeln erfasst und damit für die jeweilige Software brauchbar gemacht werden. Das wichtige ist, dass für alle gleichartigen Ereignisse – wie alle Fußballspiele am Wochenende – die Daten im selben Format erfasst werden. Nur so kann die Software die Daten verarbeiten.

Bloß, weil ein Computer beteiligt ist, heißt das nicht, dass der Journalist vollkommen überflüssig ist. Denn, damit das Ganze funktioniert, müssen die passenden Datensätze erst einmal ausfindig gemacht und dann in die Software eingespeist werden. Danach liegt es am Journalisten, eine Vorlage erstellen, in welche die Software schließlich für die Berichte die Daten einsetzt. Das heißt, der Journalist schreibt in der Software eine Art Lückentext, mit Platzhaltern für die Datenpunkte und mit verbindenden Halbsätzen und Worten. Dieser Lückentext kann sehr kompliziert werden, da die Software natürlich bei einer Niederlage einen anderen Text schreiben soll als bei einem Kantersieg, ebenso soll bei einem Gewinn einer Firma ein anderer Text stehen als bei Verlusten. Das Schreiben dieser Vorlage ist eine sehr mathematische Angelegenheit, in der „wenn-dann-sonst“-Fälle innerhalb der Programmierung aufgemacht werden, damit jeder Situation, die in den Daten vorkommt, Rechnung getragen werden kann.

Nur noch ein Klick, und wenn die Vorlage, also der Lückentext, korrekt erstellt wurde, hat man in Windeseile Berichte für jedes Fußballspiel vom letzten Wochenende vor sich. Oder Finanzberichte für nicht nur eine, sondern für vielleicht 50 Firmen auf einmal, je nachdem, was der vorher eingespeiste Datensatz hergibt.

Wie man sieht, ganz ohne den Journalisten geht es nicht, immerhin muss jemand vorher der Software sagen, was sie tun soll. Aber ist das getan, können in kürzester Zeit viel mehr Berichte verfasst werden, als es der Journalist ohne die Software jemals könnte.

 

Was haben wir in der Studie gemacht?

Wir haben wir mit britischen Journalisten einen Workshop abgehalten, in dem sie eine Software für automatisierte Berichterstattung kennenlernen und ausprobieren konnten. Uns war wichtig, dass die Journalisten die Software und den automatisierten Journalismus nicht nur vom Hörensagen her bewerten, sondern eigene, frische Erfahrungen gemacht haben. Also hatten sie nach dem Software-Training gut zwei Stunden Zeit, selbst zu probieren und eigene Artikel zu erstellen.

Direkt nach dem Workshop haben wir sie zur Handhabung der Software befragt; auf solche Weise mit dem Computer und mit Sprache umzugehen war den meisten fremd. Daran anschließend wollten wir wissen, wie sie die Qualität der Ergebnisse, d.h. ihrer selbst generierten Berichte, einschätzen, ebenso wie die journalistische Qualität und den Informationsgehalt. Ebenfalls hat uns interessiert, wie die Software in ihren Arbeitsalltag integriert werden könnte – oder eben auch nicht, gerade im Hinblick auf Einsparungen in der Branche. Schließlich haben wir sie gebeten, die Rolle der „menschlichen“ Journalisten in der Zukunft einschätzen – denn: ist der automatisierte Journalismus für sie eine Bedrohung, oder eröffnet er neue Möglichkeiten?

 

Was haben die Journalisten gesagt? Bestimmt viel Negatives?

Es gab, wie zu erwarten war, einige negative Einschätzungen. Erst einmal ging es damit los, dass einige der Journalisten die Software als wenig intuitiv beschrieben. Schwierigkeiten lagen darin, die mathematischen Formeln in einem „Wenn-dann-sonst“-System anzuwenden, die nötig sind, um für jede Situation einen anderen Text bereitzustellen. Das ist verständlich – immerhin war die Software neu für sie, und Formeln haben normalerweise wenig mit dem journalistischen Alltag zu tun. Dazu hat so einigen der befragten Journalisten die kreative Seite ihres Berufs gefehlt, das Spielen mit Sprache und Formulierungen

Neben diesen Startschwierigkeiten wurde angemerkt, dass die Gefahr bestünde, sich in den kleinteiligen Daten zu verlieren, und dabei die eigentliche Geschichte nicht mehr zu sehen. Um beim Fußball zu bleiben: als eindrückliches Beispiel hat einer der Journalisten angeführt, dass es manches Mal nur zu einem geringen Teil um das Geschehen auf dem Platz ginge, sondern viel mehr um das Drumherum – wenn z.B. das letzte Spiel in diesem Stadion stattfindet, bevor es abgerissen wird, oder es Krawalle unter den Fans gegeben hat.

Außerdem könne ein aus dem Lückentext entstandener Text recht blutarm wirken. Es werden nur die Daten verwendet, die vorliegen – Meinungen dazu oder weitere Informationen zum Thema kann das Programm nicht verarbeiten. An letzterem wird in einigen Softwareschmieden allerdings schon gearbeitet. Dennoch, gerade den Journalisten der Boulevardblätter war es wichtig zu betonen, dass die „menschliche Seite“ einer Geschichte oft wichtiger sei als die die nackten Zahlen.

 

Und wie sieht es mit positiven Einschätzungen aus?

Auch Positives gab es zu vermelden. So haben einige der Journalisten geschätzt, dass man diese automatisiert erstellten Texte als ersten Anlaufpunkt für eine weiterführende Geschichte benutzen könne. Exceltabellen und andere Datensätze seien mit ihren Zahlenkolonnen oft schwer zu lesen, und da könne es helfen, wenn diese Daten in ganzen, wenn auch im ersten Zugriff einfachen Sätzen dargestellt werden. So ließe sich nach Einschätzung einiger Journalisten leichter sehen, ob sich z.B. die Kriminalitätsrate im Vergleich zu anderen Regionen erhöht, oder ob das Unternehmen im Vergleich zum letzten Monat Verluste eingefahren hat. Ausgehend von diesen Zahlen könne dann der Hintergrund recherchiert werden. In diesem Falle dient die Software als Hilfe, um die Daten zu lesen, und nicht als Instrument, um Berichte zu schreiben und diese dann zu verwenden.

Allerdings kann auch ein sehr einfacher und kurzer Bericht schon an die Leser gebracht werden. Gerade die Journalisten der großen Nachrichtenagenturen sahen in der Technik eine Möglichkeit, erst einmal die Fakten und Zahlen in Form von ‚breaking news‘ an ihre Kunden zu senden, und dann eine Hintergrundanalyse zu einem späteren Zeitpunkt nachzuliefern.

Außerdem fanden die Journalisten, dass die Software eine gute Möglichkeit biete, über Dinge berichten zu können, die ansonsten keine Beachtung fänden. Solange die Daten vorhanden sind, kann die Software Berichte schreiben – wie z.B. zu den Baseballspielen der Kinder in der USA. Die Daten zum Spielgeschehen liegen vor, und kein Reporter muss sich am Spielfeldrand einfinden. Das bedeutet, dass auch sehr spezielle Themen Eingang in die regelmäßige Berichterstattung finden können, wenn die Vorlage in der Software einmal geschrieben und getestet wurde.

 

Was ist das Fazit dazu? Und wo ist der Haken an der Sache?

Der automatisierte Journalismus ist keine Zukunftsvision mehr. Die Software wird immer mächtiger und ausgefeilter, und nicht wenige Publikationen benutzen sie bereits in ihrer täglichen Arbeit, wie z.B. Forbes für Finanzberichte. Wie man damit umgeht, das ist nun die Frage.

Meine persönliche Einschätzung ist, dass sich die Software besonders dafür eignet, um zeitraubende und für Fehler anfällige Tätigkeiten zu unterstützen oder ganz zu ersetzen. Wenn z.B. Börsendaten zusammengefasst werden müssen, kann es allein beim Übertragen der Zahlen zu Fehlern kommen – die Software macht diese nicht. Natürlich immer vorausgesetzt, dass die Daten stimmen, und hier liegt der Haken: die Berichte sind nur so gut wie der Datensatz, der ihnen zugrunde liegt. Ist dort Falsches vermerkt, wird das in die Welt geschickt – und deshalb wird der Journalist nicht obsolet werden, allein schon, um als Prüfinstanz zu wirken. Daneben wird er andere Aufgaben übernehmen, weg von eben beschriebener Routine, und im besten Fall mehr Zeit dafür haben, sich mit den Hintergründen zu befassen und tiefer zu recherchieren.

Außerdem wird der automatisierte Journalismus zu dem Trend beitragen, dass Nachrichten und andere Inhalte immer weiter auf den einzelnen zugeschnitten werden. Die Baseballspiele der Kinder, die nur ein kleines Publikum haben dürften, machen dabei den Anfang. Aber prinzipiell ist es mithilfe der Software auch möglich, die lokale Berichterstattung zu unterstützen, indem z.B. Berichte auf einzelne Stadtteile oder sogar Straßenzüge angepasst werden. Gerade bei regional sehr begrenzten Phänomen kann das ein Vorteil sein.

Aber, das muss man dazu auch sagen, der „Robo-Journalismus“ kann die journalistische Spürnase mit dem ‚Da steckt mehr dahinter‘-Gefühl nicht ersetzen. Das heißt, dass zumindest vom heutigen Standpunkt aus von der automatisierten Berichterstattung keine Bedrohung für den Journalisten ausgeht – aber wie das in Zukunft sein wird, hängt von den Entwicklungen der Software ab und ist kaum vorherzusehen.

Advertisements

An den Podcast – ich war im Radio

robojournalismus_klein(Foto von mir)

 

Die neueste Studie, an der ich mitgewirkt habe, bekommt nicht wenig Aufmerksamkeit in den Medien – kein Wunder, geht es doch darum, wie Journalisten auf automatisiert erstellte Nachrichten und deren Möglichkeiten der Erstellung reagieren. Die Studie lässt sich hier in Gänze (auf Englisch) nachlesen.

Wem die gesamte Studie zu viel ist, dem ist im Folgenden geholfen: Die Radiosendung SWR2 Impuls hat mich gebeten, unsere Forschung und die allgemeinen Entwicklungen des automatisierten Journalismus zusammenzufassen. Angefangen natürlich damit, wie das alles überhaupt funktioniert, und abschließend mit einer Prognose für die Zukunft der Technik. Das habe ich heute gerne getan, und die 7:44 Minuten (wow!) kann man im Podcast nachhören.

Und zwar mit einem Klick auf das kleine Radio hier:

Circle-icons-radio

Ich wünsche ein paar spannende Minuten!

P.S. Ich werde die Studie, die dem ganzen zugrunde liegt, in einem Blogpost nochmal länger beschreiben – versprochen!

 

Icon von:
By Elegant Themes – http://www.elegantthemes.com/blog/freebie-of-the-week/beautiful-flat-icons-for-freehttp://archive.is/Uc2Ni, GPL, Link

Interested in Algorithms and News? Come to Munich!

conference_zuge(Foto von mir)

 

Für alle, die sich für Algorithmen und Journalismus interessieren, ist die Konferenz „Algorithms, Automation, and News“ an der Ludwig-Maximilians-Universität München der Ort, an dem man vom 22. bis 23. Mai  2018 sein muss! Nicht nur, weil ich zum Organisationsteam gehöre (zusammen mit Prof. Neil Thurman und Prof. Seth Lewis), sondern weil wir eine Menge zu bieten haben – so werden z.B. die besten eingereichten Paper in einer Special Issue von „Digital Journalism“ veröffentlicht. Außerdem werden die Übernachtungen für die Vortragenden gesponsert, d.h. das leibliche Wohl wird auch nicht außer Acht gelassen.

Was wir darüber hinaus noch alles bieten, das steht unten im englischen Call – die gesamte Konferenz wird auf Englisch stattfinden – und mit noch ausführlicheren Infos auf http://algorithmic.news.

Abstracts (500 bis 1000 Wörter) können bis zum 15. Juli 2017 an die Adresse conference@algorithmic.news eingereicht werden.

Obwohl es sich um eine Konferenz für die Wissenschaftscommunity handelt, können auch Außenstehende daran teilhaben. Wir haben eine tolle Keynote von Prof. Philip M. Napoli (Duke University), die bestimmt sehr interessant wird.

Ich freue mich auf viele spannende Einreichungen!

Hier der Call – bequem zum Mitnehmen – als pdf:

pdf-icon_klein

_________________________________________________________________

ALGORITHMS, AUTOMATION, AND NEWS:
Capabilities, cases, and consequences


CALL FOR PAPERS: Conference, special issue & edited book


http://algorithmic.news

* Conference in Munich, Germany — May 22–23, 2018
* Select papers published in special issue of Digital Journalism & proposed edited volume


CONFERENCE BENEFITS:

* Free hotel accommodation for presenters
* Travel stipends available for presenters
* No conference fee
* Precedes the 2018 ICA convention in nearby Prague

ORGANIZERS & EDITORS:

* Neil Thurman, Ludwig-Maximilians-University Munich
* Seth C. Lewis, University of Oregon
* Dr Jessica Kunert, Ludwig-Maximilians-University Munich

KEYNOTE SPEAKER:

* Philip M. Napoli, Duke University

CONFIRMED SPEAKERS:

* C.W. Anderson, College of Staten Island & University of Leeds
* Natali Helberger, University of Amsterdam
* Nicholas Diakopoulos, University of Maryland

CALL FOR PAPERS:

We live in a world increasingly influenced by algorithms and automation. The ubiquity of computing in contemporary culture has resulted in human decision-making being augmented, and even partially replaced, by computational processes. Such augmentation and substitution is already common, and even predominates, in some industries. This trend is now spreading rapidly to the fourth estate—our news media.

Algorithms and automation are increasingly implicated in many aspects of news production, distribution, and consumption. For example, algorithms are being used to filter the enormous quantities of content published on social media platforms, picking out what is potentially newsworthy and alerting journalists to its existence (Thurman et al., 2016). Meanwhile, automated journalism—the transforming of structured data on such things as sports results and financial earnings reports into narrative news texts with little to no human intervention aside from the original programming (Carlson, 2015)—grows apace. What began some years ago as small-scale experiments in machine-written news has, amid the development of big data broadly, become a global phenomenon, involving technology providers from the U.S. to Germany to China developing algorithms to deliver automated news in multiple languages (Dörr, 2016). And, algorithms are being used in new ways to distribute and package news content, both enabling consumers to request more of what they like and less of what they don’t and also making decisions on consumers’ behalf based on their behavioral traits, social networks, and personal characteristics (Groot Kormelink and Costera Meijer, 2014).

Altogether, these developments raise questions about the social role of journalism as a longstanding facilitator of public knowledge. What are the implications for human labor and journalistic authority? for concerns around news quality, transparency, and accountability? for notions of who (or what) does journalism? for how news moves among various publics (or not)? Ultimately, what happens when editorial functions once performed by journalists are increasingly assumed by new sets of actors situated at the intersection of human and machine? Ultimately, what do algorithms and automation mean for journalism—its people, purposes, and processes; its norms, ethics, and values; its relationship with audiences and public life; and its obligations toward data management and user privacy?

This three-part call—conference, special issue, and book project—takes up these and other questions by bringing together the latest scholarly research on algorithms, automation, and news. In particular, it seeks to organize research on capabilities, cases, and consequences associated with these technologies: explorations of the possibilities and perils, of theory and practice, and of comparative perspectives according to various sites and levels of analysis. Ultimately, we aim for research that provides a future orientation while grounded in appropriate historical context, contemporary empirical research, and rigorous conceptual development.

By some accounts, the promise of algorithms and automation is that news may be faster and more personalized, that websites and apps may be more engaging, and even that quality journalism may be better funded, to the benefit of all. However, there are also concerns, including anxieties around:

* the hidden biases built into bots deciding what’s newsworthy,
* the ‘popularism’ that tracking trends inevitably promotes,
* how misplaced trust in algorithmic agency might blunt journalists’ critical faculties, and
* the privacy of data collected on individuals for the purposes of newsgathering and distribution.

Moreover, as more news is templated or data-driven, there is unease about issues such as:

* who and what gets reported,
* the ethics of authorship and accountability,
* the legal issues of libel by algorithm,
* the availability of opportunities for professional development, training, and education, and
* the continuity of fact-checking and analysis, among others.

And, as more news is explicitly or implicitly personalized, there is disquiet about:

* whether we will retreat into our own private information worlds, ‘protected’ from new, challenging and stimulating viewpoints,
* the algorithmically oriented spread of ‘fake news’ within such filter bubbles,
* the boundaries between editorial and advertising content, and
* the transparency and accountability of the decisions made about what we get to read and watch.

Through the conference, and the special issue and book to follow, we seek to facilitate conversation around these and related issues across a variety of academic fields, including computer science, information science, computational linguistics, media informatics, law and public policy, science and technology studies, philosophy, sociology, political science, and design, in addition to communication, media and journalism studies. We welcome original, unpublished articles drawing on a variety of theoretical and methodological approaches, with a preference for empirically driven and/or conceptually rich accounts. These papers might touch on a range of themes, including but not limited to the issues outlined above.

Inquiries about this call are encouraged and should be directed to conference@algorithmic.news.

 

TIMELINE:

* July 15, 2017: abstract submission deadline. Abstracts should be 500-1,000 words (not including references) and sent to conference@algorithmic.news. Also include a 100-word biography of each author and 6-8 keywords

* Mid-August 2017: decisions on abstracts

* February 15, 2018: full 7,000-word papers due for initial round of feedback by conference peers

* May 22–23, 2018: conference in Munich

* Post-conference: peer-review and feedback process leading toward publication in either the special issue or edited volume

http://algorithmic.news


ORGANISERS & SPONSORS:

Conference organised by the Center for Advanced Studies at Ludwig-Maximilians-University Munich and sponsored by The Volkswagen Foundation (VolkswagenStiftung) and The Shirley Papé Chair in the School of Journalism and Communication at the University of Oregon.

_________________________________________________________________