… Semesterende!

platz_klein(Foto von mir)

 

Es ist fast August – das heißt, die Vorlesungszeit ist vorbei, aber bis zur Prüfungskorrektur ist noch ein bisschen Zeit. Das heißt, dass ich für so Einiges einen ersten Entwurf im Computer und auf Papier habe, aber ich diese Gedanken jetzt erstmal ein bisschen sacken lassen kann.

Das heißt – Sommer, Sonne, die Gehirn- und Herzzellen ausstrecken!

Ein bisschen Ausspannen werde ich, die Münchner Sonne (und den Englischen Garten) genießen, und dann wieder loslegen. Einmal mit den nächsten Schritten für die „Algorithms, Automation, and News“-Konferenz, die im Mai 2018 stattfindet. Dafür haben wir eine Menge Abstracts erhalten, und es stehen die Entscheidungen an. Dann werde ich im September wieder ein wenig unterwegs sein – darauf freue ich mich sehr. Aber bevor ich die Koffer packen kann, müssen die eben schon erwähnten Noten gemacht werden – und all das, bis es im Oktober schließlich wieder alles von vorne losgeht! Ja, so schließt sich der Kreis wieder… übrigens lehre ich nächstes Semester wieder zu Themen der Sportkommunikation, da ist das Foto von dem Tor oben schon eine gute Inspiration.

Also, ich wünsche allen eine gute Zeit!

Advertisements

ICA 2017 – It never rains in Southern California

ica17_panel(This was the panel I was on for the personalisation talk during the main conference – from left to right: Folker Hanusch, Chris Peters (our chair), Sarah Ganter, me, Ruth Palmer, Jacob Nelson; my photo)


… and that was another great conference that I had the opportunity to attend: ICA 2017. For the uninitiated: the “ICA” is the annual conference of the International Communication Association, and the biggest conference in the field of communication science. Around 3000 delegates attend each year, and in 2017, the organisers counted 3,367 people wandering the halls of the conference hotel.  With these large numbers of people and talks, one always has to choose where to go and what to see – there are usually around ten parallel tracks for each time slot. For anyone who wants to get a taste of how hard it is to figure out a personal timetable for these four days, here is a link to the full programme of this year’s conference. This ICA took place in San Diego, USA, from 25th to 29th of May – and it actually rained while I was there, even though it was just a drizzle. Apart from that, San Diego is quite a nice city, and I definitely enjoyed a walk or two through town.

But on to the conference itself – I was involved in three talks, one at a preconference, and two during the main conference. Yes, ICA itself is not enough, and there were also pre-conferences which took place the day before the main conference began. I took part in “Distribution Matters: Media Circulation in Civic Life and Popular Culture”, which featured a very diverse audience, all of them working somehow on “media distribution”. I talked about how the use of algorithms on news websites affect the relationship of media outlets and readers, and other panelists took other routes, such as talking about how cable TV took over Manhattan, or how film festivals distribute their media. The full programme of this preconference can be found here, and as an extra treat I can say that the audio of some presentations (mine included) is online here. My thanks go out to the organisers Josh Braun, Roman Labato, and Amanda Lotz – it was a great day!

ICA started fully the next day, with the other two talks scheduled back to back in the morning. Phew! Neil talked about our study on the perception of journalists on automated journalism (I wrote more about that a while ago here (in German)), and I gave the presentation on our longitudinal study on personalisation of content on news outlets’ websites. I was on a great panel with Folker Hanusch and Edson Tandoc, Jacob Nelson, Sarah Ganter, and Ruth Palmer. Also, the panel drew quite the audience, as can be seen in our session chair’s tweet. Thanks for the photo, Chris!

Apart from my own talks, I learned about other types of automated journalism, digital election campaigns, and US college sports – and a lot more. As I already said – so much to do! And, of course, so many people to see! As ICA is the biggest conference in the field, I saw quite a few friends, and also made new ones, as it should be.

So, ICA is over, the next one will be a lot closer to home – I’m looking forward to Prague!

Von Norden nach Süden – Zwei Tagungen auf einen Streich

konferenzen_odense_klein(Mein Panel (und Arjen) in Odense – von links nach rechts: Arjen van Dalen (der Organisator, Syddansk Universitet), Jakob Linaa Jensen (Danish School of Media and Journalism), Chris van der Heijden (Hogeschool Utrecht), Anders Larsson (Westerdals Oslo School of Arts, Communication and Technology), ich, und Annika Sehl (Reuters Institute for the Study of Journalism an der Universität Oxford. Das Foto hat Julius Reimer (Hans-Bredow-Institut für Medienforschung) gemacht – danke!)


Im März bzw. April habe ich zwei Tagungen besucht – hier ein kurzer Rückblick auf diese spannende Zeit. Das waren wieder einmal sehr lehrreiche und dabei sehr schöne Tage – nicht zuletzt, weil es in die schönen Städte Odense (Dänemark) und Düsseldorf ging und sich die Sonne ab und an mal gezeigt hat.

Die ECREA Journalism Studies Conference in Odense, Dänemark, vom 23. bis 24. März stand ganz unter dem Thema der Verbindung des Journalismus mit seinem Publikum, und die daraus resultierenden Veränderungen: „Changing Audiences – Changing Journalism“. Die zwei Tage waren gefüllt mit Vorträgen zum Publikum des Journalismus, das anders als früher aktiv durch Kommentare oder soziale Medien an der Verbreitung oder sogar Erstellung von Nachrichten teilnimmt. Aber auch andere Themen zum Komplex Journalismus wurden vorgestellt, wie Studien zu einzelnen Ressorts – besonders interessant für mich waren die Vorträge zu politischen Nachrichten – oder zu neuen Entwicklungen in der Branche. Da konnte ich mich mit meinem Vortrag einreihen, denn es ging bei mir darum, wie Tools und somit Algorithmen Journalisten dabei helfen, Nachrichten von sozialen Medien wie Twitter und Facebook zu ordnen und für ihre Arbeit zu verwenden. Wer mehr über das Tagungsprogramm erfahren will, kann das mit einem Klick hier tun. Alles in allem war das eine kleine, aber feine Konferenz, die im zweijährlichen Turnus stattfindet, und die ich im Auge behalten werde – vielen Dank, Arjen van Dalen (und natürlich das Team der Syddansk Universitet dahinter), für die wunderbare Organisation! Wer ein wenig nachlesen möchte, kann das auf Twitter unter dem Hashtag #ecreaJSS17 tun.

Wenige Tage später nach dieser Konferenz ging es von Dänemark nach Düsseldorf, zur Jahrestagung der Deutschen Gesellschaft für Publizistik und Kommunikationswissenschaft e.V., den meisten besser bekannt als die DGPuK. Vom 30. März bis zum 2. April ging es hier um vielfältige Themen der Kommunikationswissenschaft. Auch diese Konferenz hatte sich ein übergeordnetes Thema gesetzt, nämlich „Vernetzung – Stabilität und Wandel gesellschaftlicher Kommunikation“. Hier passen Themen wie Algorithmen und Nachrichten ebenfalls gut hinein, und dazu habe ich auch hier gesprochen. Aber natürlich waren auch die Vorträge der Kollegen sehr spannend, sodass es mir nicht selten schwerfiel, mich zwischen den einzelnen Panels, von denen immer fünf parallel liefen, zu entscheiden. Von der Vernetzung von Journalisten und Politik, über die Kommunikation innerhalb der Wissenschaft, bis zur Beziehung von Rezipienten und fiktionalen Charakteren über ‚Fanfiction’ war alles mit dabei. Das zeigte wieder einmal, wie vielfältig die deutsche Kommunikationswissenschaft ist – vielen Dank dafür! Ebenfalls bedanke ich mich bei dem Team der Universität Düsseldorf für die mehr als gelungene Organisation! Wie auch bei der ECREA Journalism Studies Conference lässt sich das Programm hier nachlesen, und die Erlebnisse auf Twitter unter #dgpuk2017. Bis zum nächsten Jahr!

 

Neuer Artikel: Der Robo-Journalismus mit seinen Tücken und Möglichkeiten – Was Journalisten denken

blogpost_automatjourn(Foto von mir – der kleine BB-8 gehört natürlich zum Star Wars-Universum)

 

Wie bereits freudig erzählt und im letzten Post zum Radiointerview mit SWR2 Impuls noch einmal erwähnt, ist ein neuer Artikel erschienen, in welchem ich mich zusammen mit meinen Kollegen Prof. Neil Thurman (Ludwig-Maximilians-Universität München) und Konstantin Dörr (Universität Zürich) mit automatisiertem Journalismus befasse. Wir haben dazu Journalisten von großen Medienhäusern, wie z.B. der BBC und Reuters, entsprechende Software ausprobieren lassen, und sie hinterher zu ihren Einschätzungen befragt. Hier eine kleine Zusammenfassung der Ergebnisse.

Der ganze Artikel – in englischer Sprache – lässt sich mit einem Klick auf das pdf-Symbol herunterladen:

pdf-icon_klein

 

Bevor es zu den Ergebnissen geht –  was ist automatisierter Journalismus bzw. „Robo-Journalismus“ überhaupt?

Mit automatisiertem Journalismus ist gemeint, dass mittels Software und Algorithmen Texte geschrieben werden, d.h. dass nicht jede Nachricht einzeln von einem Menschen getippt wird. Die dazu nötigen Informationen werden aus Datensätzen entnommen, und automatisch in einen Text umgewandelt – dieses Vorgehen bietet sich besonders dort an, wo mit vielen strukturiert aufbereiteten Zahlen gearbeitet wird, wie z.B. in der Finanzbranche, in der für die Unternehmen immer ähnliche Kennzahlen vorkommen. Wenn die Software richtig programmiert ist, wird z.B. ein Finanzbericht in Windeseile ohne weiteres Zutun eines Menschen auf dem Bildschirm ausgespuckt.

Prinzipiell lässt sich das Verfahren überall dort anwenden, wo Geschehnisse als möglichst detaillierte Datenpunkte erfasst werden können. So auch im Sport, wie im Fußball – denn Spieler, Anzahl der Tore, der gelben Karten, oder auch die Auswechslungen können einzeln erfasst und damit für die jeweilige Software brauchbar gemacht werden. Das wichtige ist, dass für alle gleichartigen Ereignisse – wie alle Fußballspiele am Wochenende – die Daten im selben Format erfasst werden. Nur so kann die Software die Daten verarbeiten.

Bloß, weil ein Computer beteiligt ist, heißt das nicht, dass der Journalist vollkommen überflüssig ist. Denn, damit das Ganze funktioniert, müssen die passenden Datensätze erst einmal ausfindig gemacht und dann in die Software eingespeist werden. Danach liegt es am Journalisten, eine Vorlage erstellen, in welche die Software schließlich für die Berichte die Daten einsetzt. Das heißt, der Journalist schreibt in der Software eine Art Lückentext, mit Platzhaltern für die Datenpunkte und mit verbindenden Halbsätzen und Worten. Dieser Lückentext kann sehr kompliziert werden, da die Software natürlich bei einer Niederlage einen anderen Text schreiben soll als bei einem Kantersieg, ebenso soll bei einem Gewinn einer Firma ein anderer Text stehen als bei Verlusten. Das Schreiben dieser Vorlage ist eine sehr mathematische Angelegenheit, in der „wenn-dann-sonst“-Fälle innerhalb der Programmierung aufgemacht werden, damit jeder Situation, die in den Daten vorkommt, Rechnung getragen werden kann.

Nur noch ein Klick, und wenn die Vorlage, also der Lückentext, korrekt erstellt wurde, hat man in Windeseile Berichte für jedes Fußballspiel vom letzten Wochenende vor sich. Oder Finanzberichte für nicht nur eine, sondern für vielleicht 50 Firmen auf einmal, je nachdem, was der vorher eingespeiste Datensatz hergibt.

Wie man sieht, ganz ohne den Journalisten geht es nicht, immerhin muss jemand vorher der Software sagen, was sie tun soll. Aber ist das getan, können in kürzester Zeit viel mehr Berichte verfasst werden, als es der Journalist ohne die Software jemals könnte.

 

Was haben wir in der Studie gemacht?

Wir haben wir mit britischen Journalisten einen Workshop abgehalten, in dem sie eine Software für automatisierte Berichterstattung kennenlernen und ausprobieren konnten. Uns war wichtig, dass die Journalisten die Software und den automatisierten Journalismus nicht nur vom Hörensagen her bewerten, sondern eigene, frische Erfahrungen gemacht haben. Also hatten sie nach dem Software-Training gut zwei Stunden Zeit, selbst zu probieren und eigene Artikel zu erstellen.

Direkt nach dem Workshop haben wir sie zur Handhabung der Software befragt; auf solche Weise mit dem Computer und mit Sprache umzugehen war den meisten fremd. Daran anschließend wollten wir wissen, wie sie die Qualität der Ergebnisse, d.h. ihrer selbst generierten Berichte, einschätzen, ebenso wie die journalistische Qualität und den Informationsgehalt. Ebenfalls hat uns interessiert, wie die Software in ihren Arbeitsalltag integriert werden könnte – oder eben auch nicht, gerade im Hinblick auf Einsparungen in der Branche. Schließlich haben wir sie gebeten, die Rolle der „menschlichen“ Journalisten in der Zukunft einschätzen – denn: ist der automatisierte Journalismus für sie eine Bedrohung, oder eröffnet er neue Möglichkeiten?

 

Was haben die Journalisten gesagt? Bestimmt viel Negatives?

Es gab, wie zu erwarten war, einige negative Einschätzungen. Erst einmal ging es damit los, dass einige der Journalisten die Software als wenig intuitiv beschrieben. Schwierigkeiten lagen darin, die mathematischen Formeln in einem „Wenn-dann-sonst“-System anzuwenden, die nötig sind, um für jede Situation einen anderen Text bereitzustellen. Das ist verständlich – immerhin war die Software neu für sie, und Formeln haben normalerweise wenig mit dem journalistischen Alltag zu tun. Dazu hat so einigen der befragten Journalisten die kreative Seite ihres Berufs gefehlt, das Spielen mit Sprache und Formulierungen

Neben diesen Startschwierigkeiten wurde angemerkt, dass die Gefahr bestünde, sich in den kleinteiligen Daten zu verlieren, und dabei die eigentliche Geschichte nicht mehr zu sehen. Um beim Fußball zu bleiben: als eindrückliches Beispiel hat einer der Journalisten angeführt, dass es manches Mal nur zu einem geringen Teil um das Geschehen auf dem Platz ginge, sondern viel mehr um das Drumherum – wenn z.B. das letzte Spiel in diesem Stadion stattfindet, bevor es abgerissen wird, oder es Krawalle unter den Fans gegeben hat.

Außerdem könne ein aus dem Lückentext entstandener Text recht blutarm wirken. Es werden nur die Daten verwendet, die vorliegen – Meinungen dazu oder weitere Informationen zum Thema kann das Programm nicht verarbeiten. An letzterem wird in einigen Softwareschmieden allerdings schon gearbeitet. Dennoch, gerade den Journalisten der Boulevardblätter war es wichtig zu betonen, dass die „menschliche Seite“ einer Geschichte oft wichtiger sei als die die nackten Zahlen.

 

Und wie sieht es mit positiven Einschätzungen aus?

Auch Positives gab es zu vermelden. So haben einige der Journalisten geschätzt, dass man diese automatisiert erstellten Texte als ersten Anlaufpunkt für eine weiterführende Geschichte benutzen könne. Exceltabellen und andere Datensätze seien mit ihren Zahlenkolonnen oft schwer zu lesen, und da könne es helfen, wenn diese Daten in ganzen, wenn auch im ersten Zugriff einfachen Sätzen dargestellt werden. So ließe sich nach Einschätzung einiger Journalisten leichter sehen, ob sich z.B. die Kriminalitätsrate im Vergleich zu anderen Regionen erhöht, oder ob das Unternehmen im Vergleich zum letzten Monat Verluste eingefahren hat. Ausgehend von diesen Zahlen könne dann der Hintergrund recherchiert werden. In diesem Falle dient die Software als Hilfe, um die Daten zu lesen, und nicht als Instrument, um Berichte zu schreiben und diese dann zu verwenden.

Allerdings kann auch ein sehr einfacher und kurzer Bericht schon an die Leser gebracht werden. Gerade die Journalisten der großen Nachrichtenagenturen sahen in der Technik eine Möglichkeit, erst einmal die Fakten und Zahlen in Form von ‚breaking news‘ an ihre Kunden zu senden, und dann eine Hintergrundanalyse zu einem späteren Zeitpunkt nachzuliefern.

Außerdem fanden die Journalisten, dass die Software eine gute Möglichkeit biete, über Dinge berichten zu können, die ansonsten keine Beachtung fänden. Solange die Daten vorhanden sind, kann die Software Berichte schreiben – wie z.B. zu den Baseballspielen der Kinder in der USA. Die Daten zum Spielgeschehen liegen vor, und kein Reporter muss sich am Spielfeldrand einfinden. Das bedeutet, dass auch sehr spezielle Themen Eingang in die regelmäßige Berichterstattung finden können, wenn die Vorlage in der Software einmal geschrieben und getestet wurde.

 

Was ist das Fazit dazu? Und wo ist der Haken an der Sache?

Der automatisierte Journalismus ist keine Zukunftsvision mehr. Die Software wird immer mächtiger und ausgefeilter, und nicht wenige Publikationen benutzen sie bereits in ihrer täglichen Arbeit, wie z.B. Forbes für Finanzberichte. Wie man damit umgeht, das ist nun die Frage.

Meine persönliche Einschätzung ist, dass sich die Software besonders dafür eignet, um zeitraubende und für Fehler anfällige Tätigkeiten zu unterstützen oder ganz zu ersetzen. Wenn z.B. Börsendaten zusammengefasst werden müssen, kann es allein beim Übertragen der Zahlen zu Fehlern kommen – die Software macht diese nicht. Natürlich immer vorausgesetzt, dass die Daten stimmen, und hier liegt der Haken: die Berichte sind nur so gut wie der Datensatz, der ihnen zugrunde liegt. Ist dort Falsches vermerkt, wird das in die Welt geschickt – und deshalb wird der Journalist nicht obsolet werden, allein schon, um als Prüfinstanz zu wirken. Daneben wird er andere Aufgaben übernehmen, weg von eben beschriebener Routine, und im besten Fall mehr Zeit dafür haben, sich mit den Hintergründen zu befassen und tiefer zu recherchieren.

Außerdem wird der automatisierte Journalismus zu dem Trend beitragen, dass Nachrichten und andere Inhalte immer weiter auf den einzelnen zugeschnitten werden. Die Baseballspiele der Kinder, die nur ein kleines Publikum haben dürften, machen dabei den Anfang. Aber prinzipiell ist es mithilfe der Software auch möglich, die lokale Berichterstattung zu unterstützen, indem z.B. Berichte auf einzelne Stadtteile oder sogar Straßenzüge angepasst werden. Gerade bei regional sehr begrenzten Phänomen kann das ein Vorteil sein.

Aber, das muss man dazu auch sagen, der „Robo-Journalismus“ kann die journalistische Spürnase mit dem ‚Da steckt mehr dahinter‘-Gefühl nicht ersetzen. Das heißt, dass zumindest vom heutigen Standpunkt aus von der automatisierten Berichterstattung keine Bedrohung für den Journalisten ausgeht – aber wie das in Zukunft sein wird, hängt von den Entwicklungen der Software ab und ist kaum vorherzusehen.

An den Podcast – ich war im Radio

robojournalismus_klein(Foto von mir)

 

Die neueste Studie, an der ich mitgewirkt habe, bekommt nicht wenig Aufmerksamkeit in den Medien – kein Wunder, geht es doch darum, wie Journalisten auf automatisiert erstellte Nachrichten und deren Möglichkeiten der Erstellung reagieren. Die Studie lässt sich hier in Gänze (auf Englisch) nachlesen.

Wem die gesamte Studie zu viel ist, dem ist im Folgenden geholfen: Die Radiosendung SWR2 Impuls hat mich gebeten, unsere Forschung und die allgemeinen Entwicklungen des automatisierten Journalismus zusammenzufassen. Angefangen natürlich damit, wie das alles überhaupt funktioniert, und abschließend mit einer Prognose für die Zukunft der Technik. Das habe ich heute gerne getan, und die 7:44 Minuten (wow!) kann man im Podcast nachhören.

Und zwar mit einem Klick auf das kleine Radio hier:

Circle-icons-radio

Ich wünsche ein paar spannende Minuten!

P.S. Ich werde die Studie, die dem ganzen zugrunde liegt, in einem Blogpost nochmal länger beschreiben – versprochen!

 

Icon von:
By Elegant Themes – http://www.elegantthemes.com/blog/freebie-of-the-week/beautiful-flat-icons-for-freehttp://archive.is/Uc2Ni, GPL, Link

Interested in Algorithms and News? Come to Munich!

conference_zuge(Foto von mir)

 

Für alle, die sich für Algorithmen und Journalismus interessieren, ist die Konferenz „Algorithms, Automation, and News“ an der Ludwig-Maximilians-Universität München der Ort, an dem man vom 22. bis 23. Mai  2018 sein muss! Nicht nur, weil ich zum Organisationsteam gehöre (zusammen mit Prof. Neil Thurman und Prof. Seth Lewis), sondern weil wir eine Menge zu bieten haben – so werden z.B. die besten eingereichten Paper in einer Special Issue von „Digital Journalism“ veröffentlicht. Außerdem werden die Übernachtungen für die Vortragenden gesponsert, d.h. das leibliche Wohl wird auch nicht außer Acht gelassen.

Was wir darüber hinaus noch alles bieten, das steht unten im englischen Call – die gesamte Konferenz wird auf Englisch stattfinden – und mit noch ausführlicheren Infos auf http://algorithmic.news.

Abstracts (500 bis 1000 Wörter) können bis zum 15. Juli 2017 an die Adresse conference@algorithmic.news eingereicht werden.

Obwohl es sich um eine Konferenz für die Wissenschaftscommunity handelt, können auch Außenstehende daran teilhaben. Wir haben eine tolle Keynote von Prof. Philip M. Napoli (Duke University), die bestimmt sehr interessant wird.

Ich freue mich auf viele spannende Einreichungen!

Hier der Call – bequem zum Mitnehmen – als pdf:

pdf-icon_klein

_________________________________________________________________

ALGORITHMS, AUTOMATION, AND NEWS:
Capabilities, cases, and consequences


CALL FOR PAPERS: Conference, special issue & edited book


http://algorithmic.news

* Conference in Munich, Germany — May 22–23, 2018
* Select papers published in special issue of Digital Journalism & proposed edited volume


CONFERENCE BENEFITS:

* Free hotel accommodation for presenters
* Travel stipends available for presenters
* No conference fee
* Precedes the 2018 ICA convention in nearby Prague

ORGANIZERS & EDITORS:

* Neil Thurman, Ludwig-Maximilians-University Munich
* Seth C. Lewis, University of Oregon
* Dr Jessica Kunert, Ludwig-Maximilians-University Munich

KEYNOTE SPEAKER:

* Philip M. Napoli, Duke University

CONFIRMED SPEAKERS:

* C.W. Anderson, College of Staten Island & University of Leeds
* Natali Helberger, University of Amsterdam
* Nicholas Diakopoulos, University of Maryland

CALL FOR PAPERS:

We live in a world increasingly influenced by algorithms and automation. The ubiquity of computing in contemporary culture has resulted in human decision-making being augmented, and even partially replaced, by computational processes. Such augmentation and substitution is already common, and even predominates, in some industries. This trend is now spreading rapidly to the fourth estate—our news media.

Algorithms and automation are increasingly implicated in many aspects of news production, distribution, and consumption. For example, algorithms are being used to filter the enormous quantities of content published on social media platforms, picking out what is potentially newsworthy and alerting journalists to its existence (Thurman et al., 2016). Meanwhile, automated journalism—the transforming of structured data on such things as sports results and financial earnings reports into narrative news texts with little to no human intervention aside from the original programming (Carlson, 2015)—grows apace. What began some years ago as small-scale experiments in machine-written news has, amid the development of big data broadly, become a global phenomenon, involving technology providers from the U.S. to Germany to China developing algorithms to deliver automated news in multiple languages (Dörr, 2016). And, algorithms are being used in new ways to distribute and package news content, both enabling consumers to request more of what they like and less of what they don’t and also making decisions on consumers’ behalf based on their behavioral traits, social networks, and personal characteristics (Groot Kormelink and Costera Meijer, 2014).

Altogether, these developments raise questions about the social role of journalism as a longstanding facilitator of public knowledge. What are the implications for human labor and journalistic authority? for concerns around news quality, transparency, and accountability? for notions of who (or what) does journalism? for how news moves among various publics (or not)? Ultimately, what happens when editorial functions once performed by journalists are increasingly assumed by new sets of actors situated at the intersection of human and machine? Ultimately, what do algorithms and automation mean for journalism—its people, purposes, and processes; its norms, ethics, and values; its relationship with audiences and public life; and its obligations toward data management and user privacy?

This three-part call—conference, special issue, and book project—takes up these and other questions by bringing together the latest scholarly research on algorithms, automation, and news. In particular, it seeks to organize research on capabilities, cases, and consequences associated with these technologies: explorations of the possibilities and perils, of theory and practice, and of comparative perspectives according to various sites and levels of analysis. Ultimately, we aim for research that provides a future orientation while grounded in appropriate historical context, contemporary empirical research, and rigorous conceptual development.

By some accounts, the promise of algorithms and automation is that news may be faster and more personalized, that websites and apps may be more engaging, and even that quality journalism may be better funded, to the benefit of all. However, there are also concerns, including anxieties around:

* the hidden biases built into bots deciding what’s newsworthy,
* the ‘popularism’ that tracking trends inevitably promotes,
* how misplaced trust in algorithmic agency might blunt journalists’ critical faculties, and
* the privacy of data collected on individuals for the purposes of newsgathering and distribution.

Moreover, as more news is templated or data-driven, there is unease about issues such as:

* who and what gets reported,
* the ethics of authorship and accountability,
* the legal issues of libel by algorithm,
* the availability of opportunities for professional development, training, and education, and
* the continuity of fact-checking and analysis, among others.

And, as more news is explicitly or implicitly personalized, there is disquiet about:

* whether we will retreat into our own private information worlds, ‘protected’ from new, challenging and stimulating viewpoints,
* the algorithmically oriented spread of ‘fake news’ within such filter bubbles,
* the boundaries between editorial and advertising content, and
* the transparency and accountability of the decisions made about what we get to read and watch.

Through the conference, and the special issue and book to follow, we seek to facilitate conversation around these and related issues across a variety of academic fields, including computer science, information science, computational linguistics, media informatics, law and public policy, science and technology studies, philosophy, sociology, political science, and design, in addition to communication, media and journalism studies. We welcome original, unpublished articles drawing on a variety of theoretical and methodological approaches, with a preference for empirically driven and/or conceptually rich accounts. These papers might touch on a range of themes, including but not limited to the issues outlined above.

Inquiries about this call are encouraged and should be directed to conference@algorithmic.news.

 

TIMELINE:

* July 15, 2017: abstract submission deadline. Abstracts should be 500-1,000 words (not including references) and sent to conference@algorithmic.news. Also include a 100-word biography of each author and 6-8 keywords

* Mid-August 2017: decisions on abstracts

* February 15, 2018: full 7,000-word papers due for initial round of feedback by conference peers

* May 22–23, 2018: conference in Munich

* Post-conference: peer-review and feedback process leading toward publication in either the special issue or edited volume

http://algorithmic.news


ORGANISERS & SPONSORS:

Conference organised by the Center for Advanced Studies at Ludwig-Maximilians-University Munich and sponsored by The Volkswagen Foundation (VolkswagenStiftung) and The Shirley Papé Chair in the School of Journalism and Communication at the University of Oregon.

_________________________________________________________________

Einfach mal Freude teilen – Artikel angenommen!

freude_like
(Ein „Daumen hoch“-Foto von mir – zählt das schon als Eigenlob?)

 

Wie die Überschrift schon sagt, möchte ich einfach ein bisschen meiner Freude teilen – heute wurde ein Artikel, an dem ich mitgewirkt habe, zur Publikation angenommen! Immer ein Grund, einen kleinen Luftsprung zu machen.

Der Titel lautet „WHEN REPORTERS GET HANDS-ON WITH ROBO-WRITING: Professionals consider automated journalism’s capabilities and consequences“, und wird in Digital Journalism erscheinen. Der Artikel ist eine gemeinsame Arbeit mit Prof. Neil Thurman und Konstantin Dörr. Sobald der Artikel online gegangen ist, werde ich den Link hier posten.

… aber halt, worum geht es eigentlich?
Wie aus dem Titel hervorgeht, haben wir uns mit „robo-writing“ beschäftigt, d.h. mit Software, die nach ein paar Einstellungen in einer Datenmaske und einer angedockten Datenquelle automatisiert Texte ausspuckt. In unserem Fall geht es um derartig erstellte Nachrichten, z.B. aus der Finanzwelt oder Sportergebnisse. Diese neuartige Software findet bereits in einigen großen Medienunternehmen Verwendung, und so lässt z.B. Forbes Finanzberichte so in die Welt schicken. Es war also dringend an der Zeit, die „Leidtragenden“ zu dieser Entwicklung zu befragen – das sind, na klar, die Journalisten. Und das haben wir getan. Wir haben in London einen Workshop gegeben, und ausgewählte Journalisten in solche Software eingeführt. Danach durften sie selbst ran, und ihre Textchen entwerfen, alles im Gegenzug für ein ausführliches Interview zu Ihren Erfahrungen.
Und was rausgekommen ist…?
Ha!
Aber ich möchte mal nicht so sein – neben einiger Kritik an den Grenzen der Software (sie kann eben (noch) nicht alles, z.B. zu den Daten keine Hintergründe oder andere Ereignisse mit einbeziehen) gab es auch positive Stimmen. Gerade sehr strukturierte Nachrichten, wie die oben bereits erwähnten Finanzberichte, könnten so geschrieben werden, und die Journalisten hätten ihrerseits dann mehr Zeit für Hintergrundrecherche.

Soviel zur Freude – ich freue mich darauf, wenn der Artikel schließlich „richtig“ veröffentlicht ist!

___________________________________________________________________