Von Norden nach Süden – Zwei Tagungen auf einen Streich

konferenzen_odense_klein(Mein Panel (und Arjen) in Odense – von links nach rechts: Arjen van Dalen (der Organisator, Syddansk Universitet), Jakob Linaa Jensen (Danish School of Media and Journalism), Chris van der Heijden (Hogeschool Utrecht), Anders Larsson (Westerdals Oslo School of Arts, Communication and Technology), ich, und Annika Sehl (Reuters Institute for the Study of Journalism an der Universität Oxford. Das Foto hat Julius Reimer (Hans-Bredow-Institut für Medienforschung) gemacht – danke!)


Im März bzw. April habe ich zwei Tagungen besucht – hier ein kurzer Rückblick auf diese spannende Zeit. Das waren wieder einmal sehr lehrreiche und dabei sehr schöne Tage – nicht zuletzt, weil es in die schönen Städte Odense (Dänemark) und Düsseldorf ging und sich die Sonne ab und an mal gezeigt hat.

Die ECREA Journalism Studies Conference in Odense, Dänemark, vom 23. bis 24. März stand ganz unter dem Thema der Verbindung des Journalismus mit seinem Publikum, und die daraus resultierenden Veränderungen: „Changing Audiences – Changing Journalism“. Die zwei Tage waren gefüllt mit Vorträgen zum Publikum des Journalismus, das anders als früher aktiv durch Kommentare oder soziale Medien an der Verbreitung oder sogar Erstellung von Nachrichten teilnimmt. Aber auch andere Themen zum Komplex Journalismus wurden vorgestellt, wie Studien zu einzelnen Ressorts – besonders interessant für mich waren die Vorträge zu politischen Nachrichten – oder zu neuen Entwicklungen in der Branche. Da konnte ich mich mit meinem Vortrag einreihen, denn es ging bei mir darum, wie Tools und somit Algorithmen Journalisten dabei helfen, Nachrichten von sozialen Medien wie Twitter und Facebook zu ordnen und für ihre Arbeit zu verwenden. Wer mehr über das Tagungsprogramm erfahren will, kann das mit einem Klick hier tun. Alles in allem war das eine kleine, aber feine Konferenz, die im zweijährlichen Turnus stattfindet, und die ich im Auge behalten werde – vielen Dank, Arjen van Dalen (und natürlich das Team der Syddansk Universitet dahinter), für die wunderbare Organisation! Wer ein wenig nachlesen möchte, kann das auf Twitter unter dem Hashtag #ecreaJSS17 tun.

Wenige Tage später nach dieser Konferenz ging es von Dänemark nach Düsseldorf, zur Jahrestagung der Deutschen Gesellschaft für Publizistik und Kommunikationswissenschaft e.V., den meisten besser bekannt als die DGPuK. Vom 30. März bis zum 2. April ging es hier um vielfältige Themen der Kommunikationswissenschaft. Auch diese Konferenz hatte sich ein übergeordnetes Thema gesetzt, nämlich „Vernetzung – Stabilität und Wandel gesellschaftlicher Kommunikation“. Hier passen Themen wie Algorithmen und Nachrichten ebenfalls gut hinein, und dazu habe ich auch hier gesprochen. Aber natürlich waren auch die Vorträge der Kollegen sehr spannend, sodass es mir nicht selten schwerfiel, mich zwischen den einzelnen Panels, von denen immer fünf parallel liefen, zu entscheiden. Von der Vernetzung von Journalisten und Politik, über die Kommunikation innerhalb der Wissenschaft, bis zur Beziehung von Rezipienten und fiktionalen Charakteren über ‚Fanfiction’ war alles mit dabei. Das zeigte wieder einmal, wie vielfältig die deutsche Kommunikationswissenschaft ist – vielen Dank dafür! Ebenfalls bedanke ich mich bei dem Team der Universität Düsseldorf für die mehr als gelungene Organisation! Wie auch bei der ECREA Journalism Studies Conference lässt sich das Programm hier nachlesen, und die Erlebnisse auf Twitter unter #dgpuk2017. Bis zum nächsten Jahr!

 

Neuer Artikel: Der Robo-Journalismus mit seinen Tücken und Möglichkeiten – Was Journalisten denken

blogpost_automatjourn(Foto von mir – der kleine BB-8 gehört natürlich zum Star Wars-Universum)

 

Wie bereits freudig erzählt und im letzten Post zum Radiointerview mit SWR2 Impuls noch einmal erwähnt, ist ein neuer Artikel erschienen, in welchem ich mich zusammen mit meinen Kollegen Prof. Neil Thurman (Ludwig-Maximilians-Universität München) und Konstantin Dörr (Universität Zürich) mit automatisiertem Journalismus befasse. Wir haben dazu Journalisten von großen Medienhäusern, wie z.B. der BBC und Reuters, entsprechende Software ausprobieren lassen, und sie hinterher zu ihren Einschätzungen befragt. Hier eine kleine Zusammenfassung der Ergebnisse.

Der ganze Artikel – in englischer Sprache – lässt sich mit einem Klick auf das pdf-Symbol herunterladen:

pdf-icon_klein

 

Bevor es zu den Ergebnissen geht –  was ist automatisierter Journalismus bzw. „Robo-Journalismus“ überhaupt?

Mit automatisiertem Journalismus ist gemeint, dass mittels Software und Algorithmen Texte geschrieben werden, d.h. dass nicht jede Nachricht einzeln von einem Menschen getippt wird. Die dazu nötigen Informationen werden aus Datensätzen entnommen, und automatisch in einen Text umgewandelt – dieses Vorgehen bietet sich besonders dort an, wo mit vielen strukturiert aufbereiteten Zahlen gearbeitet wird, wie z.B. in der Finanzbranche, in der für die Unternehmen immer ähnliche Kennzahlen vorkommen. Wenn die Software richtig programmiert ist, wird z.B. ein Finanzbericht in Windeseile ohne weiteres Zutun eines Menschen auf dem Bildschirm ausgespuckt.

Prinzipiell lässt sich das Verfahren überall dort anwenden, wo Geschehnisse als möglichst detaillierte Datenpunkte erfasst werden können. So auch im Sport, wie im Fußball – denn Spieler, Anzahl der Tore, der gelben Karten, oder auch die Auswechslungen können einzeln erfasst und damit für die jeweilige Software brauchbar gemacht werden. Das wichtige ist, dass für alle gleichartigen Ereignisse – wie alle Fußballspiele am Wochenende – die Daten im selben Format erfasst werden. Nur so kann die Software die Daten verarbeiten.

Bloß, weil ein Computer beteiligt ist, heißt das nicht, dass der Journalist vollkommen überflüssig ist. Denn, damit das Ganze funktioniert, müssen die passenden Datensätze erst einmal ausfindig gemacht und dann in die Software eingespeist werden. Danach liegt es am Journalisten, eine Vorlage erstellen, in welche die Software schließlich für die Berichte die Daten einsetzt. Das heißt, der Journalist schreibt in der Software eine Art Lückentext, mit Platzhaltern für die Datenpunkte und mit verbindenden Halbsätzen und Worten. Dieser Lückentext kann sehr kompliziert werden, da die Software natürlich bei einer Niederlage einen anderen Text schreiben soll als bei einem Kantersieg, ebenso soll bei einem Gewinn einer Firma ein anderer Text stehen als bei Verlusten. Das Schreiben dieser Vorlage ist eine sehr mathematische Angelegenheit, in der „wenn-dann-sonst“-Fälle innerhalb der Programmierung aufgemacht werden, damit jeder Situation, die in den Daten vorkommt, Rechnung getragen werden kann.

Nur noch ein Klick, und wenn die Vorlage, also der Lückentext, korrekt erstellt wurde, hat man in Windeseile Berichte für jedes Fußballspiel vom letzten Wochenende vor sich. Oder Finanzberichte für nicht nur eine, sondern für vielleicht 50 Firmen auf einmal, je nachdem, was der vorher eingespeiste Datensatz hergibt.

Wie man sieht, ganz ohne den Journalisten geht es nicht, immerhin muss jemand vorher der Software sagen, was sie tun soll. Aber ist das getan, können in kürzester Zeit viel mehr Berichte verfasst werden, als es der Journalist ohne die Software jemals könnte.

 

Was haben wir in der Studie gemacht?

Wir haben wir mit britischen Journalisten einen Workshop abgehalten, in dem sie eine Software für automatisierte Berichterstattung kennenlernen und ausprobieren konnten. Uns war wichtig, dass die Journalisten die Software und den automatisierten Journalismus nicht nur vom Hörensagen her bewerten, sondern eigene, frische Erfahrungen gemacht haben. Also hatten sie nach dem Software-Training gut zwei Stunden Zeit, selbst zu probieren und eigene Artikel zu erstellen.

Direkt nach dem Workshop haben wir sie zur Handhabung der Software befragt; auf solche Weise mit dem Computer und mit Sprache umzugehen war den meisten fremd. Daran anschließend wollten wir wissen, wie sie die Qualität der Ergebnisse, d.h. ihrer selbst generierten Berichte, einschätzen, ebenso wie die journalistische Qualität und den Informationsgehalt. Ebenfalls hat uns interessiert, wie die Software in ihren Arbeitsalltag integriert werden könnte – oder eben auch nicht, gerade im Hinblick auf Einsparungen in der Branche. Schließlich haben wir sie gebeten, die Rolle der „menschlichen“ Journalisten in der Zukunft einschätzen – denn: ist der automatisierte Journalismus für sie eine Bedrohung, oder eröffnet er neue Möglichkeiten?

 

Was haben die Journalisten gesagt? Bestimmt viel Negatives?

Es gab, wie zu erwarten war, einige negative Einschätzungen. Erst einmal ging es damit los, dass einige der Journalisten die Software als wenig intuitiv beschrieben. Schwierigkeiten lagen darin, die mathematischen Formeln in einem „Wenn-dann-sonst“-System anzuwenden, die nötig sind, um für jede Situation einen anderen Text bereitzustellen. Das ist verständlich – immerhin war die Software neu für sie, und Formeln haben normalerweise wenig mit dem journalistischen Alltag zu tun. Dazu hat so einigen der befragten Journalisten die kreative Seite ihres Berufs gefehlt, das Spielen mit Sprache und Formulierungen

Neben diesen Startschwierigkeiten wurde angemerkt, dass die Gefahr bestünde, sich in den kleinteiligen Daten zu verlieren, und dabei die eigentliche Geschichte nicht mehr zu sehen. Um beim Fußball zu bleiben: als eindrückliches Beispiel hat einer der Journalisten angeführt, dass es manches Mal nur zu einem geringen Teil um das Geschehen auf dem Platz ginge, sondern viel mehr um das Drumherum – wenn z.B. das letzte Spiel in diesem Stadion stattfindet, bevor es abgerissen wird, oder es Krawalle unter den Fans gegeben hat.

Außerdem könne ein aus dem Lückentext entstandener Text recht blutarm wirken. Es werden nur die Daten verwendet, die vorliegen – Meinungen dazu oder weitere Informationen zum Thema kann das Programm nicht verarbeiten. An letzterem wird in einigen Softwareschmieden allerdings schon gearbeitet. Dennoch, gerade den Journalisten der Boulevardblätter war es wichtig zu betonen, dass die „menschliche Seite“ einer Geschichte oft wichtiger sei als die die nackten Zahlen.

 

Und wie sieht es mit positiven Einschätzungen aus?

Auch Positives gab es zu vermelden. So haben einige der Journalisten geschätzt, dass man diese automatisiert erstellten Texte als ersten Anlaufpunkt für eine weiterführende Geschichte benutzen könne. Exceltabellen und andere Datensätze seien mit ihren Zahlenkolonnen oft schwer zu lesen, und da könne es helfen, wenn diese Daten in ganzen, wenn auch im ersten Zugriff einfachen Sätzen dargestellt werden. So ließe sich nach Einschätzung einiger Journalisten leichter sehen, ob sich z.B. die Kriminalitätsrate im Vergleich zu anderen Regionen erhöht, oder ob das Unternehmen im Vergleich zum letzten Monat Verluste eingefahren hat. Ausgehend von diesen Zahlen könne dann der Hintergrund recherchiert werden. In diesem Falle dient die Software als Hilfe, um die Daten zu lesen, und nicht als Instrument, um Berichte zu schreiben und diese dann zu verwenden.

Allerdings kann auch ein sehr einfacher und kurzer Bericht schon an die Leser gebracht werden. Gerade die Journalisten der großen Nachrichtenagenturen sahen in der Technik eine Möglichkeit, erst einmal die Fakten und Zahlen in Form von ‚breaking news‘ an ihre Kunden zu senden, und dann eine Hintergrundanalyse zu einem späteren Zeitpunkt nachzuliefern.

Außerdem fanden die Journalisten, dass die Software eine gute Möglichkeit biete, über Dinge berichten zu können, die ansonsten keine Beachtung fänden. Solange die Daten vorhanden sind, kann die Software Berichte schreiben – wie z.B. zu den Baseballspielen der Kinder in der USA. Die Daten zum Spielgeschehen liegen vor, und kein Reporter muss sich am Spielfeldrand einfinden. Das bedeutet, dass auch sehr spezielle Themen Eingang in die regelmäßige Berichterstattung finden können, wenn die Vorlage in der Software einmal geschrieben und getestet wurde.

 

Was ist das Fazit dazu? Und wo ist der Haken an der Sache?

Der automatisierte Journalismus ist keine Zukunftsvision mehr. Die Software wird immer mächtiger und ausgefeilter, und nicht wenige Publikationen benutzen sie bereits in ihrer täglichen Arbeit, wie z.B. Forbes für Finanzberichte. Wie man damit umgeht, das ist nun die Frage.

Meine persönliche Einschätzung ist, dass sich die Software besonders dafür eignet, um zeitraubende und für Fehler anfällige Tätigkeiten zu unterstützen oder ganz zu ersetzen. Wenn z.B. Börsendaten zusammengefasst werden müssen, kann es allein beim Übertragen der Zahlen zu Fehlern kommen – die Software macht diese nicht. Natürlich immer vorausgesetzt, dass die Daten stimmen, und hier liegt der Haken: die Berichte sind nur so gut wie der Datensatz, der ihnen zugrunde liegt. Ist dort Falsches vermerkt, wird das in die Welt geschickt – und deshalb wird der Journalist nicht obsolet werden, allein schon, um als Prüfinstanz zu wirken. Daneben wird er andere Aufgaben übernehmen, weg von eben beschriebener Routine, und im besten Fall mehr Zeit dafür haben, sich mit den Hintergründen zu befassen und tiefer zu recherchieren.

Außerdem wird der automatisierte Journalismus zu dem Trend beitragen, dass Nachrichten und andere Inhalte immer weiter auf den einzelnen zugeschnitten werden. Die Baseballspiele der Kinder, die nur ein kleines Publikum haben dürften, machen dabei den Anfang. Aber prinzipiell ist es mithilfe der Software auch möglich, die lokale Berichterstattung zu unterstützen, indem z.B. Berichte auf einzelne Stadtteile oder sogar Straßenzüge angepasst werden. Gerade bei regional sehr begrenzten Phänomen kann das ein Vorteil sein.

Aber, das muss man dazu auch sagen, der „Robo-Journalismus“ kann die journalistische Spürnase mit dem ‚Da steckt mehr dahinter‘-Gefühl nicht ersetzen. Das heißt, dass zumindest vom heutigen Standpunkt aus von der automatisierten Berichterstattung keine Bedrohung für den Journalisten ausgeht – aber wie das in Zukunft sein wird, hängt von den Entwicklungen der Software ab und ist kaum vorherzusehen.

An den Podcast – ich war im Radio

robojournalismus_klein(Foto von mir)

 

Die neueste Studie, an der ich mitgewirkt habe, bekommt nicht wenig Aufmerksamkeit in den Medien – kein Wunder, geht es doch darum, wie Journalisten auf automatisiert erstellte Nachrichten und deren Möglichkeiten der Erstellung reagieren. Die Studie lässt sich hier in Gänze (auf Englisch) nachlesen.

Wem die gesamte Studie zu viel ist, dem ist im Folgenden geholfen: Die Radiosendung SWR2 Impuls hat mich gebeten, unsere Forschung und die allgemeinen Entwicklungen des automatisierten Journalismus zusammenzufassen. Angefangen natürlich damit, wie das alles überhaupt funktioniert, und abschließend mit einer Prognose für die Zukunft der Technik. Das habe ich heute gerne getan, und die 7:44 Minuten (wow!) kann man im Podcast nachhören.

Und zwar mit einem Klick auf das kleine Radio hier:

Circle-icons-radio

Ich wünsche ein paar spannende Minuten!

P.S. Ich werde die Studie, die dem ganzen zugrunde liegt, in einem Blogpost nochmal länger beschreiben – versprochen!

 

Icon von:
By Elegant Themes – http://www.elegantthemes.com/blog/freebie-of-the-week/beautiful-flat-icons-for-freehttp://archive.is/Uc2Ni, GPL, Link

Interested in Algorithms and News? Come to Munich!

conference_zuge(Foto von mir)

 

Für alle, die sich für Algorithmen und Journalismus interessieren, ist die Konferenz „Algorithms, Automation, and News“ an der Ludwig-Maximilians-Universität München der Ort, an dem man vom 22. bis 23. Mai  2018 sein muss! Nicht nur, weil ich zum Organisationsteam gehöre (zusammen mit Prof. Neil Thurman und Prof. Seth Lewis), sondern weil wir eine Menge zu bieten haben – so werden z.B. die besten eingereichten Paper in einer Special Issue von „Digital Journalism“ veröffentlicht. Außerdem werden die Übernachtungen für die Vortragenden gesponsert, d.h. das leibliche Wohl wird auch nicht außer Acht gelassen.

Was wir darüber hinaus noch alles bieten, das steht unten im englischen Call – die gesamte Konferenz wird auf Englisch stattfinden – und mit noch ausführlicheren Infos auf http://algorithmic.news.

Abstracts (500 bis 1000 Wörter) können bis zum 15. Juli 2017 an die Adresse conference@algorithmic.news eingereicht werden.

Obwohl es sich um eine Konferenz für die Wissenschaftscommunity handelt, können auch Außenstehende daran teilhaben. Wir haben eine tolle Keynote von Prof. Philip M. Napoli (Duke University), die bestimmt sehr interessant wird.

Ich freue mich auf viele spannende Einreichungen!

Hier der Call – bequem zum Mitnehmen – als pdf:

pdf-icon_klein

_________________________________________________________________

ALGORITHMS, AUTOMATION, AND NEWS:
Capabilities, cases, and consequences


CALL FOR PAPERS: Conference, special issue & edited book


http://algorithmic.news

* Conference in Munich, Germany — May 22–23, 2018
* Select papers published in special issue of Digital Journalism & proposed edited volume


CONFERENCE BENEFITS:

* Free hotel accommodation for presenters
* Travel stipends available for presenters
* No conference fee
* Precedes the 2018 ICA convention in nearby Prague

ORGANIZERS & EDITORS:

* Neil Thurman, Ludwig-Maximilians-University Munich
* Seth C. Lewis, University of Oregon
* Dr Jessica Kunert, Ludwig-Maximilians-University Munich

KEYNOTE SPEAKER:

* Philip M. Napoli, Duke University

CONFIRMED SPEAKERS:

* C.W. Anderson, College of Staten Island & University of Leeds
* Natali Helberger, University of Amsterdam
* Nicholas Diakopoulos, University of Maryland

CALL FOR PAPERS:

We live in a world increasingly influenced by algorithms and automation. The ubiquity of computing in contemporary culture has resulted in human decision-making being augmented, and even partially replaced, by computational processes. Such augmentation and substitution is already common, and even predominates, in some industries. This trend is now spreading rapidly to the fourth estate—our news media.

Algorithms and automation are increasingly implicated in many aspects of news production, distribution, and consumption. For example, algorithms are being used to filter the enormous quantities of content published on social media platforms, picking out what is potentially newsworthy and alerting journalists to its existence (Thurman et al., 2016). Meanwhile, automated journalism—the transforming of structured data on such things as sports results and financial earnings reports into narrative news texts with little to no human intervention aside from the original programming (Carlson, 2015)—grows apace. What began some years ago as small-scale experiments in machine-written news has, amid the development of big data broadly, become a global phenomenon, involving technology providers from the U.S. to Germany to China developing algorithms to deliver automated news in multiple languages (Dörr, 2016). And, algorithms are being used in new ways to distribute and package news content, both enabling consumers to request more of what they like and less of what they don’t and also making decisions on consumers’ behalf based on their behavioral traits, social networks, and personal characteristics (Groot Kormelink and Costera Meijer, 2014).

Altogether, these developments raise questions about the social role of journalism as a longstanding facilitator of public knowledge. What are the implications for human labor and journalistic authority? for concerns around news quality, transparency, and accountability? for notions of who (or what) does journalism? for how news moves among various publics (or not)? Ultimately, what happens when editorial functions once performed by journalists are increasingly assumed by new sets of actors situated at the intersection of human and machine? Ultimately, what do algorithms and automation mean for journalism—its people, purposes, and processes; its norms, ethics, and values; its relationship with audiences and public life; and its obligations toward data management and user privacy?

This three-part call—conference, special issue, and book project—takes up these and other questions by bringing together the latest scholarly research on algorithms, automation, and news. In particular, it seeks to organize research on capabilities, cases, and consequences associated with these technologies: explorations of the possibilities and perils, of theory and practice, and of comparative perspectives according to various sites and levels of analysis. Ultimately, we aim for research that provides a future orientation while grounded in appropriate historical context, contemporary empirical research, and rigorous conceptual development.

By some accounts, the promise of algorithms and automation is that news may be faster and more personalized, that websites and apps may be more engaging, and even that quality journalism may be better funded, to the benefit of all. However, there are also concerns, including anxieties around:

* the hidden biases built into bots deciding what’s newsworthy,
* the ‘popularism’ that tracking trends inevitably promotes,
* how misplaced trust in algorithmic agency might blunt journalists’ critical faculties, and
* the privacy of data collected on individuals for the purposes of newsgathering and distribution.

Moreover, as more news is templated or data-driven, there is unease about issues such as:

* who and what gets reported,
* the ethics of authorship and accountability,
* the legal issues of libel by algorithm,
* the availability of opportunities for professional development, training, and education, and
* the continuity of fact-checking and analysis, among others.

And, as more news is explicitly or implicitly personalized, there is disquiet about:

* whether we will retreat into our own private information worlds, ‘protected’ from new, challenging and stimulating viewpoints,
* the algorithmically oriented spread of ‘fake news’ within such filter bubbles,
* the boundaries between editorial and advertising content, and
* the transparency and accountability of the decisions made about what we get to read and watch.

Through the conference, and the special issue and book to follow, we seek to facilitate conversation around these and related issues across a variety of academic fields, including computer science, information science, computational linguistics, media informatics, law and public policy, science and technology studies, philosophy, sociology, political science, and design, in addition to communication, media and journalism studies. We welcome original, unpublished articles drawing on a variety of theoretical and methodological approaches, with a preference for empirically driven and/or conceptually rich accounts. These papers might touch on a range of themes, including but not limited to the issues outlined above.

Inquiries about this call are encouraged and should be directed to conference@algorithmic.news.

 

TIMELINE:

* July 15, 2017: abstract submission deadline. Abstracts should be 500-1,000 words (not including references) and sent to conference@algorithmic.news. Also include a 100-word biography of each author and 6-8 keywords

* Mid-August 2017: decisions on abstracts

* February 15, 2018: full 7,000-word papers due for initial round of feedback by conference peers

* May 22–23, 2018: conference in Munich

* Post-conference: peer-review and feedback process leading toward publication in either the special issue or edited volume

http://algorithmic.news


ORGANISERS & SPONSORS:

Conference organised by the Center for Advanced Studies at Ludwig-Maximilians-University Munich and sponsored by The Volkswagen Foundation (VolkswagenStiftung) and The Shirley Papé Chair in the School of Journalism and Communication at the University of Oregon.

_________________________________________________________________

Einfach mal Freude teilen – Artikel angenommen!

freude_like
(Ein „Daumen hoch“-Foto von mir – zählt das schon als Eigenlob?)

 

Wie die Überschrift schon sagt, möchte ich einfach ein bisschen meiner Freude teilen – heute wurde ein Artikel, an dem ich mitgewirkt habe, zur Publikation angenommen! Immer ein Grund, einen kleinen Luftsprung zu machen.

Der Titel lautet „WHEN REPORTERS GET HANDS-ON WITH ROBO-WRITING: Professionals consider automated journalism’s capabilities and consequences“, und wird in Digital Journalism erscheinen. Der Artikel ist eine gemeinsame Arbeit mit Prof. Neil Thurman und Konstantin Dörr. Sobald der Artikel online gegangen ist, werde ich den Link hier posten.

… aber halt, worum geht es eigentlich?
Wie aus dem Titel hervorgeht, haben wir uns mit „robo-writing“ beschäftigt, d.h. mit Software, die nach ein paar Einstellungen in einer Datenmaske und einer angedockten Datenquelle automatisiert Texte ausspuckt. In unserem Fall geht es um derartig erstellte Nachrichten, z.B. aus der Finanzwelt oder Sportergebnisse. Diese neuartige Software findet bereits in einigen großen Medienunternehmen Verwendung, und so lässt z.B. Forbes Finanzberichte so in die Welt schicken. Es war also dringend an der Zeit, die „Leidtragenden“ zu dieser Entwicklung zu befragen – das sind, na klar, die Journalisten. Und das haben wir getan. Wir haben in London einen Workshop gegeben, und ausgewählte Journalisten in solche Software eingeführt. Danach durften sie selbst ran, und ihre Textchen entwerfen, alles im Gegenzug für ein ausführliches Interview zu Ihren Erfahrungen.
Und was rausgekommen ist…?
Ha!
Aber ich möchte mal nicht so sein – neben einiger Kritik an den Grenzen der Software (sie kann eben (noch) nicht alles, z.B. zu den Daten keine Hintergründe oder andere Ereignisse mit einbeziehen) gab es auch positive Stimmen. Gerade sehr strukturierte Nachrichten, wie die oben bereits erwähnten Finanzberichte, könnten so geschrieben werden, und die Journalisten hätten ihrerseits dann mehr Zeit für Hintergrundrecherche.

Soviel zur Freude – ich freue mich darauf, wenn der Artikel schließlich „richtig“ veröffentlicht ist!

___________________________________________________________________

 

Alles neu in München – das war 2016

img_4621klein(Foto von mir
– Berliner/Pfannkuchen/Krapfen sind eben das, was man zum Jahreswechsel braucht)

 

Heute ist der letzte Tag im Dezember 2016, und eine gute Gelegenheit, auf das letzte Jahr zurückzuschauen. Es, wie schon ein Jahr zuvor, viel passiert.

Erst einmal bin ich nun seit fast einem Jahr Münchnerin – seit Januar 2016 setze ich meine Forschung und Lehre an der Ludwig-Maximilians-Universität München als Wissenschaftliche Mitarbeiterin fort. Dort, am Institut für Kommunikationswissenschaft und Medienforschung, fühle ich mich sehr wohl, dank der spannenden Arbeit und natürlich der netten Kollegen. Jetzt geht es für mich in meiner Forschung vor allem um Algorithmen und deren Wirkungen auf den Journalismus, und das ist ganz anders als meine vorherige Arbeit in der Politikwissenschaft. Was aber nicht heißt, dass sie ganz aus meinem Arbeitsalltag verschwunden ist, denn in so einigen Projekten, z.B. der großen Journalistenbefragung im Zuge der Worlds of Journalism Study, ist weiterhin genug Politik drin, sodass ich nicht auf sie verzichten muss.

Außerdem spielt in meiner Lehre die Politische Kommunikation weiterhin eine große Rolle. Bis Februar unterrichte ich z.B. ein Projektseminar, in dem ich meinen Studierenden mithilfe von Themen wie Wahlkampfkommunikation, Lobbying, oder politischer Onlinekommunikation die Methode der quantitativen Inhaltsanalyse näherbringe. Das heißt, das Kennenlernen und Anwenden der Methode nimmt einen großen Raum ein, aber immer mit politikwissenschaftlichen Themensetzungen und den dazugehörigen Theorien. Daneben hat sich ein weiterer Themenfokus herauskristallisiert, der mir sehr viel Freude macht, nämlich die Sportkommunikation. In einem Projektseminar dazu, das ich auch dieses Semester unterrichte, sind meine Studierenden und ich gerade fleißig dabei, den deutschen Profifußball zu untersuchen. Und natürlich – in Zeiten vom FIFA-Korruptionsskandal und politischen Messages von Vereinen und Fans geht es auch hier nicht ohne Politik!

Veränderungen allerorten, das kann ich so feststellen – die Doktorarbeit ist mit Erscheinen meiner Monographie im April 2016 endgültig abgeschlossen, und damit ist die Arbeit an den Onlineauftritten von Politikern erstmal vorbei. Was die neuen Themen angeht, die mich umtreiben, sind z.B. die (Aus)Wirkungen von Software, mit denen sich Textnachrichten automatisiert erstellen lassen, und algorithmenbasierte Neuerungen auf Nachrichtenwebseiten an der Tagesordnung. Ganz anders, und doch ähnlich – es geht immer noch im Kern darum, wie sich das politische und gesellschaftliche System durch die neuen Techniken verändern.

Meine Ergebnisse konnte ich dieses Jahr auch vorstellen, wie z.B. auf der Second Annual Journal of International Press/Politics Conference in Oxford. Dort ging es, wie der Name der Konferenz schon vermuten lässt, um die Wechselwirkungen von Journalismus und Politik, genauer die politischen Einflüsse auf Journalisten. Eine kleine, und sehr feine Konferenz, auf der ich alte Bekannte wiedergesehen, und viele neue Kontakte knüpfen konnte. Auch der Nachwuchstag der DGPuK hat mir neue Impulse für meine Forschung und Lehre gegeben, z.B. mit Vorträgen zum Berufungsverfahren oder zur Drittmittelakquise. Hier nochmal einen großen Dank an meine Kollegen, die den Nachwuchstag nach München geholt und organisiert haben.

Natürlich gab es daneben noch andere Freuden, wie z.B. ganz allgemein das Kennenlernen einer neuen Stadt, und – wie es in München auch gar nicht anders geht – der Kauf eines Dirndls. Umso schöner, dass es mir von allen Seiten leicht gemacht wurde, mich „hier unten“ einzuleben.

Soweit – einen guten Rutsch ins neue Jahr und ein erfolgreiches 2017!

___________________________________________________________________________

Tag der offenen Tür im Bayerischen Landtag

plenarsaal(Blick in den Plenarsaal – Foto von mir)

 

Ich war mal wieder unterwegs – diesmal allerdings nur eine kurze U-Bahnfahrt entfernt, ich bin in München geblieben. Aus gutem Grund, denn: der Bayerische Landtag hat am 26. November seine Pforten geöffnet (und nicht nur der, auch im Bayerischen Verfassungsgerichtshof und der Bayerische Staatskanzlei konnte man hinter die Kulissen blicken). Grund genug, eine kleine politikwissenschaftliche Exkursion zu unternehmen, und zu schauen, wie denn hier in Bayern mit dem Bürger kommuniziert wird, und das auf ganz klassische Weise bei einem Tag der offenen Tür.

Das Programm war dicht gepackt, mit Vorträgen von Abgeordneten und Parlaments- bzw. Fraktionsmitarbeitern. Die Themen waren bunt gemischt, sodass zu vielen Gebieten über den Tag verteilt etwas dabei war. Auch der Bayerische Rundfunk hat sich vorgestellt, ebenso wie die Landtagsstenographen und das Besucherbüro selbst mit ihren vielen Broschüren. Nicht nur das – der Vortrag im Plenarsaal wurde von Gebärdensprach- und Schriftdolmetschern begleitet, somit eine Gruppe eingeschlossen, die bei solchen Veranstaltungen oft zu kurz kommt.

Das ist alles schön und gut – aber wofür ist so ein Tag der offenen Tür eigentlich da? Für die Informationsvermittlung? Oder dafür, den Bürger tatsächlich zum Dialog einzuladen? Dabei stellt sich wie so häufig bei solchen Veranstaltungen die Frage, wieviel Dialog mit dem Bürger bzw. zwischen Bürger und Politik(ern) tatsächlich zustande kommt. Obwohl in einer Veranstaltung wortreich darum gebeten, langte die Zeit am Ende nur für zwei Fragen, die nur kurz beantwortet werden konnten. Da kann von Dialog keine Rede sein. Auch, ob eine Autogrammstunde (siehe Foto) das Mittel der Wahl ist, darüber lässt sich streiten.

 

autogrammstunde.jpg(Wegweiser zur Autogrammstunde – Foto von mir)

 

Was sich aber festhalten lässt, ist, dass der Landtag gut besucht war – die Pressestelle spricht von gut 7.500 Besuchern. Schon gegen Mittag bildeten sich Schlangen vor dem Einlass, und wer die Veranstaltung im Plenarsaal besuchen wollte, musste eine ganze Weile anstehen. Ob es jetzt daran lag, dass es zuhauf Taschen, Kulis und Kekse gab, das kann man sich durchaus fragen. Aber nicht nur die Goodies sind gut weggegangen, auch die Prospekte mussten immer wieder nachgefüllt werden, wie ich besonders bei den Ständen des Landtags selbst beobachten konnte. Von daher sage ich, dass so ein Tag der Offenen Tür dennoch eine wichtige und hier auch gelungene Veranstaltung ist. Wann sonst kann man sich ohne größeren Aufwand die Räumlichkeiten anschauen? Neben dem Plenarsaal und den angrenzenden Räumen hatten auch die Fraktionen ihre Stände, wo die jeweiligen Forderungen und Erfolge vorgestellt wurden. Also, der Informationsgehalt war durchaus gegeben, und der kleine Berg Prospekte, der bei mir auf dem Esstisch liegt, zeugt auch davon. Aber nicht nur Papier wurde den Leuten in die Hand gedrückt, überall standen Mitarbeiter von Landtag und Fraktionen bereit, Fragen zu beantworten oder weiterzuhelfen. Keine ‚Station’ wurde allein für sich stehen gelassen, was für die Informationsvermittlung spricht.

Also, die Kritik lässt sich durchaus anlegen, aber dennoch sind solche Veranstaltungen unerlässlich. Denn Politik ist und bleibt abstrakt, egal, wieviele Schaubilder gemalt werden. Richtig erfahrbar wird sie erst, wenn man nah dran ist, und vielleicht sogar auf einem der Stühle im Plenarsaal Platz nimmt. Die Erfahrung kann als Einstieg für die Information dienen – das bleibt dem Bürger, zusammen mit den neuen Kulis natürlich, mehr in Erinnerung als ein Text aus einem Schulbuch.

 

ausblick.jpg(Und wenn’s doch nicht so spannend war, ließ sich wenigstens der Ausblick genießen
– Foto von mir)

___________________________________________________________________________