Zurück zum Blog

Roboterjournalismus bei News.de

Lesezeit 3 mins | 25.11.2019 | Von: Saim Alkan

Hallo Dominik, Du bist zuständig für die Textautomatisierung bei news.de. Was sind Deine Aufgaben?

Hallo Saim, ich kümmere mich zum einen um das ganze Projektmanagement der Implementierung von Textautomatisierungsprojekten in unsere bereits bestehenden Unternehmensabläufe. Das allein ist schon recht aufwendig: Ich halte Kontakt zu dir und deinem Team, stehe im Austausch mit unseren Datenanbietern und behalte die Qualitätssicherung und die Konkurrenz im Auge. In den letzten zwei Jahren habe ich mich jedoch auch immer weiter in Eure NLG-Cloud „eingegraben“ und mich mit ATML3, Datenanalyse und der eigentlichen Programmierung beschäftigt. Der Lernprozess an dieser Stelle läuft für mich um ehrlich zu sein noch immer und ich versuche, neben der stetigen Optimierung auch weitere Projekte zu entwickeln.

Gab es die Inhalte schon vor der Automatisierung?

Aktuell haben wir ein eigenes Ressort für TV-Vorschauen zum täglichen Programm geschaffen, welches gänzlich nur mit automatisierten Texten bestückt wird, die aus der NLG-Cloud kommen. Gestartet sind wir 2017 allerdings mit Fußball: Wir betexten die Spiele von der 1. Bundesliga bis zur 3. Liga und planen hier auf jeden Fall noch einen Ausbau durch die Betextung der Spiele der unteren Ligen.

Corina Lingscheidt sagte auf den Medientagen in München, dass news.de in diesem neuen Bereich ebenfalls profitabel ist.
Was sagen die Zahlen? Lesen die Leser diese Inhalte?

Mit unseren Spielberichten im Fußball haben wir uns auf jeden Fall einen ganz neuen Bereich erschlossen, den gab es so vorher nicht in unserer Redaktion – es gab zumindest keinen Redakteur, der Fußballspiele besprochen hätte oder Ähnliches.

Anders verhält es sich mit den Texten zum TV-Programm: Die gab es so in der Tat schon vorher, sie wurden von den Redakteuren händisch angefertigt, nun werden diese Texte von der Software geschrieben. Natürlich in viel höherer Schlagzahl, derzeit etwa 70 Artikel pro Tag, mit jeweils vier verschiedenen Versionen pro Artikel.

Du nutzt AX Semantics schon länger. Was hat sich in der Nutzung für Dich verbessert?

Wir konnten im Mai 2019 in meinem Bereich den Break Even vermelden. Bei den Fußballtexten verhält es sich so: Den Traffic aus den Starttagen im Sommer 2017 haben wir mittlerweile in etwa verzehnfacht, die Verweildauer auf den Texten ist sogar noch etwas höher als bei den redaktionellen, nicht-automatisierten Texten.

Der größte – da stetige – Trafficbringer sind mittlerweile allerdings die automatisierten TV-Vorschauen, da wir hier täglich, wenn man so will ja minütlich, neue Inhalte haben, die wir betexten können, im Gegensatz zu Fußballspielen.

Vor ein paar Wochen haben wir einen für mich persönlich ganz bedeutenden Meilenstein erreichen können: An einem Sonntag, bei uns traditionell der trafficstärkste Wochentag, stammte zum ersten Mal der meistgelesene Artikel des Tages aus der Feder des Textroboters und war nicht von einem Menschen verfasst worden.

Welche Ressorts verwenden die automatisierten Texte und Beiträge?

Ich bin auf jeden Fall immer sicherer geworden in der Nutzung der Cloud und freue mich schon auf eure nun nicht mehr ganz so neue Editorenversion, „NEXT“, die ihr seit einem Jahr bereits anbietet. Bislang konnten wir unsere Projekte noch nicht vom „Cockpit“ auf „NEXT“migrieren, da wir eine ganz bestimmte Funktion benötigten. Diese ist nun aber auch in NEXT verfügbar und somit können wir demnächst auch umziehen.

Ich bin sehr gespannt auf das neue Interface, nach allem was ich bislang weiß, habt ihr ja zahlreiche Dinge in punkto Datenvisualisierung bzw. Prozessvisualisierung optimiert. Das halte ich für besonders wichtig und hilfreich!

Du hast seit wenigen Tagen einen neuen Kollegen. Was wird seine Aufgabe sein und was kommt, wenn Du das verraten willst, als Nächstes?

Wir wollen in Zukunft auf jeden Fall noch weitere Stellen für „Content Developer“ schaffen, die sich um das Umsetzen von Textautomatisierungsprojekten kümmern können, ohne sich um das ganze Drumherum der Projektarbeit kümmern zu müssen (das wird auf jeden Fall mein Part bleiben). Aktuell lasse ich meinem Kollegen alle Zeit der Welt, sich mit eurer Software vertraut zu machen und vor allem viel auszuprobieren. Denn das wird in der ganzen Diskussion um „Roboterjournalismus“ oft vergessen: Es macht tatsächlich auch viel Spaß, in einer solchen NLG-Cloud zu arbeiten, an logischen Problemen zu tüfteln, um irgendwann dann auch die gewünschten Erfolge erzielen zu können. Wenn mein Kollege fit genug ist, werden wir auf jeden Fall weitere Projekte umsetzen, die schon in der Pipeline sind. Welche das sind, habe ich an anderer Stelle des Interviews eigentlich schon verraten. Abseits davon wollen wir uns auf jeden Fall aber auch noch eingehender mit Fragen der auf unsere Interessen zugeschnittenen hauseigenen Datenaufbereitung beschäftigen. Denn bei NLG gilt ja: ohne gute Daten auch keine guten automatisch generierten Texte!

Dominik, ich danke für das Gespräch.

Übrigens ist auch die Stuttgarter Zeitung in Sachen Textautomatisierung erfolgreich.

Und auch die APA ist mit Wahlberichten in Österreich sehr erfolgreich.

Saim Alkan

Saim Rolf Alkan ist CEO und Gründer von AX Semantics und ein Pionier auf dem Gebiet der automatischen Texterstellung. Nachdem er jahrelang erfolgreich im Content-Bereich gearbeitet hatte, beschloss er, dass Unternehmen ein besseres Werkzeug brauchten: eines, das die Zusammenarbeit von Mensch und Maschine ermöglicht, um die Menge an Inhalten zu produzieren, die für ein erfolgreiches Bestehen im digitalen Zeitalter erforderlich ist. Saim entwickelte eine Content-Lösung, die aus Daten in 110 Sprachen hochwertige Texte für Branchen wie E-Commerce, Verlagswesen und Finanzen generiert. Er ist außerdem Dozent und Redner in den Bereichen Online-Kommunikation und „Roboterjournalismus“ und hat mehrere Bücher und zahlreiche Artikel geschrieben.