In den Newsrooms von Nachrichtenprofis müssen News aus aller Welt ausgewertet werden – im Minutentakt. Lokalredaktionen brechen sie dann auf ihre Orte runter. Ein Beispiel aus der Rheinischen Post. 

Dieser Beitrag ist Teil unseres Corporate Newsroom Magazins, in dem wir viele Best Practices und Experten vorstellen.

Hier geht’s zum kostenfreien Download.


Hannah Monderkamp
Verantwortet im Audience-Engagement-Team der Rheinischen Post das Listening-Center. Zuvor arbeitete sie, nach verschiedenen Stationen im Journalismus, als Consultant bei der Digitalberatung kpunktnull.

Daniel Fiene
Führt das Audience-Engagement-Team und verantwortet mit seinem Team die Social-Media-Aktivitäten, das Entwickeln von neuen Fomraten und den Betrieb des Listening-Centers der Rheinischen Post.


Auch Redakteure einer Lokalredaktion stecken schon mal in der eigenen Filterblase. „Wenn Du 20 Jahre mit denselben Leuten in Deinen Orten telefonierst, brauchst Du eine Lösung, um aus der Filterblase auszubrechen“, sagt Daniel Fiene. Er ist Leiter Audience Engagement bei der Rheinischen Post – und hat gemeinsam mit Chefredakteur Michael Bröcker, Analystin Hannah Monderkamp und dem Dienstleister Convedera aus Köln ein Werkzeug dafür entwickelt: das Listening Center. Dabei handelt es sich streng genommen nicht um eine einzelne Software, sondern um einen redaktionellen Prozess. Der Trick in einem Satz: Daten sammeln und die wichtigsten Informationen herauspicken.  

„Wichtig“ ist dabei unter anderem, was viral geht, also Beiträge, die häufig geteilt, kommentiert, markiert und gelikt werden. Was Mitarbeiter von Redaktionen seit jeher machen, wird bei der Rheinischen Post maschinell unterstützt. Bei 30 Lokalausgaben an 20 Standorten galt es zunächst, 
die lokalen Themen in Maschinensprache zu übersetzen. „Das war erst einmal die schwierigste Aufgabe“, berichtet Analystin Monderkamp: Die Lokalredakteure mussten in großen Excel-Dateien die Informationen über „ihre“ Orte strukturiert zusammentragen, die Namen der kleinsten Gemeinden etwa, die Namen von Bürgermeistern, örtlichen Prominenten und Institutionen. 
„Noch ein Tool mehr“, soll manch ein Kollege anfangs gestöhnt haben. 

Mehr Schmalz in die Search Queries 

Ob nun Hünxe oder Kleve, Geldern oder „Duesseldorf“, „Dusseldorf“ (englisch) oder Düsseldorf, irgendwo im Netz wird immer über Themen aus dem eigenen Dorf diskutiert – nur nicht immer in der offiziellen Schreibweise. Allein für Düsseldorf haben die Experten eine Suchabfrage formuliert, die aus bis zu 275 Stichwörtern besteht. Wenn dann die örtliche Polizei einen Tweet zur „Oberkasseler Brücke“ absetzt, lässt sie den Namen der Stadt schon mal weg. Schließlich kennen deren Leser den Zusammenhang und erwarten von „ihrer“ Polizeiquelle nur örtliche Themen. Den Maschinen galt es diesen Kontext aber erst mühsam beizubringen – oder wie es Fiene formuliert: „Schmalz in die Search Queries bringen“. Das Ergebnis sollte deutlich besser werden als beispielsweise die ungefilterten Google-Alerts, also jene Mails, die man sich bei Google bestellen kann, sobald ein bestimmter Suchbegriff von Google erfasst wird. Apropos Google: Der Konzern hinter der Suchmaschine hat die Entwicklung der Düsseldorfer im Rahmen seiner „Digital News Initiative“ (DNI) gefördert. 

Rund 700 Suchabfragen haben die Experten auf diese Weise mithilfe der Excel-Listen erstellt.  
Im nächsten Schritt wurden die potenziellen Quellen abgeklopft. Social-Media-Kanäle wie Facebook und Twitter gehören selbstverständlich dazu – wobei hier bereits mehrere Millionen Seiten und Accounts zusammenkommen. Aber auch andere Nachrichtenplattformen und Portale wie gutefrage.net wurden aufgenommen. Blogs und Foren ließen sich ebenso integrieren – „im Grunde alles, was eine API hat“, sagt Fiene. Eine API ist eine Maschinenschnittstelle, die von den Servern des Listening-Centers ausgelesen werden kann. 400 Millionen Quellen wertet das Listening-Center aus. 

Neue Geschichten durch Instagram 

Im Grunde geht es darum, aus dem Meer an Informationen die relevanten und überraschenden Informationen herauszufiltern und neue Inhalte kennenzulernen. Oder als Küchenzuruf formuliert: Maschinen entdecken für Menschen neuen Content, den die Redaktion dann überprüft und neu ausspielt. Wichtig ist dabei die Gewichtung nach Viralität. Wenn etwa auf Instagram ein Bild mit dem Hashtag #Hünxe sehr viele Likes bekommt, rutscht es in den Hitlisten der Redaktion weiter nach oben. „Gerade auf Instagram werden häufig Bilder verbreitet, die eine Lokalredaktion zunächst nicht direkt mitbekommt“, sagt Hannah Monderkamp. Ohne Rückfrage beim Urheber eines Bildes darf ein viral gegangenes Bild zwar nicht veröffentlicht werden, aber häufig entstehen so neue Geschichten. 

Keine teuren Pixel, die nur im Newsroom rumhängen 

Die Eigenentwicklung des Listening-Centers ist bei solchen Geschichten das Herzstück der Serveranwendungen der Redaktion. Ergänzt wird es durch andere Dienste wie Crowd-Tangle von Facebook, der Webseite 10.000 Flies und der Analyse-Software Linkpulse. „Wir wollten aber keine teuren Pixel, die einfach nur im Newsroom rumhängen, sondern gezielte, sorgfältig ausgewählte Informationen“, sagt Fiene. Darum sind die Informationen für die mehr als 250 Redakteure der Rheinischen Post stark personalisiert worden. Die Polizeireporter bekommen andere Dashboards als die Szene-Redakteure für die Stadt Düsseldorf. Inzwischen interessieren sich auch andere Medien für die Werkzeuge der RP: Neben dem Bayerischen Rundfunk setzt auch die Technische Hochschule Nürnberg die Entwicklung der Düsseldorfer ein. Und nachdem der Bundesverband Deutscher Zeitungsverleger das Projekt mit einem Preis gewürdigt hat, feilen Fiene und seine Kollegen an einem Lizenzmodell speziell für kleine Redaktionen und Zeitungen. 

Besonders gefreut hat er sich über das Lob eines älteren Kollegen: Obwohl der Redakteur kurz vor der Pension stand, hat er sich ebenfalls mit dem PDF beschäftigt, das das Listening-Center ihm täglich zuschickt. „Die Themen seiner Stadt, die das PDF vorschlägt, kennt er in der Regel alle bereits, aber die Software nimmt ihm das Auffinden von neuen Zitaten zu einem Thema ab“, erklärt Fiene. Wenn sich also einer der Stadt-oberen auf seiner Facebook-Seite zu einem drängenden Thema äußert, findet diese Stellungnahme so auch ihren Weg in die Redaktion – nur eben etwas anders und effizienter als vor 20 Jahren, als der Redakteur seine Quellen meist telefonisch abklapperte. 

 Und noch an anderer Stelle entstehen Geschichte 

„Wir kommen an relevante Inhalte aus Blogs und Foren, die man sonst nicht auf dem Schirm hätte. Das ist besonders bei der AfD hilfreich, die keine aktive Pressearbeit betreibt, aber interne Machtkämpfe im Netz austrägt“, sagt Julia Rathcke, Politik-Redakteurin bei der Rheinischen Post. Der Lohn sind Geschichten, die man schneller als die Konkurrenz prüfen und veröffentlichen kann – und Storys, die man ohne maschinelle Hilfe gar nicht erst gehabt hätte.  

Drei Beispiele:

  1. Als die „Daily Mail“ in Großbritannien eine Geschichte über nachkolorierte Kriegsfotos veröffentlichte, wurde sie im englischsprachigen Raum viel beachtet, ging viral. Im fernen Düsseldorf hätte man die Geschichte vielleicht klein auf der Vermischtes-Seite gebracht – wäre da nicht ein Stichwort im Text gewesen, das eines der Bilder in Hamminkeln verortete. Das Örtchen mit 27.711 Einwohnern im Regierungsbezirk Düsseldorf war im zweiten Weltkrieg Schauplatz einer Szene, in der ein britischer Soldat sichergestellte Helme deutscher Soldaten untersuchte. Das kolorierte Foto konnte die Redaktion als Dokument der Zeitgeschichte selbst veröffentlichen – und so einen kleinen Klickbringer der Lokalredaktion erzeugen.
  2. Den damaligen Innenminister de Maizière konnte die Redaktion bei einem Redaktionsbesuch zu einem Thema befragen, das Ermittler gerade erst selbst auf den Schirm bekommen hatten. Nach einem Attentat in Orlando, Florida, tauchte ein YouTube-Kommentar auf, der auf ein Video des Vaters des mutmaßlichen Täters hinwies, in dem er für Spenden auf ein Sparkassenkonto in Düsseldorf geworben hatte. Entsprechende Recherchen später konnte die Rheinische Post titeln: Bundeskriminalamt prüft deutsche Spur. Andere Medien übernahmen die Berichterstattung der RP.  
  3. Sehr lokal war die Geschichte nach einem viel beachteten Tweet aus der Stadt Moers. Die Wartezeiten im Bürgerservice lassen sich dort in Echtzeit verfolgen. „Durchschnittliche Wartezeit: 74 Minuten“, zeigte ein Screenshot. Und die Geschichte der Lokalausgabe „Der Grafschafter“ lautete entsprechend: „Langes Warten beim Bürgerservice”. 

Dieser Beitrag ist Teil unseres Corporate Newsroom Magazins, in dem wir viele Best Practices und Experten vorstellen.

Hier geht’s zum kostenfreien Download.