Kommentar

Leser-Forschung führt zu schlechterem Journalismus

Christian Müller © zvg

Christian Müller /  Nutzer- und Leser-Analysen sind der Tod des Hintergrund-Berichts in den privaten Medien, die zum Grossteil von der Werbung leben.

Ältere Semerster aus der Medien-Landschaft – Journalisten, Verlagsmanager, Marketingplaner, Werbeleute – erinnern sich: Die Auflagen der Zeitungen wurden höchstens jedes Jahr erhoben, meist nur jedes zweite Jahr, die Leserschafts-Erhebungen fanden im selben Rhythmus statt, und sogenannte Copy-Tests, Befragungen von einzelnen Leserinnen und Lesern, was denn genau sie in der Zeitung wirklich und en détail lesen, waren ohnehin freiwillig und wurden nur alle paar Jahre durchgeführt. Auch und nicht zuletzt, weil sie immer das gleiche Resultat ergaben: Die höchste Beachtung – zum Frust der Journalisten – fanden immer die Todesanzeigen, der Sport wurde zwar gut beachtet, aber nur von den Männern, die Lokalberichterstattung fand eine viel höhere Beachtung als die Inlandpolitik, und die Kantonsberichterstattung interessierte kaum jemanden. Die routinemässig durchgeführten Befragungen der Rekruten in der RS bestätigten dieses «Ranking» regelmässig.

Pikantes Detail: Selbst die Hintergrundseiten mit ausführlichen Berichten und Analysen zu ganz unterschiedlichen Themen erhielten bei den Copy-Tests jeweils gute Noten. Wer wollte der freundlichen Dame, die Aug in Auge die Leserinnen und Leser zu ihren Lesegewohnheiten befragte, denn schon gestehen, dass er das allgemeine Kurz-Futter und die Soft-News aus dem Jetset eben doch deutlich öfter «studierte» als die sogenannten Bleiwüsten auf der Hintergrundseite? Man wollte sich doch als intelligente und interessierte Persönlichkeit zu erkennen geben und behauptete deshalb, auch die Hintergrundseite zu lesen! (Vom gleichen Phänomen profitierte zu jenen Zeiten auch die – damals noch im Zeitungsformat erscheinende – «Weltwoche», die gemäss Hermann «Stritti» Strittmatter von der GGK «die meist nicht-gelesene Zeitung» der Schweiz war. Aber viele hatten sie abonniert und legten sie zuhause auf den Kaffeetisch, um gelegentlichen Gästen, vor allem aber auch sich selbst zu bestätigen, dass man zur Intelligenz gehörte…)

Und wie haben die Medien darauf reagiert?

Nach jeder Erhebung wurden die Resultate natürlich genau angeschaut und diskutiert. Nur: Da jeder Verlag mit unterschiedlichen Methoden die eigenen Resultate zu optimieren versuchte und verstand (vielleicht kannte man zufällig einen Insider der WEMF, der damaligen AG für Werbemittel-Forschung, und wusste deshalb rechtzeitig, in welchem Dorf des eigenen Einzugsgebietes die später hochgerechnete Erhebung stattfinden würde), traute man auch den Zahlen der Konkurrenz nicht. Sie hatte ja, zum Beispiel, einen eigenen Mann im VR der WEMF. Also hatte sie wohl noch mehr manipulieren können…

Aber was besagten die Zahlen, wie reagierte man? Man kam meistens zum selben Schluss: Das Lokale darf auf keinen Fall vernachlässigt werden, und im übrigen ist ein guter Mix das wichtigste. Ein guter Mix!

Heute ist alles anders

Heute, im Zeitalter der elektronischen Medien, ist alles anders. Die Zuschauer-Zahlen beim Fernsehen werden nicht jährlich erhoben, sondern simultan. Die branchenspezifischen Info-Dienste in Deutschland etwa melden schon am nächsten Morgen, wie viele Zuschauer eine bestimmte Sendung vor die Glotze hat locken können. Und im Internet kann ganz genau gemessen werden, vielviele User eine bestimmte Nachricht angeklickt und wie lange sie im Durchschnitt dabei verweilt haben. Die Medienforschung ist heute in der Lage, nicht nur eine bestimmte Zeitung als Ganzes zu beurteilen, sondern die Beachtung jedes einzelnen Programms und jeder Meldung auf einer Website genau zu messen.

Ein Fortschritt?

Auf den ersten Blick natürlich ja, vor allem für die Werbe-Industrie. Denn diese kann nun ihre Werbung genau dort platzieren, wo sie am meisten Beachtung findet. Und auch die Preisgestaltung der Werbung kann genau den Nutzer-Zahlen angepasst werden.

Aber, und diese andere Seite darf nicht übersehen werden: Das System hat auch einen grossen Nachteil. Denn mehr und mehr führt diese genaue Messung der Nutzer auch dazu, dass die Auswahl der gebotenen Inhalte von den Veranstaltern nur noch und ausschliesslich nach einem Kriterium vorgenommen wird: nach der zu erwartenden Nutzer-Zahl, zusätzlich segmentiert gegebenenfalls nach dem Kriterium der Werberelevanz.

Was heisst das im Klartext? Journalistinnen und Journalisten, von Berufes wegen wissensdurstige und neugierige Leute, interessieren sich für unterschiedlichste Themen. Und sie investieren ihre Zeit (soweit sie dies überhaupt selber entscheiden können), für Themen, die ihnen wichtig erscheinen. Ihnen, den recherchierenden Journalistinnen und Journalisten! Doch diese Art der journalistischen Stoff-Selektion ist mehr und mehr am Verschwinden. Die Medien-Unternehmen – Verlage, Fernsehunternehmen, Betreiber digitaler Plattformen – brauchen Werbung, um ihre (journalistischen) Aufwendungen finanzieren zu können – und einen ordentlichen Gewinn zu generieren, notabene. Also wird das Angebot nicht mehr nach dem Kriterium der Wichtigkeit, der Relevanz, gestaltet, sondern nach der zu erwarteten Resonanz, der Anzahl jener, die auf das Thema schnell anspringen.

Oberflächlich gegen gründlich

Nein, nicht alles war früher besser, auch im Medienbereich nicht. Aber es ist auch nicht umgekehrt. Fakt ist, dass die äusserst präzise Messbarkeit der Beachtung der elektronischen Medien zwar eine faszinierende Seite hat, aber auch grosse Gefahren in sich birgt:
– Mehr und mehr zählt Resonanz statt Relevanz bei der Gestaltung der Programme. Oberflächlichkeit zahlt sich aus; Gründlichkeit der Analyse geht verloren.
– Daraus folgend entsteht eine zunehmende Verkommerzialisierung der Information (Interdependenz Beachtung/Werbevolumen).
– Die Chance des einzelnen Users, sozusagen «zufällig» auch mit einem etwas komplexeren und schwierigeren Problem konfrontiert zu werden und sich dabei selber weiterbildend zu bereichern, nimmt dramatisch ab. Oder einfacher: Verdummung ist angesagt.

Immer mehr Druck auch auf die öffentlich-rechtlichen Medien

Private, gewinnorientierte Medien-Unternehmen sind naturgemäss besonders gefährdet, ihre Medien-Produkte rein nach Massgabe der Einschaltquoten zu gestalten. Immer mehr aber werden auch die öffentlich-rechtlichen Medien nach dieser Messart be- und verurteilt. Weniger hohe Einschaltquote = weniger gutes Programm, heisst dann die ebenso einfache wie problematische – um nicht zu sagen: verantwortungslose – Gleichung. Es ist deshalb sehr zu hoffen, dass die – selten gewordenen – Medien-Kritiker die Messlatten der privaten Medien-Unternehmen nicht einfach telquel auch für die Beurteilung der Service public-Medien übernehmen. Hintergrund-Information, auch wenn sie tiefere Einschaltquoten erzeugt, ist fürs langfristige Überleben unserer Gesellschaft ein unentbehrliches Mineral.


Themenbezogene Interessenbindung der Autorin/des Autors

Der Autor war 25 Jahre aktiver Journalist und Redaktor und 20 Jahre Verlagsmanager

War dieser Artikel nützlich?
Ja:
Nein:


Infosperber gibt es nur dank unbezahlter Arbeit und Spenden.
Spenden kann man bei den Steuern in Abzug bringen.

Direkt mit Twint oder Bank-App



Spenden


Die Redaktion schliesst den Meinungsaustausch automatisch nach drei Tagen oder hat ihn für diesen Artikel gar nicht ermöglicht.