Es gibt zwei Arten von Relaunches. Die eine ist die selbstreferenzielle, bullshit-artige. Eine neue Geschäftsführerin tritt an, der Chefredakteur hat gewechselt. Es muss sich was verändern. Ein Relaunch. Alle sind beschäftigt, es mach viel Arbeit, man kann am Ende etwas vorzeigen – den Leser:innen ist es total egal. Und es gibt die andere Art. Relaunches, die […]
Es gibt zwei Arten von Relaunches. Die eine ist die selbstreferenzielle, bullshit-artige. Eine neue Geschäftsführerin tritt an, der Chefredakteur hat gewechselt. Es muss sich was verändern. Ein Relaunch. Alle sind beschäftigt, es mach viel Arbeit, man kann am Ende etwas vorzeigen – den Leser:innen ist es total egal.
Und es gibt die andere Art. Relaunches, die nötig sind, weil das Layout, die Website, die Funktionen veraltet sind oder nicht mehr den Nutzungsgewohnheiten entspricht. Das sind Relaunches bei denen das zuständige Team für Leser:innen und Nutzer:innen wirklich etwas verbessern will. Es macht viel Arbeit, am Ende kann man etwas vorzeigen – und die Nutzer:innen sind glücklich. Weil sie nach ihrer Meinung gefragt wurden und idealerweise mit einbezogen wurden.
radio.de ist im vergangen Jahr so einen echten Relaunch für Website und App angegangen. Bzw. einen „Rebrush”, wie Geschäftsführerin Katja Ostrowsky sagt. Ein behutsamer Relaunch.
Vor der Umsetzung hat das radio.de-Team einen Prototyp testen lassen. Eine Agentur hat Nutzer:innen die Funktionen ausprobieren lassen, sie währenddessen zu Usability und Design befragt und das ganze auf Video aufgenommen. Das radio.de-Team hat sich parallel dazu Notizen gemacht.
Bei diesem Prozess ist ein großer Sack qualitativer Daten angefallen: Die Aussagen, der Nutzer:innen und die Beobachtungen des Produktteams.
Ursprünglich wurde das Feedback manuell in einem Miro-Board gesammelt und analysiert. „Das war unheimlich aufwendig und zeitintensiv”, sagt Katja. „Ich habe mir damals gedacht, dass es für diesen Prozess doch eine technische Lösung oder Hilfestellung geben müsste – und bin zufällig über die Audience Suite gestolpert.”
Im Winter 2024 war das Tool noch in der Entwicklung. An manchen Stellen hat es noch ordentlich geruckelt. Was auch daran lag, dass dieser Case für die Audience Suite eine Prämiere war. Sie wurde nämlich mit den Videos der Nutzer:innen-Interviews gefüttert. Diese wurden dann automatisch transkripiert und anschließend analysiert. Das Ergebnis war Katja und ihrem Team damals an manchen Stellen noch zu oberflächlich und die Sentiment-Analyse funktionierte bei nuancierten Aussagen nicht immer korrekt. Trotzdem war Katja überrascht. „Wofür wir Tage gebraucht hatten, schaffte die Audience Suite in Stunden. Beim Culstering gab es schon damals einen erheblichen Zeitgewinn.”
In der Zwischenzeit hat die Audience Suite ihre Kinderkrankheiten auskuriert. Die Videoanalyse ist fester Bestandteil des Feature-Sets, die Sentiment-Analyse wurde deutlich verfeinert und es gibt die Möglichkeit, die Datensätze innerhalb des Tool gezielt zu befragen. Es gibt also keine Ausreden mehr, seine Leser:innen vor einem Relaunch zu befragen und Usability-Ideen ausführlich zu testen …
