How publishers make sense of AI technology

Audience Development Deep Dive Episode 6

Christian Kallenberg, owner of We Like Mags, and Benjamin Kolb, Managing Director of Purplein conversation with Dr. Marcus von Harlessem, management consultant for IT projects in media companies.

Dr. Marcus von Harlessem was managing director of InterRed GmbH, a software company specializing in editorial systems. In 2021, he founded his own consulting company. With more than 20 years of experience in the IT and media sector, he now advises and supports various companies in their digital transformation.

Related Links

What awaits you in this episode

00:38 Is there THE solution for successful IT projects?

05:42 A mix of classic KPIs and other metrics

10:13 Does paid content affect the quality of products?  

13:38 Which AI models are promising for publishers

21:51 AI for editorial content - good or bad?

31:07 A look into the future: AI models for publishers

26:51 The fear of the paywall is taken away


Transcript

00:00:08

Christian Kallenberg: Welcome to the Audience Development Deep Dive from Sprylab Technologies and We like Mags. My name is Christian Kallenberg and sitting across from me again today is Benjamin Kolb, CEO of Sprylab Technologies. Hi Benny.


00:00:20

Benjamin Kolb: Hello Christian. Pleased to meet you.  


00:00:22

Christian Kallenberg: I'm also very pleased, because today we have a very special guest, Dr. Marcus von Harlessem, the former CEO of Interred and now a management consultant in the field of IT for industry and media companies.


00:00:35

Benjamin Kolb: Hello Marcus.


00:00:36

Dr. Marcus von Harlessem: Hello Christian, hello Benjamin.

00:00:38

Christian Kallenberg: Can you perhaps tell us from your experience which factors are decisive for the success of large IT projects in companies and media enterprises?


00:00:46

Dr. Marcus von Harlessem: Natürlich operiere ich als Projektleiter in einem kleinen Projekt, ich sage mal in einem 100.000 EUR Projekt ganz anders als in einem Projekt von 5 Mio. EUR oder so, das ist klar, dass ich da mit ganz anderen Werkzeugen und Tools und Prozessen arbeiten muss. Aber es gibt ein paar Dinge, die jetzt außerhalb des klassischen PM-Handwerks meiner Erfahrung nach oft ein bisschen vernachlässigt werden, aber doch im Nachhinein sich herausgestellt haben als ganz entscheidend für gute Projektverläufe. Das sind die klassische Vorbereitung, Planung im Projekt-Setup. Das ist etwas, das sollte man nicht unterschätzen. Es genügt also nicht da irgendwie einen Dienstleister einzukaufen, die Verträge zu unterschreiben und dann Kick-Off zu machen und dann setzen sich alle an den Tisch und dann geht es irgendwie los, sondern auf das ganze Thema Planung und Kommunikation sollte man sehr viel Wert drauf legen. Darüber hinaus sind es dann so Dinge, ich sage mal als ein Beispiel, das Thema Schulung. Ich habe in vielen großen Projekten erlebt, was für einen entscheidenden Ausschlag das Thema Schulungsplanung in einem Projekt geben kann. Das ist leider ein Posten, wo oft der Rotstift angesetzt wird, weil Ressourcen sind begrenzt überall, das ist klar, man kann nicht überall beliebig viel Money investieren in so ein Projekt, also wird oft bei Schulung gesagt „da machen wir halt ein schönes PDF und das verteilen wir am Ende an unsere ganzen Mitarbeiter und dann können die die neue Software bedienen“, aber man darf nicht vergessen, gerade in größeren Medienhäusern, da gibt es Flurfunk und Rumours „wir kriegen ein neues System, wie sieht denn das aus? Hast du es schon mal gesehen? Ist das toll oder total doof?“ und in den Schulungen wird es dann so sein, dass die Mitarbeiter das erste Mal echten Kontakt zu dem neuen System bekommen. Das ist ganz entscheidend, dass das System in dem Moment perfekt vorbereitet ist, also ein dediziertes Schulungssystem und nicht irgendwie ein Entwicklungssystem, auf dem man vorher eine Funktionsprüfung gemacht hat, sondern ein eigenes Schulungssystem mit eigenen Inhalten, die sauber vorbereitet und getestet sind, didaktisch gut trainierte Leute, die die Schulung machen, also darauf spezialisierte Menschen, die eben auch die typischen Herausforderungen in Schulungssituationen bewältigen können, wenn einer da irgendwie als Störer auftritt oder nicht motiviert ist. Wenn man das alles sehr gut vorbereitet, wenn der erste Kontakt zu den Mitarbeitern schon eine gute Präsentation des neuen Systems ist, dann hat man so viel Stimmung im Laden und natürlich auch inhaltlich, es hat ja auch einen inhaltlichen Effekt, so eine Schulung, hat das eine enorme Wirkung. Dann gibt es vielleicht noch einen Punkt, der klingt jetzt ein bisschen Old School, hat sich aber insbesondere in Krisensituationen als wichtig herausgestellt meines Erachtens, man muss sehr flexibel sein, was die Methodiken anbelangt. Wir arbeiten heute alle mit Tools, mit Ticketsystemen und mit Konferenzsystemen und mit Wiki-Systemen und managen darauf unser Projekt, aber es gibt eben oft Situationen, habe ich in Projekten erlebt, wo die Misere relativ groß war aus welchen Gründen auch immer Dinge nicht funktioniert haben. Ich erinnere mich an ein großes Digitalprojekt, wo Templates geliefert wurden, wo das Java-Script nicht dokumentiert war und dann die Return-Werte der Java-Script-Aufrufe unklar waren und dann 25 Mal angemahnt wurde, dass das sauber dokumentiert muss, weil Stand ja auch so im Pflichtenheft, das war eine Mitwirkungspflicht, die wurde nicht sauber erfüllt. Formell war man dann auf der sicheren Seite, aber es war halt einfach aus menschlicher Sicht nicht leistbar, weil die Templates hatte ein Dienstleister gebaut, den es gar nicht mehr gab und dann haben wir gesagt „das steht zwar nicht im Vertrag und das ist auch im Budget alles so nicht eingeplant, aber wir nehmen jetzt die Entwickler und wir nehmen die Customizer und die setzen wir in ein Auto und die fahren jetzt zu dem Kunden hin, drei Tage die Woche“, der war zum Glück nicht so weit weg, das waren 150 km oder so und wir haben gesagt „ihr fahrt jetzt dahin und setzt euch da mit den Techniker auf der anderen Seite zusammen und ihr setzt euch wirklich hier Team Programming mäßig vor einen Bildschirm und dann guckt ihr darauf und dann versucht ihr die Templates gerade zu biegen und den Termin noch einzuhalten“ und da haben sich erst alle gegen gewehrt und der Sponsor hat sich dagegen gewehrt, weil er kein Interesse hatte die zusätzlichen Kosten zu bezahlen, die Programmierer wollten aus ihrer gewohnten Wohlfühloase nicht raus und da irgendwo in die Fremde fahren und da mit anderen Leuten zusammensitzen, die sie gar nicht kennen – das ist ja bei ITlern, ich darf das sagen, ich bin selbst ITler – die sind ja vielleicht manchmal ein bisschen kontaktscheu. Letztlich haben wir das so gemacht und es war die Rettung und es waren auch alle begeistert, also die Entwickler waren begeistert, der Kunde war begeistert, weil im Bruchteil der Zeit, die man da mit einer Ticket-Kommunikation klassisch investiert hätte, dieser Teamspace, wo die Entwickler sich einfach so ganz Old School gemeinsam vor einen Rechner gesetzt haben und dann mal für einen Monat, das war nicht länger als ein Monat, drei Tage die Woche da hingefahren sind und zusammengearbeitet haben, das hat das Projekt gerettet. Das sind Dinge, wo ich eben sage „was im Vertrag steht, ist schön und gut“, aber man muss eben bei den Lösungen flexibel sein und den Faktor Mensch in so einem Projekt darf man einfach nicht außer Acht lassen.


00:05:42

Benjamin Kolb: If we now look at the projects or large projects. What are your experiences, what kind of success criteria are usually used? Of course, you have project costs, which you naturally try to keep low, but you also want to achieve something with the project through the change that you bring about. What is your experience regarding the KPIs for such a project?


00:06:04

Dr. Marcus von Harlessem: Of course, this has changed quite a bit over the last 20 years. Of course, there are the classic KPIs that were already in place 20 years ago: on the one hand, you make an ROI calculation and then say "I would like to have my investment back in two or three years," and I can achieve that, for example, through a classic such as reducing operating costs. So I create a consolidated IT landscape and merge three individual systems into a new system, and through the lower operating costs I then save an investment again in two or three years and then I have a revenue at that point. Of course, there are the classic KPIs such as production costs from the print sector, "What does a page cost me? How much time do I need to produce a page? How much time do I need for image editing? How much time do I need for text editing?". These are all KPIs where you say "if we speed this up by factor X, we can invest number Y and then it will eventually pay off." These are many such classic KPIs that we still find today. However, it has to be said that in the context of digitization, there has been an incredible mechanization of KPIs. When you talk about things that are to be used as metrics in projects today, there is now a lot of technology involved. Especially due to the whole web and app area, where you basically have a completely different competitive environment, where, for example, the ranking on Google is an important factor, "which metrics do I have to optimize in order to be ranked better there?". For many years, we had had the issue of "how do I get on the first page of search results?" because then the corresponding probability that I will be clicked on is relatively high. In the meantime, this has been exacerbated by the position zero problem, which we have as a result of all the voice computer assistants that only return a result when a question is asked, things like LCP, Largest Contentful Paint or First Input Delay or metrics like that, which are used for performance optimization, are suddenly used by a customer and say "we're doing a relaunch here and we have to pay attention to these things, because the performance of the website is a decisive factor in order to be ranked well, for example on Google. on Google." These are whole new metrics that are being used. The volume of the home page, the whole issue of compression and minification. These are things that play a role in digital projects. The classic things still play a role, too. Of course, PIs and visits are still traded, especially in the marketing departments, although it has to be said that in times of paid content, the issue of subscription numbers, i.e., digital subscriptions, has become very important, because it is particularly important for negotiating advertising prices from the customer's point of view, because an e-paper subscription is now also valued differently by advertising customers than it was perhaps a few years ago. The topic of digital subscriptions is an important one, but so is the topic of media time, i.e. how long does a visitor who comes to the site spend here and what does he do? Has he clicked on the article and then gone to drink coffee and then clicks two or three times again and is then there for another five seconds and then he's gone again? It's something different than when a user comes to the page, I might have a longer technical article and it's scrolled through cleanly and really has a correspondingly long reading time, obviously I've had content there that's relevant. Relevance is something that is difficult to define as a hard metric, but it is something that leads me to keep users on my site for as long as possible, because we know that the likelihood of achieving a conversion with these users is significantly higher than the fly bys that come from a search engine, make two or three clicks and then are gone again.


00:10:13

Christian Kallenberg: When it comes to paid content models, as you just said, there are various KPIs, but above all the number of subscribers is important. How do you think that affects the products? Is it an increase in quality or would you rather say that it's detrimental?


00:10:30

Dr. Marcus von Harlessem: If anything, it doesn't hurt. My observation is that, especially with regional publishers, the only source of revenue in the last 10-20 years was marketing. PIs and visits were the KPIs that were important and they negotiated the CPMs and then tried to generate as much revenue as possible, which meant that they had to burden their own customers to their pain threshold, so to speak, with pages where they had to search for editorial content with a magnifying glass, because when you called up the home page of a regional newspaper, there were so many banners and skyscrapers and pop-ups and fly-outs until at some point you no longer saw the content and clicked away from it all to see the actual article. From my point of view, this almost looked like a punishment of the own customers.


00:11:24

Benjamin Kolb: And the article itself had a headline that was more of a clickbait than a fit to the content in order to get more clicks.


00:11:31

Dr. Marcus von Harlessem: Absolutely, exactly. And image galleries with 500 images that you then put on the home page and so on. All these ugly or unattractive developments. There has of course been a rethinking in recent years. There are now some providers who have said "Paid content is not our goal now", for whatever reason, because of a lack of technology or because of a lack of quality, we don't know, but in any case they have reduced the pain for the customer by at least being able to buy freedom from advertising or a reduction in advertising with a subscription. On the other hand, a rethinking process has also taken place in the editorial department. For a long time, it was said that "our high-quality, specially researched content, where people were really out and about and we really invested a lot of money, we don't just put it on the web for free, we put it behind the paywall or behind some form of log-in. We don't want to give that away anymore." At some point, it was recognized that it was perhaps so clever over the years to give away expensive content to the large platform operators in the U.S., and that they have developed beautiful, clever business models and earned a lot of money with it - this is also a topic of discussion in the German media associations right now - that this sin must not be repeated. The fact that it is now technically possible to generate revenues for individual content or even for bundled content in the digital sector means that people are naturally more inclined to publish high-quality content in digital as well. This has definitely led to an improvement, and we can see that after the first news providers made progress in this area, we now have an enormous spread of paid content approaches on news portals, news portals, as well as in all the magazines and trade journals, because we have seen in recent years that it really does work and that I can offer my customers a reading experience that is no worse in digital than in print, but where I can also use the advantages of the digital medium compared to traditional paper.


00:13:38

Benjamin Kolb: But now the disadvantage of the digital medium is that it becomes even more complex, because suddenly the website also has a funnel, a paywall, everything is dynamic, dynamic pricing of some tars etc., where of course you have to say "the complexity is getting more and more inflated by this paid content story", you still have advertising in there, you still have other channels, social media, etc. and to counter this, there are also many efforts to use AI to remove certain things from the manual and to automate them. What are your experiences in this area? How far has it progressed with publishers that they use AI at all and if so, from your point of view, what are some successful models where AI is used, either for the purpose of reducing complexity or to improve the result?


00:14:32

Dr. Marcus von Harlessem: Das ist auf jeden Fall eins der hochdynamischsten Bereiche in den letzten Jahren. Keine Konferenz, kein Projekt und kein Kunde, wo es nicht um das Thema geht. Es wird meiner persönlichen Meinung nach noch dadurch verstärkt, dass das Thema Subscription, was in den letzten Jahren so im Vordergrund gestanden hat, das könnte eine strategische Sackgasse sein. Natürlich haben die Verlage mit dem Boom des Internets versucht über alle möglichen Diversifikationen im Digitalbereich irgendwie Einnahmen zu generieren, weil über den Content und die Anzeigen war das am Anfang nicht so erfolgreich und jetzt haben sich alle auf die Subscriptions gestürzt, weil sie gesagt haben „wir verlagern das von einem Kiosk ins Web und holen uns da die Abos und dann haben wir regelmäßige Einnahmen“. Da gibt es auch ein paar erfolgreiche Beispiele in Deutschland, wo das funktioniert, aber ich glaube man kann nicht mehr dieses Kulturverhalten des Abos, was wir jahrzehntelang aus dem Printbereich kennen, das kann man nicht mehr 1-zu-1 ins Digitale übertragen, d. h. man wird relativ schnell dort in eine Abflachung der Abozunahme kommen und dann muss man sich überlegen „habe ich außer dem klassischen Abo-Modell noch andere Ansätze, um im Digitalbereich Einnahmen zu generieren?“. Da gibt es eben verschiedene Formen von Aggregierungen, von Einzelverkauf-Geschichten, weil gerade das Thema „ich möchte jetzt einen einzelnen Artikel, weil mich das Thema gerade interessiert, den will ich haben, dann bin ich auch bereit dafür zu bezahlen, aber ich will eben kein Abo abschließen“, das ist im Digitalbereich sozusagen das Pendant zum klassischen Kiosk. Da bin ich reingegangen und habe immer meine Computerzeitschrift gekauft, aber irgendwann wollte ich vielleicht doch mal was im Garten machen und dann habe ich ausnahmsweise mal eine Gartenzeitschrift gekauft, aber ich wollte halt kein Abo abschließen. So Leute muss ich auch im Digitalbereich abholen. Neben dem, was du gerade schon genannt hast, kommt das alles auf den Stack oben drauf und ich kann so viele Menschen gar nicht dahinsetzen, die sich manuell um das alles kümmern, um das zu realisieren, also brauche ich eben Technologie. Die Technologie hat jahrelang nach relativ primitiven, regelbasierten Verfahren gearbeitet, da hat sich eben das Produktmarketing irgendwelche Regeln überlegt, die hat man dann implementiert und danach wurden eben Inhalte auf die Website ausgesteuert. Das ist eben nicht mehr kompetitiv mittlerweile und deswegen ist das ganze Thema KI-Unterstützung auf allen möglichen Ebenen gerade explosionsartig dabei sich zu verbreiten. Es hat angefangen vielleicht vor über zehn Jahren im deutschsprachigen Bereich mit den ersten Empfehlungssystemen. Das, was heutzutage als Recommendation System bezeichnet wird, waren so die Anfänge, wo man gesagt hat, man wollte das, was man aus dem E-Commerce kannte, was man von Amazon kannte „wer dieses Buch gekauft hat, hat auch folgende Bücher gekauft“, sowas wollte man auch für den redaktionellen Content haben, „gibt es da nicht tolle Software, mit der man sowas machen kann?“ und dann hat es angefangen, dass man so Empfehlungssysteme auf die Website platziert hat und wenn einer da ein Testbericht von einer Grafikkarte gelesen hat, hat man ihm automatisch drei andere passende Artikel angezeigt. Das waren so die klassischen Anfänge. Mittlerweile ist es so, wenn wir uns insbesondere den ganzen Verlagsbereich anschauen, dass wir in der Wertschöpfungskette eigentlich KI-Tools vom Anfang bis zum Ende mit im Einsatz haben. Das fängt schon an bei der Anzeigenvermarktung, bei der Platzierung von Anzeigen. Der Redakteur, der Texte verfasst, der hat Tools in seinem Editor für predictive typing Unterstützung, er schreibt einen Artikel über die Affenpocken, weil er gerade Medizinjournalismus macht und bekommt vom System automatisch verwandte Texte angezeigt. Entweder aus dem eigenen Bestand „was haben wir schon dazu gebracht zu diesem Thema Infektionskrankheiten? Was machen unsere Mitbewerber gerade?“. Redakteure haben Tools, KI-basierte Tools, wenn es um Archivsuche geht. Archivsuche ist ja lange Jahre eine ganz heilige Kuh in den Verlagen, wo viel Geld investiert wurde in eine Verschlagwortung oder sogar in eine hierarchische, ontologiebasierte Kategorisierung von Archivinhalten. Da hat man dann Anfragen ans Archiv gestellt und hat gesagt „ich brauche zum Thema Infektionskrankheiten, Pocken, was haben wir da in den letzten zehn Jahre dazu gehabt?“ und dann hat man zwei Tage später eine Antwort aus dem Archiv bekommen, weil die Systeme so komplex waren, dass sie keiner bedienen konnte. Heute hat man sowas in einem Redaktionssystem direkt integriert und kann eben automatisch oder semi-automatisch sich da Ergebnisse anzeigen lassen. Das ganze Thema Synonyme ist für ein Redakteur heute eine Unterstützung, dass er irgendwie, wenn es um Fachbegriffe geht, immer mal wieder Variabilität in die Texte reinbringt. Textkürzung ist ein sehr spannendes Thema, was in den ganz jungen Jahren jetzt Fahrt aufgenommen hat durch verbesserte Technologien. Das kann mal einerseits im Digitalbereich fürs Tethering verwenden, aber auch dieses ganze Thema Summarization, um erstmal für den Menschen ein Angebot zu machen, der nicht einen langen Fachartikel lesen will, sondern um dem erstmal Appetit zu machen über eine Zusammenfassung, sowohl im Print als auch für Übersichtsseiten. In der Produktion kann man die Summarization-KI-Modelle benutze, um bspw. das Printlayout, was fast überall unter einem hohen Kostendruck steht, um das weiter zu automatisieren, um da die Effizienz zu steigern und zu sagen „ich kann Teile des Layouts, was bisher Menschen manuell gemacht haben, weiter durch Werkzeuge automatisieren, die mir bspw. Übersatz automatisch korrigieren“ oder vielleicht ein entsprechendes Printtemplate auswählen, das passt mit einem entsprechend Bildmaterial und dann den Automatisierungsgrad beim Seitenaufbau dadurch weiter erhöhen kann und eben die Produktionskosten mit runterzufahren, während gleichzeitig die Einnahmen im Printbereich immer weiter zurückgehen. Dann gibt es mittlerweile noch schöne andere Tools, Topic Detection, wo man eben Themen identifiziert, die jetzt gerade populär sind, indem man vielleicht Social Media Kanäle scannt und dort automatisch Themenseiten generieren lässt, wo man alles, was man zu dem Thema hat, schön auf einer speziellen Themenseite generiert. Bei der automatischen Key Word Extraktion gibt es auch mittlerweile sehr mächtige Werkzeuge im Produktionsbereich. Wenn wir dann über das Thema Output nachdenken und gucken, wir sind jetzt sozusagen beim End User und haben den Content auf der Seite und dann haben wir natürlich eben schon angesprochen diese klassischen Empfehlungssysteme, Kontextpersonalisierung, wo mittlerweile viele Anbieter auch im deutschsprachigen Markt unterwegs sind und auch dort viele Verlage das schon einsetzen. Wir haben das Thema Objekterkennung, was unter dem technischen Begriff Named Entity Recognition läuft, wo man in Texten Personen erkennen kann oder Produkte bspw. und darauf basierend kann man wieder Affiliate-Links generieren oder Produktdatenbanken anbinden. Das ganze Thema text-to-speech bspw. ist auch seit ein paar Jahren ein Trendthema im Verlagsbereich und jetzt vor kurzem kam noch eine Meldung raus, dass eine Regionalzeitung den ersten vollautomatisch generierten Podcast auf den Markt gebracht hat. Es ist gerade unglaublich viel Bewegung und Dynamik in dem kompletten Bereich.


00:21:51

Christian Kallenberg: Let's stay briefly on the topic of AI in the editorial environment. You've already said that the machine is now doing a lot. In your eyes, is there also a kind of trade off between inaccuracy, which is perhaps accepted because it is so much cheaper, and Benny, perhaps you can also say something to Marcus afterwards, because your system is also quite powerful. But first you, Marcus.

00:22:17

Dr. Marcus von Harlessem: The reservations in the editorial offices about AI tools and AI tools have clearly diminished. That was ten years ago, when the first ones on the market started to deal with it, I remember a well-known computer/IT portal that had already made its first experiments with it ten years ago, the editorial staff was extremely critical of it and you could basically only prove through A/B testing or through corresponding statistics that it works, that the readers use it. I can remember a story where the classic related content box was placed by the editorial team under a technical article and we placed an automatically based related content box underneath it that was even worse, so to speak, in terms of position. In the analysis, this was subsequently clicked on more frequently than the box compiled manually by the editors. That's why the reservations have decreased. Of course, in individual cases, the machine still does things where the human asks himself "how should I present this to my reader?" or doesn't understand the logic behind it, because there is perhaps no logic behind it that can be understood, it is basically all just statistical procedures on an enormous amount of data. That's why I've seen that the possibility of manual intervention is still very highly valued, i.e. saying "we've got a great machine here that reads all your texts and automates the output on your websites", that's such a pipe dream that some publishing managers might have, but in the editorial offices the hairs on the back of their necks stand on end and they at least want to have the possibility with blacklisting or whitelisting or also parameters, They want to have at least the possibility to intervene in the machine with blacklisting or whitelisting or parameters that they can set themselves, but they have realized that in the mass of content and areas, a human being cannot do this and a machine that may not have quite the same quality as a human being, but that is still much better for their own success to have the appearance optimized by a machine than if it doesn't happen at all. Especially the topic "I go back into the past and can even content that is already older, which is perhaps never touched manually again and updated", if I stay there with the field of medicine and we have a topic, Corona, which is absolutely omnipresent in the media for two years, then I have perhaps relevant content that fits the topic, which I have perhaps written four, five years ago, which plays an important role there and which I would have to get so to speak manually from the archive, If I have a machine that identifies it for me on the basis of a semantic search and says "I have something here about aerosols that we wrote five years ago, it's very topical right now, please put it on the website," then that's a huge benefit for a content provider, and this insight has already become widely accepted, which is why the reservations are now only relatively manageable. In the meantime, the discussions with customers are more about "how can we use these tools as intelligently as possible for our target group and for our content, and no longer about the fundamental whether or not".  


00:25:41

Benjamin Kolb: We can confirm that from our own experience. It's true that some things have changed, especially - and this was perhaps also important, what you said didn't quite come out yet - it's no longer just about saving costs. It's really about the fact that if you look at the topic of linking content, article-to-article links, for example, there is a certain cost saving in setting six new links in the article, that it is automated by a machine, but what is much more interesting is when this machine takes care of the entire treasure permanently. You mentioned earlier how much has already been invested in building hierarchical ontologies to make this treasure trove of content more usable, but what doesn't happen in principle is that such a piece of content, once it has been published, is usually touched again and such a machine can take care of something like that, because it runs 24/7 and has a much greater impact than the editorial team. I think that's why there's a certain enthusiasm, but what you always sense with every project that involves this is that there's a certain cautious introduction of something like this. You want to keep control. You don't want this treasure to be destroyed. They want to see and intervene, and they would rather compare semi-automatically or manually before they let it run. I think these reservations are still there because - and this is also something that you have said completely correctly - these are statistical models, i.e. no one can really explain at the end why this link is actually there now, because that would be far too complex to explain. That's the magic behind it. In the end, it's not that magical, but it's all about probabilities and in the end, the machine calculates that it's a good link with a probability of 75 percent, for example. You can calculate that these 75 percent are far better than what the editorial team actually does in the normal case, because actually everyone agrees with the result of what an editorial team does in the area of links, for example. is always insufficient, because the resources are not there to do it really well, but the fact that these 75 percent are much, much better than what the editorial department does, to gain this trust, that is always a step, because sometimes results come out where you ask yourself "well, the editorial department wouldn't have done that, but the fact that the link is there doesn't hurt so much that you wouldn't use the real leverage that such a system brings.  


00:28:10

Dr. Marcus von Harlessem: The whole thing stands and falls a bit with the size of the data pool that I have behind me, so to speak. Of course, we all know the tools that are now used on the news portals and that work so well that there are hardly any reservations and they are used on a broad front, but when I'm in the field of specialist publishers and they are sometimes very special-interest and also deal with complex scientific or technical topics, So the amount of data I need to first build a data model with machine learning, on the basis of which the algorithm can then make recommendations, is sometimes so small that the error rate, to put it that way, or the quality suffers a bit. I can set parameters in most AI tools, the semantic vector that is formed there, in most cases it is so that an n-dimensional vector is generated and this then represents the semantics of a text, so to speak, and I then have an n-dimensional vector space and then comes the next text, i.e. the text that is currently in question, which also has a vector and then one searches for those that are as close as possible and says "they are semantically related" and there I can now play out a recommendation. This relevance is usually defined by a metric and you can say "if the relevance is less than 0.7, then don't show it. Show only related articles that have a relevance / semantic similarity above 0.7", to name an abstract value. But if I am then in such a special-interest area, then I may have no content at all that is above 0.7. Then I might have five pieces, and at best they might be at 0.5. What do I do then? Do I then have an empty box on my site? "Unfortunately, dear reader, dear customer, we don't have any further information on this topic" - yes, we do, but it might deviate a bit because it only looks at one aspect of this topic and then illuminates another topic area more comprehensively in the content, which is why the relevance score might only be 0.4 but could still interest the user. That's why the entire methodology and the tools are highly dependent on which customers I'm working with, which database I have, and the quality is also a bit variable in this area.


00:30:43

Benjamin Kolb: Yes, and how much time you take to do this fine-tuning, that you set exactly such profiles, where you also weight all these models that you have in use later, that you also take a phase where you fine-tune it well to the content that you have. As you have already said, special interest and general interest are very different in terms of how these models have to be controlled in the end.


00:31:07

Christian Kallenberg: Marcus, let's stay with your practice for a bit. How high is the percentage of publishers you are in contact with that actually use AI-supported products in the editorial environment or in the area of audience development?


00:31:21

Dr. Marcus von Harlessem: In practice, it's really amazing how quickly this has spread in recent years. In my modest personal environment at the publishers I deal with, I would say 80-90 percent are already using AI tools in some form. Either by buying one of the ready-made products on the market and saying to the service provider "here's our website, build your technology into this" and that's a project with a manageable investment and with a manageable duration, then you might not use the potential of this solution as you could, But you are there, you have such a tool in use, the management can also say "we are innovative, we use the latest methods", something that often plays a role again, that you always stay on the ball and stand as innovative and modern. In addition, we now have freely available language models in the open source area, which are already fully trained and also have technologies that are freely available, which can be used with a relatively manageable effort with a little of one's own implementation work and which are now also well documented, so that one perhaps no longer, as was the case ten years ago, Of course, there are still a lot of very secret special algorithms today, but there is always a lot of know-how involved and competitive advantages of the providers, which also differ, but the freely available language models and algorithms that are available today and these tools mean that very many publishers now use such technologies. In my experience, however, it's rather selective, and in many places it's also so me-too, "because all my competitors already have it, we have to do it too. A stringent, end-to-end AI strategy that really covers and takes into account many of the areas I just mentioned is really only found at the very large media companies at the moment, but in general it is now an issue almost everywhere.


00:33:28

Benjamin Kolb: What do you think are the future models for publishers when you think more about audience development? What are the topics that you need to focus on now in order to be successful as a publisher in three, four, five years?


00:33:45

Dr. Marcus von Harlessem: Das ist so ziemlich nach meinem Namen die zweite Frage, die ich gestellt bekomme, wenn ich irgendwo bei einem Kunden reinkomme. Ich muss dem Kunden auch immer gestehen, dass meine Glaskugel einen Wackelkontakt hat. Die Frage nach dem „next big thing“ steht natürlich immer im Raum, weil irgendwie hat man immer das Gefühl, die Potenziale sind einfach gigantisch im Digitalen und wenn ich die richtige Idee habe, dann bin ich total erfolgreich, aber letztendlich erkennt man immer so den Lemming-Effekt. Wir haben in den letzten Jahren im Digitalbereich gesehen, dass dort die verschiedenen Wellen von Strategien durchgelaufen sind. Ich komme mal zurück zu dem Thema Tablet, wo noch vor einigen Jahren manche Verlagsmanager Steve Jobs auf Knien danken wollten, dass er das Tablet erfunden hat, weil das galt so als die glorreiche Zukunft des digitalen Publishings, wo man eben hohe Einnahmen generieren kann, indem man nur eine medienspezifische optimale Darstellung der Inhalte realisiert. Dann haben die Verlagshäuser enorme Geldsummen investiert und haben total sophisticated Apps programmiert, die mit Animationen und Wisch- und Medienanreicherung die tollsten Darstellungsformen auf dem Tablet realisiert hat, sozusagen die neue Dimension des digitalen Lesens auf dem Tablet. Das war enorm teuer, vor allen nicht nur der einmalige Invest, sondern auch die jeweilige Produktion war enorm teuer, weil enorm aufwendig. Das ist nach und nach alles wieder in der Versenkung verschwunden, weil man gemerkt hat „die lesen das zwar, aber die bezahlen nicht so viel dafür, dass es sich irgendwann tragen würde“, also ist man wieder zurückgegangen zum klassischen e-paper. Das klassische e-paper boomt im Moment aus verschiedenen Gründen. Das ist zwar erstmal nur ein primitives PDF, was natürlich mit ein paar technischen Anreicherungen, natürlich habe ich da Links und kann irgendwo drauf klicken, lande dann auf einer Bildergalerie und so. Das macht man schon, aber im Grunde genommen ist es von der Haptik her etwas Digitales, was ich aus der physischen Welt des Papieres kenne. Das hat eben auch ein paar Vorteile. Es hat z. B. den Nachhaltigkeitsaspekt. Es gibt immer mehr Verlage, die sagen „unsere Leser wollen kein Papier mehr aus Nachhaltigkeitsgründen. Die wollen ein e-paper haben, weil es besser transportabel ist“, sie können auf ihrem Tablet 100 e-papers mitnehmen, gar kein Problem, aber sie können nicht 100 Zeitschriften mit in den Urlaub schleppen und es ist aus Umweltgründen vermeintlich besser, ob es wirklich so ist, weiß man natürlich nicht so genau, je nachdem welche Studie man da liest und das sind so Bewegungen, die im Digitalbereich und im Publishing-Bereich so dadurch laufen und dann hat man sich in den letzten Jahren stark auf das Thema Paid Content und Subscriptions konzentriert und man schaut dann auf die Player, die extrem erfolgreich sind – ich will nicht sagen extrem erfolgreich – die einfach erfolgreich sind, weil sie oben stehen und wenn man sieht, das bild.de mittlerweile bei 600.000 Abonnenten ist und die Konzernschwester WELT bei über 200.000. Das sind aber die Top-Player im deutschen Markt und wenn man sieht, dass früher von der Print-BILD zu Hochzeiten im Kiosk, keine Ahnung, 10 Mio. Stück verkauft worden sind, dann ist man da schon noch ein ganzes Stück weit von entfernt und die Frage ist, ob man das über die Digital-Subscriptions jemals wieder das Level erreicht. Also hat man da einerseits die Masse, wo man mit günstigen Preisen versucht viele Abos zu generieren. Dann hat man andere, die „hochwertigeren“ Content hochpreisiger anbieten. Neue Newsformate wie bspw. Gabor Steingart und das sind so die Bereiche, in denen sich die Bereiche ein bisschen finden müssen. Eine wichtige Barriere ist eingerissen, nämlich keine Angst mehr vor der Paywall. Das Thema ist durch, das braucht man nicht mehr zu verargumentieren, sondern dass das ein Erfolgsmodell sein kann, haben alle Verlage verstanden, aber bei vielen krankt es alleine daran, weil eben die Technologie bspw. noch gar nicht ist, weil man da eben kein Investment in Technologie gemacht hat, überhaupt nicht die Möglichkeit da ist außer einem simplen Log-In, wo man dann sagt „hier kannst du jetzt unser e-paper runterladen“, aber das ist eben keine intelligente Paid Content Strategie. Wenn ich die umsetzen will und möchte meinem Kunden eben digitale Bezahlinhalte anbieten auf einem Weg, der smart ist, der auch die einzelnen Kiosk-Verkäufer abholt und der auch keine großen Hürden bedeutet, die der Kunde überspringen muss, dann muss ich da eben in Technologie investieren und da sind jetzt viele Verlage, die jetzt erstmal versuchen wieder den Status Quo aufzuholen, um da mitzumachen und dann erstmal über ein Angebot zu haben, wo sie etwas verkaufen können, sozusagen ihren digitalen Kiosk erstmal vernünftig aufzubauen, weil für guten Inhalt die Leute offensichtlich bereit sind zu bezahlen und man braucht vor der Paywall keine Angst zu haben. Freiwillig bezahlen wahrscheinlich nur die Leser der TAZ in umfangreichem Maße und in anderen Medien muss man die Leser ein bisschen dazu zwingen, dass sie für die teuer erstellten Inhalte auch bezahlen. Das ist sozusagen die Besinnung auf das klassische Geschäft eines Verlegers. Dann muss man schauen, was haben die Verlage in den Jahren für einen großen Rückgang der Printerlöse noch für Geschäftsbereiche gehabt? Die hat man auch versucht in den Digitalbereich zu übertragen, bspw. ein Klassiker ist das ganze Thema Veranstaltungsmanagement, was viele Verlage als Einnahmequelle irgendwann mal erkannt haben und das ist jetzt nochmal verstärkt durch Corona stärker digitalisiert worden, indem man da Webinare oder digitale Konferenzen anbietet. Wenn ich in meine Community schaue, vielleicht auch meine Fach-Community als Verlag, sollte ich mir überlegen „welche Vorteile bietet denn das digitale Medium gegenüber dem bisherigen klassischen bedruckten Papier?“. Da gibt es gewisse Dinge, die kann ich eben nur im Digitalen abbilden, die will ich als Leser auch haben, dass ich da nicht irgendwo meine 20 kg gestapelte Zeitschriften durchsuchen muss, bis ich irgendwann einen speziellen Inhalt herausfinden kann, sondern da habe ich im Digitalen viel mehr Möglichkeiten auch automatisiert mithilfe von KI-Tools vielleicht automatisch generierte Specials anzubieten. Es ist ja oft so, der eine will mal ein Auto kaufen, der andere will ein Fahrrad kaufen, der andere braucht für sein Haus neue Fenster und der andere sucht neue Rezepte oder man hat ja im Leben immer so Phasen, wo man sich in irgendein Thema einarbeitet und ist auf der Suche nach wertvollen Inhalten. Das ist das Thema wie Stiftung Warentest auch erfolgreich Business macht, indem sie sagen „wir haben eine breite Palette an Informationen und haben immer für spezifische Zielgruppen genau das richtige“. Die einen suchen eben biologische Farben, um ihr Haus neu zu streichen und dann haben wir einen Test mit 20 Produkten und den kannst du bei mir kaufen. Das ist etwas, wenn ein Fachverlag bspw. sagt „unser Gebiet ist Sport“ und du möchtest jetzt neue Ausrüstung kaufen, dann können wir dir sozusagen auf KI-Methoden-basierte personalisierte Zusammenstellungen von Inhalten machen, die dich jetzt gerade interessieren, weil du bist weiblich und du hast die Größe und das Gewicht und du möchtest das und das machen. Guck mal, hier habe ich für dich ein personalisiertes Special, so eine Art Zeitschriftenspecial, die wir früher auch am Kiosk gefunden haben, die natürlich nur sozusagen einmal für die breite Masse erstellt worden sind, kann man jetzt eben mit Technologie automatisiert personalisieren. Man kann dann dort auch noch Anzeigen mit automatisiert einbauen auch mithilfe von KI-Tools und kann sagen „da kommt einer auf meine Seite, der sucht jetzt neue Ausrüstung zum Skifahren“ und dem sage ich „wenn du hier einen Betrag X bezahlst, kriegst du von mir ein 20-seitiges Special zum Thema Skiausrüstung“. So etwas kann man heute mit Technologie automatisieren und sowas kann ein Produkt sein, für welches dann der Leser bereit ist auch zu bezahlen.


00:41:41

Benjamin Kolb: I also believe that the fear of the paywall has been overcome. We also had free content in typical news pages. We've just seen an increase in e-paper, but I think the final product, where customers are really ready to become subscribers to a large extent, is still a bit lacking, because transferring pure e-paper to digital is of course good, because you then save on paper, but the possibilities are not exhausted in digital. But it's very interesting because it's a content bundle, for which it's understood that you pay a subscription. With news sites, it's not quite clear yet. If I only unlock Plus articles, what to expect there. I think there is still great potential there. To find products that are really cool for the readers, for which they are willing to pay such a subscription.


00:42:26

Dr. Marcus von Harlessem: In the digital sector, I can of course offer things via product databases that are not possible on paper. I can offer filter options, I can offer further content. If someone says they want to buy a new washing machine, but it has to have low water consumption, or it has to have a volume of at least 10 kilograms. But if I look at the target groups that the publishers have and then they say "we have the expertise, we have the customers, we also have the contacts to the suppliers and we can offer added value, especially in the area of information and selection processes in the digital sector, which are not possible on paper", then they don't have to be afraid to simply introduce a paywall. If someone says "I'd like to buy something new," for example a new bicycle for a lot of money or a new television set, I know that not only has the press release been printed in a new form, but they've really looked at it, they can really tell me the advantages and disadvantages of such products, then of course I'm also prepared to pay money for them at that moment, and publishers should try things like that and use the digital space for such new products.


00:43:39

Christian Kallenberg: Super. Marcus, thank you so much for the deep insights. That was really a deep dive. I'm excited to see what we talk about in the next five years, where the trends are going and what has come to pass from what we talked about today.


00:43:55

Benjamin Kolb: Thank you very much Marcus.


00:43:56

Dr. Marcus von Harlessem: Yes, thank you also for your time.  


00:43:59

Christian Kallenberg: If you, dear listeners, enjoyed this episode, I would be delighted if you subscribe to us on the podcast platform of your choice.