from dbarray(3) {
[0]=>
array(2) {
["deepdive"]=>
array(3) {
[0]=>
object(Content)#881 (15) {
["_e":"CComponent":private]=>
NULL
["_m":"CComponent":private]=>
NULL
["_errors":"CModel":private]=>
array(0) {
}
["_validators":"CModel":private]=>
NULL
["_scenario":"CModel":private]=>
string(6) "update"
["_new":"CActiveRecord":private]=>
bool(false)
["_attributes":"CActiveRecord":private]=>
array(17) {
["cID"]=>
int(192931)
["cPID"]=>
string(4) "mabo"
["cUID"]=>
string(10) "0000033826"
["cScenario"]=>
string(11) "fachartikel"
["cPublished"]=>
int(1)
["cPublishedUID"]=>
string(10) "0000021953"
["cDeleted"]=>
int(0)
["cReferenceId"]=>
NULL
["cDate"]=>
string(19) "2023-12-01 10:50:00"
["cLastUpdate"]=>
string(19) "2023-11-30 08:51:05"
["cTitle"]=>
string(66) "Datengetriebenes Marketing: Die 8 Mythen des Server Side Trackings"
["cTeaser"]=>
string(141) "Datengetriebenes Marketing ist die Königsdisziplin, wenn es darum geht, digitale Maßnahmen effektiv und effizient zu planen und zu steuern."
["cText"]=>
string(10472) "
Der Erfolg hängt von der Qualität der Daten ab. Diese jedoch ist permanent bedroht: Datenschutzrechtliche Vorgaben, sensibilisierte Nutzer und intelligente Tracking Prevention (ITP) ruinieren Online-Marketern die Datenbasis. Mit serverseitigem Tracking glauben viele Unternehmen, ein Schlupfloch für ihre Webanalyse gefunden zu haben – ohne zu merken, auf welche Mythen sie dabei hereinfallen.
Server Side Tracking übermittelt anders als beim Client Side Tracking keine Nutzerinteraktionen direkt aus dem Browser oder der nativen App an die genutzten Analytics Tools, sondern schaltet einen Server (Proxy) zwischen. Ziel ist es, den unmittelbaren Datenaustausch zwischen den Geräten der Nutzer und den Tracking-Diensten zu vermeiden. Stattdessen werden die Daten über die Domain des Unternehmens erfasst und an den Proxy gesendet, der die Informationen vorverarbeitet, indem er etwa die IP-Adresse kürzt oder nutzerbezogene IDs entfernt. Erst dann gelangen die anonymisierten oder pseudonymisierten Daten an die vom Unternehmen genutzten Analyse- oder Werbesysteme. Die erfassten Daten lassen sich also so weit modifizieren und einschränken, dass nur die nötigsten Informationen an diese Tools weitergegeben werden, um die EU-Datenschutzvorgaben zu wahren.
Das sind die Fakten zum serverseitigen Tracking. Doch ringsherum ranken sich etliche Mythen, von den sich die folgenden acht am hartnäckigsten halten:
Mythos #1: Server Side Tracking ist wie First-Party-Tracking.
Der erste und wohl gravierendste Mythos zum serverseitigen Tracking ist der Irrglaube, es handele sich um einen „eigenen“ zwischengeschalteten Tracking-Server. Denn „eigen“ heißt nur, dass dieser unter der Unternehmensdomain läuft, zum Beispiel data.meinshop.de für meinshop.de. Dabei gehört er in der Regel einem Drittanbieter, das Unternehmen betreibt den Server nicht selbst. Oftmals sind es Tag Management Systeme (TMS), die eine derartige Proxy-Funktion erfüllen, aber von einem Drittanbieter betrieben werden. Es handelt sich also eher um eine Verschleierung dieses zwischengeschalteten Systems. Somit sieht es zwar aus wie First-Party-Tracking, ist aber faktisch Third-Party-Tracking.
Mythos #2: Ad- und Tracking-Blockern lassen sich umgehen.
Heutzutage setzen laut Statistika über 35 Prozent der Internet-Nutzer Browser-Plugins wie Ad- und Tracking-Blocker ein, erfahrungsgemäß sind allerdings nur 10 bis 20 Prozent – was immer noch viel ist, und die Datenbasis reduziert. Durch die Proxy-Verschleierung lassen sich unter Umständen einige Plugins und sogar manche browserseitigen ITP-Technologien umgehen, aber sicher nicht alle: Zahlreiche Anti-Tracking-Mechanismen erkennen serverseitiges Tracking ebenso gut wie clientseitiges Tracking. Hier gilt es, zu jeder Zeit mit technologischen Innovationen zu rechnen.
Mythos #3: Sie behalten stets die Datenhoheit.
Zwar haben Marketer über die Proxy-Konfigurationen die Hoheit darüber, welche Daten sie an die Tracking- und Werbesysteme übermitteln, aber wenn der Tracking-Anbieter auf die Daten zugreifen oder sie sogar selbst zur websiteübergreifenden Profilbildung oder eigenen Marketingzwecken nutzen kann, ist die Datenhoheit nur ein Schein: Die Kontrolle über die erhobenen Daten hat dann der Proxy-Anbieter. Der Online-Marketer verfügt über keinerlei Einfluss oder Kontrollmöglichkeiten in Bezug auf die Datenverwertung, sobald der Tracking-Anbieter diese für eigene Zwecke nutzt. Marketer müssen also explizit darauf achten, wer die Daten am Ende wie verarbeitet. Das müssen Webseitenbetreiber dann auch gegenüber den Nutzern transparent darlegen.
Mythos #4: Sie benötigen keine Einwilligung.
Die Einwilligung der Nutzer wäre nur dann obsolet, wenn das Tracking
a) keine Daten von den Endgeräten, wie beispielsweise die Bildschirmauflösung, auslesen,
b) auch keine Cookies oder ähnliche Techniken zur Wiedererkennung der Nutzer einsetzen und
c) das Tracking-System die Daten nicht zu eigenen Zwecken verwenden würde.
Wird aber wie beim Google Tag Manager die Bildschirmauflösung standardmäßig erfasst, ist bereits eine Einwilligung erforderlich. Ebenfalls einwilligungspflichtig ist es, wenn der Tracking-Anbieter die Daten für eigene Zwecke verwendet oder die Informationen über verschiedene Webseiten hinweg verknüpft. Das Problem mit der Einwilligung: Laut Consent-Studie 2023 von etracker liegt die Einwilligungsrate bei rechtskonformer Consent-Gestaltung bei nur 17 Prozent, was die Grundlage für datengetriebenes Marketing erheblich reduziert.
Mythos #5: Die Anonymisierung macht das serverseitige Tracking rechtskonform.
Eine vollständige Anonymisierung umfasst laut Rechtsprechung des Europäischen Gerichtshofs (EuGH), dass jegliche Rückverfolgbarkeit auf die betroffene Person durch den Datenverarbeiter unmöglich sein muss. Folglich müssten neben der IP-Adresse auch sämtliche IDs – etwa Client-ID, Device-ID, User-ID und Session-IDs – und sogar der Zeitstempel gelöscht oder transformiert werden, um die Identifikation einer Person gänzlich auszuschließen. Dies ist in der Realität jedoch so nicht umsetzbar.
Mythos #6: Sie haben beste Datenqualität.
Fataler noch als die Reduktion der Stichprobe ist die Verzerrung der Daten durch Einwilligungen (sog. Consent Bias). Nutzer sind generell sehr wechselhaft im Zustimmen oder Ablehnen von Cookies – anders als etwa bei der Wahl politischer Parteien: Nutzer stimmen dem Tracking heute spontan zu, lehnen es morgen aber auf derselben Website genauso spontan ab. Dieses inkonsistente Einwilligungsverhalten sorgt dafür, dass sich die Datenbasis verzerrt und sowohl Kampagnenerfolgsparameter als auch andere steuerungsrelevante KPI beliebig über- oder unterschätzt werden. Daran ändert auch ein serverseitiges Tracking nichts. Und auch, wenn Nutzer keine Ad- und Tracking-Blocker verwenden oder sich einige davon durch das Server Side Tracking umgehen lassen, bleibt die Problematik an sich bestehen: Die Consent-Pflicht beschneidet und verzerrt die Datenbasis soweit, dass eine gezielte Online-Steuerung unmöglich wird. Hinzu kommt, dass auch eine vollständige Anonymisierung, so wie Datenschützer sie fordern, die Webanalyse-Daten völlig unbrauchbar macht.
Mythos #7: Sie können weiterhin US-Dienste und Retargeting einsetzen.
Ein Vorteil des serverseitigen Tracking bestand für viele Marketer darin, dass durch die serverseitige Anonymisierung und Pseudonymisierung – die ja in der Form gar nicht praktikabel ist –, den Anforderungen der DSGVO genüge getan war, um die erfassten Daten auch in den USA oder von einem US-Tool weiterverarbeiten zu dürfen. Mit dem seit Juli 2023 gültigen Data Privacy Framework scheint dies nun überflüssig. Dabei stehen Datenschützer bereits in den Startlöchern, um auch diesen Angemessenheitsbeschluss aufgrund seiner Widersprüchlichkeit zur Rechtslage zu kippen. Aber selbst mit dem Data Privacy Framework sind bestimmte Verfahren, zum Beispiel Retargeting, ohne Einwilligung des Nutzers aus Datenschutzgründen nicht gestattet.
Mythos #8: Server Side Tracking ist leicht zu implementieren und kostengünstig
Das genaue Gegenteil ist der Fall! Die Implementierung ist für Online-Marketer sehr aufwendig, da jedes Datum identifiziert werden muss, das modifiziert werden soll: von einfachen Nutzer-IDs über URLs, die beispielsweise Namen oder Nutzer-IDs enthalten, bis hin zu technischen Feinheiten wie Zeitstempeln oder IP-Anonymisierung, auch für das neue Internet Protokoll Version 6 (IPv6). Der Implementierungsaufwand entkräftet auch das Argument der Kostengünstigkeit: Viele Online-Marketer halten Server Side Tracking für ein Schnäppchen, weil sie damit eine kostenlose Tracking-Lösung nutzen können. Richtig ist aber, dass moderne Tracking-Systeme meist kostengünstiger sind als die Proxy-Lösung selbst und keiner komplexen Implementierung bedürfen. Obendrein machen sich Unternehmen beim serverseitigen Tracking vom Proxy-Anbieter abhängig. Doch was, wenn der Anbieter insolvent geht oder aufgekauft wird? Die Risiken eines Ausfalls oder einer erforderlichen Neuimplementierung lassen sich minimieren, wenn das Unternehmen auf einen seit Jahren etablierten Tracking-Anbieter statt auf ein „Serverside Startup“ setzt.
Fazit: Die hybride Wahrheit
Statt auf die Mythen des Server Side Tracking hereinzufallen, können Marketer es in eine hybride Lösung integrieren: Das heißt, sie kombinieren auf der Client-Seite ein einwilligungsfreies, cookie-loses und datenschutzkonformes Session-Tracking mit dem Tracking unter der eigenen Domain. So lassen sich Visits und Conversions zuverlässig erfassen – und zwar ohne Einwilligung –, während die serverseitige „Verschleierung“ Tracking-Blocker abwehrt. Dies maximiert die Stichprobe und gleichzeitig die Datenqualität. Somit können Online-Marketer auch die automatisierte Gebotssteuerung bei Google, Bing und Facebook via Upload mit datenschutzkonformen Conversion-Daten versorgen. Entscheidend für den Erfolg einer Hybridlösung ist jedoch das Tracking-System selbst, das genau folgende Anforderungen erfüllen muss:
Eine intelligente Vorverarbeitung der Conversion-Daten für den Upload in Werbesysteme bieten,
Tracking unter der Unternehmensdomain verorten,
Cookie-less Tracking gestatten,
Die langfristige Rechtssicherheit durch seinen EU-Standort gewährleisten.
Erst dann hält Server Side Tracking wirklich, was es verspricht!
Für Unternehmensblogs lautet die Frage aller Fragen stets: Wie viele Leads hat ein bestimmter Blogartikel generiert? Manche Kennzahlen, wie etwa die Anzahl der Besuche pro Beitrag, sind auf einen Blick ersichtlich. Um Ihrem Blog – und Ihrem Unternehmen – Auftrieb zu verleihen, ist es mit solch einfachen Kennzahlen jedoch nicht getan.
Stattdessen sollten Sie messen, wie sich der Blog konkret auf Ihren Marketing-Funnel auswirkt. Auf dieser Grundlage können Sie dann eine umsetzbare Strategie für die Zukunft entwickeln.
Wenn Sie gerne die Kennzahlen Ihres Blogs analysieren möchten, aber nicht genau wissen, wie Sie dabei vorgehen müssen, dann sind Sie hier genau richtig. In diesem Beitrag gehen wir einen Beispielbericht durch und leiten potenzielle Maßnahmen ab, die die Blog-Performance verbessern.
Berichterstattung über durch den Blog generierte Leads
Häufig können Marketer und Marketerinnen zwar die Gesamtzahl der generierten Leads berechnen, wissen aber nicht, wie viele Kontakte von einem einzelnen Beitrag stammen. Jedoch nur mithilfe dieser spezifischen Daten können Sie die besten Themen und Formate für Ihre Beiträge auswählen.
Um an diese Daten zu kommen, sollten Sie in Ihrer Marketingsoftware einen sogenannten Attribution-Bericht erstellen. Werfen wir gemeinsam einen Blick auf einen Beispielbericht, der uns Aufschluss darüber gibt, wie viele Leads durch Blogbeiträge eines Unternehmens generiert wurden.
Auf welche Kennzahlen kommt es an?
Je nachdem, wie viele Blogbeiträge Sie pro Monat verfassen, kann Ihr Bericht recht lang werden. Wählen Sie jeweils 3-5 ihrer erfolgreichsten und schlechtesten Beiträge aus, um mit Ihrer Analyse loszulegen.
Der Einfachheit halber widmet sich dieser Artikel den erfolgreichsten Beiträgen. In Ihrer eigenen Analyse sollten Sie aber alle aufgeführten Schritte auch auf die schwächsten Beiträge anwenden.
In unserem Beispielbericht haben folgende Beiträge am besten abgeschnitten:
10 Fehlannahmen bei Big Data
Wachstumsbericht: Textilherstellung
Webinar: Fallstudie zur gewonnenen Wahl
Webinar: Eine Einführung in Big Data & Algorithmen
Als nächstes stellen Sie sich die folgenden Fragen:
Hatten die Beiträge ähnliche Themen?
Beginnen Sie mit thematischen Gemeinsamkeiten der Artikel. Gibt es beliebte Themen, die in allen Beiträgen auftauchen, die besonders viele oder wenige Leads generiert haben? Überrascht es Sie, dass es bestimmte Themen, von deren Zugkraft Sie überzeugt waren, nicht unter die erfolgreichsten Beiträge geschafft haben?
Sie müssen ein Gespür dafür entwickeln, welche Themen bei Ihrer Zielgruppe gut ankommen und welche weniger. Denn nur so können Sie künftige Beiträge auf deren Interessen abstimmen und eine bessere Performance erzielen.
Im obigen Beispielszenario sehen wir, dass es in zwei der Blog-Beiträge um Big Data und in den anderen zwei Beiträgen um Datenanalysen in Excel geht. Das zeigt, dass diese Themen gut ankamen und für zukünftige Inhalte berücksichtigt werden sollten, da sie die Lead-Generierung ankurbeln.
Hatten die Beiträge ähnliche Formate?
Auch das Format eines Blogbeitrags kann einen Einfluss darauf haben, ob die Leserschaft zu Leads konvertiert oder nicht. Geschmäcker sind verschieden: Manch einer bevorzugt übersichtliche Beiträge mit vielen Aufzählungen, andere mögen visuell ansprechende Artikel mit Infografiken oder SlideShare-Präsentationen.
Begutachten Sie deshalb Ihre Blog-Inhalte sehr genau und versuchen Sie herauszufinden, ob ein spezielles Format bei Ihrer Zielgruppe besonders gut ankommt. So können Sie ermitteln, wie Ihre Zielgruppe Inhalte und Informationen konsumiert.
In unserem obigen Beispiel ist der Blog-Beitrag mit der besten Performance sehr visuell gestaltet. Die anderen drei Beiträge enthalten jedoch viele praktische Tipps und Anleitungen. Somit ist es sicherlich sinnvoll, noch weitere Beiträge in diesem Stil zu veröffentlichen (und bei Gelegenheit einige visuelle Inhaltselemente einzustreuen).
Waren die Beiträge ungefähr gleich lang?
Vermutlich haben Sie eine ganze Reihe von Ideen und Informationen, zu denen Sie Ihren nächsten Beitrag verfassen könnten. Doch wie viel ist zu viel oder zu wenig? Analysieren Sie die Länge der ausgewählten Beiträge im Hinblick auf die Conversion Rates: Bei welcher Länge konvertieren die meisten Leser und Leserinnen? Vielleicht stellen Sie fest, dass Sie mit längeren Beiträgen weniger Leads generieren. Daraus ließe sich womöglich schließen, dass ein Großteil Ihrer Leserschaft nicht bis ans Ende Ihrer Beiträge kommt, wo sich die Calls-to-Action befinden.
Waren in den Beiträgen andere Medienformate eingebettet?
Blogbeiträge enthalten häufig andere Inhaltsformen, zum Beispiel Social-Media-Beiträge, Videos, SlideShares oder Infografiken. Auf diese Weise können Sie ganz bequem zusätzliche Inhaltselemente in Ihrem Blog teilen, ohne jeweils einen gesamten Beitrag verfassen zu müssen. Die eingebetteten Medien können durchaus den Hauptteil Ihres Beitrags ausmachen.
Im obigen Beispiel beinhalteten zwei der Beiträge die Aufnahme eines Webinars. Abgesehen von den Themen selbst könnte also auch das Video- bzw. Webinar-Format von großem Interesse für die Zielgruppe sein.
Welche CTAs wurden in den Beiträgen verwendet?
Das wichtigste Element, um mit einem Blogbeitrag möglichst viele Conversions zu erzielen, ist ein gut durchdachter Call-to-Action (CTA). Nehmen Sie die CTAs der bestplatzierten Beiträge genauer unter die Lupe und suchen Sie nach Gemeinsamkeiten.
Im besten Fall hängen die CTAs thematisch mit den Artikeln zusammen, in denen sie vorkommen. Sie könnten auch in denselben Inhalten verschiedene CTAs ausprobieren, um herauszufinden, welche davon besonders gut ankommen.
In unserem Beispiel fanden sich einige CTAs, die sich auf das Thema „Big Data“ bezogen. Denn Big Data war ja das Thema der zwei besonders erfolgreichen Beiträge. Nun analysieren wir genauer, welche CTAs in den Beiträgen platziert wurden, die eine hohe Conversion Rate aufweisen. Wenn es immer der gleiche CTA war, wissen wir jetzt, dass dieser gut funktioniert. Wenn es verschiedene CTAs waren, sollten wir ermitteln, ob es Gemeinsamkeiten etwa bei der Farbe oder bei den Keywords gibt.
Wo waren die CTAs platziert?
Außerdem wollen wir herausfinden, wo die CTAs innerhalb der Beiträge platziert waren. Befinden sie sich am Ende des Artikels? In der Seitenleiste? Waren es Slide-In-Boxen? Befinden sie sich in der Mitte der Beiträge? Diese Informationen helfen uns, zu verstehen, an welcher Stelle die CTAs die meiste Aufmerksamkeit auf sich ziehen und die besten Ergebnisse erzielen.
Enthielten die Beiträge Links zu einer Landing-Page? Wenn ja, wo befanden sich diese?
Verlinken Sie in Ihren Beiträgen Landing-Pages oder andere Inhalte auf Ihrer Website? In diesem Fall sollten Sie für die wichtigsten Links Tracking-URLs einrichten, bevor Sie die Beiträge veröffentlichen. So können Sie später nachvollziehen, ob darauf geklickt wurde.
Gehen Sie in der Analyse noch einen Schritt weiter und schauen Sie sich die Platzierung der Links innerhalb Ihrer Beiträge genau an. Wenn nur auf jene Links geklickt wird, die sich am Anfang eines Beitrags befinden, könnten Sie daraus schließen, dass Ihre Leserschaft nicht den gesamten Text durchgeht. Außerdem: Platzieren Sie die Links zu den wichtigsten Seiten (wie zum Beispiel Ihre Lead-Magnete) eher in der ersten Hälfte eines Beitrags. So erhöht sich die Wahrscheinlichkeit, dass jemand darauf klickt.
Wenn hingegen eher auf die Links am Ende Ihres Blog-Beitrags geklickt wird, dann können Sie davon ausgehen, dass Ihre Leser und Leserinnen an zusätzlichen Informationen interessiert sind. Schließlich klicken sie auf weiterführende Links, nachdem sie Ihren Beitrag durchgelesen haben. Wie Sie sehen, gibt die Positionierung Ihrer Links Aufschluss über das Verhalten Ihrer Zielgruppe.
Wurden die Beiträge in bestimmten Kanälen beworben?
Wir haben uns bislang der Analyse der eigentlichen Blogartikel gewidmet. Es gibt jedoch noch andere Faktoren, die die Conversion Rates Ihrer Beiträge beeinflussen können.
So spielt beispielsweise der Kanal, in dem ein Beitrag beworben wird, eine wichtige Rolle. Bevor Sie die Links zu einem Artikel in den sozialen Medien veröffentlichen oder in einem Newsletter versenden, sollten Sie für jeden Werbekanal die richtigen Tracking-URLs einrichten. Auf diese Weise können Sie feststellen, ob Ihre Bloginhalte auf bestimmten Kanälen besonders gut ankommen und wie dort gewisse Themen oder Formate funktionieren.
Der Beitrag „10 Fehlannahmen bei Big Data“ wird vermutlich in den sozialen Medien die besten Ergebnisse erzielen, da hier konkrete Punkte zu einem aktuellen Thema kompakt rübergebracht werden. Der Beitrag „Wachstumsbericht: Textilherstellung“ sollte vielleicht eher per E-Mail verteilt werden, da es sich hier um ein Nischen-Thema handelt und es nicht üblich ist, einen ganzen Bericht in den sozialen Medien zu teilen. Auch das Thema, das Format und die Länge eines Beitrags können Einfluss auf seine Performance auf den unterschiedlichen Kanälen haben.
Was sind die nächsten Schritte? Experimentieren Sie!
Wenn Sie Ihre Blogbeiträge anhand der beschriebenen Schritte analysieren, können Sie tiefgreifende Erkenntnisse zu Ihrer Performance gewinnen. Trotzdem gilt: Probieren geht über Studieren. Der beste Weg, um herauszufinden, was gut und was eher schlecht funktioniert, sind Experimente. Also: Experimentieren Sie!
Versuchen Sie, eindeutige Schlussfolgerungen aus Ihren Analysen zu ziehen und setzen Sie diese bei der Erstellung künftiger Inhalte um. Optimieren Sie Ihre Beiträge anhand der gewonnenen Daten und überprüfen Sie nach einer Zeit, ob sich die Zahlen verbessert haben. Nur durch kontinuierliche Analyse und Tests können Sie herausfinden, ob Ihre Schlussfolgerungen richtig waren.
Vor ein paar Tagen: Ich möchte mit jemandem aus der Zentrale eines größeren Unternehmens sprechen, hab aber seine Durchwahl nicht zur Hand. Also ab auf die Website. Mit Anrufern will man wohl nichts zu tun haben, denn, wie so oft, eine Telefonnummer findet nur der, der das Impressum durchwühlt. Es begrüßt mich ein Bot mit seinem Auswahlprogramm. Mein nicht einmal sehr besonderer Wunsch ist, auch wie so oft, nicht dabei. Ich drücke notgedrungen die eins – und lande im Callcenter. Der Mann dort will mir was verkaufen, weiterverbinden kann er mich nicht.
„Es müsste aber doch möglich sein ….“, beginne ich zaghaft. Er schmeißt mich aus der Leitung. Nun tritt der Zufriedenheitsbefragungsbot in Aktion. Nur vier schnelle Fragen, säuselt er, bitte wählen Sie zwischen eins, sehr gut, und sechs, ungenügend. Ich wähle vier Mal die sechs. Er bedankt sich überschwänglich und versichert mir herzlich, wie sehr ich dem Unternehmen mit meinen Antworten geholfen habe. Geholfen? Ich gab in allem die schlechteste Note, doch niemand will wissen, warum.
Zahlensammeln als Selbstzweck – ohne jeden Erkenntnisgewinn
So ist es bei Befragungen oft: Das Unternehmen will keine Gründe, sondern nur Zahlen. Da wird eine riesige Maschinerie aufgesetzt und in Gang gehalten, die enorme Kosten verursacht, doch keinerlei Wertschöpfung bringt. Keine Painpoints werden gesucht und gefunden, die sich beheben ließen, keine Stärken herausgefiltert, die man stärken könnte, niete, nada, nichts. Nur Zahlen werden gesammelt, die in Statistiken eingepflegt werden, um sie an jemandem zu reporten, der die nicht einmal liest. Das sind doch alles kluge Leute in den Führungsetagen, sollte man meinen, wieso machen die das?
„Wegen der Vergleichbarkeit“, ruft man mir zu. Vergleichbarkeit? Was soll das bringen? Man weiß zwar dann, dass man besser oder schlechter wurde, doch man weiß nicht - und nur das ist entscheidend - warum. Was kann das nicht alles bedeuten, wenn der Befragte eine eins gibt? Oder im schlimmsten Fall überall eine sechs? Man hat zwar einen Wert, aber keinen blassen Schimmer, was unbedingt besser gemacht werden müsste. Auf die richtigen Gründe zu kommen ist dann wie Stochern im Nebel. So werden Optimierungsprogramme zum reinen Ratespiel. Das ist doch absurd!
Kennzahlengier? Durch Wiegen allein wird kein Schwein fett
Eine Menge Kennzahlen mögen zwar interessant sein, doch Erkenntnisse bringen sie nicht. Vieles ist Rechtfertigungs- und Selbstbeschäftigungsbürokratie – also eine Riesenverschwendung an Geld, Zeit und Ressourcen, um die Wichtigkeit der eigenen Abteilung zu untermauern. Natürlich ist Messbarkeit unerlässlich, um die Spreu vom Weizen zu trennen. Daten sind also genauso wie KPI’s überaus wichtig. Nur darf man sie nicht für den Stein der Weisen halten und ihnen blind vertrauen.
Eine Generalinventur wäre oft überfällig. Was muss unbedingt bleiben? Und was kann alles weg? Weniger Kennzahlenhype und halb so viele Reportings bringen doppelt so viel Zeit für die Kunden. Für Kontrollfreaks ist es allerdings praktisch, sich hinter Zahlen zu verschanzen. Solange es um die Vermessung des Menschen geht, braucht man sich nicht mit Herz und Seele befassen. Doch Menschen sind keine Nullen und Einsen. Sie sind auch keine Datenpakete. Und ganz gewiss sind sie kein bürokratischer Vorgang, der sich fix vordefinierten Steuerungsmechanismen unterwirft.
Wer auf Zahlen fixiert ist, denkt nur noch in Zahlenkategorien
Das Wichtigste im Kundenbeziehungsmanagement sind nicht Daten, sondern es ist der Mensch. Insofern muss sich Zahlenverständnis mit sozialer Intelligenz und gesundem Menschenverstand paaren. Doch die meisten Manager kennen ihre Kunden nur noch von Charts und auf dem Papier. Sie haben sich ihnen völlig entfremdet und Messpunkte aus ihnen gemacht. Endlos brüten sie über Daten und nennen das Customer Insights. Wie es den Leuten tatsächlich im wahren Leben ergeht, das haben sie nie erforscht.
Den Datensalat, der auf ihren Dashboards erscheint, den halten sie für die ganze Wahrheit. Doch das Kaufverhalten der Konsumenten ist bei weitem nicht so gläsern, wie uns die Software-Industrie vorgaukeln will. Smarte Konsumenten ducken sich mithilfe passender Tools ganz gezielt weg. So bleibt das meiste, das die Menschen denken, sagen, kaufen und tun, den Cookies und Crawlern verborgen.
Wie das aber bei Analysetools immer so ist: Von findigen Anbietern sind sie schnell programmiert, wenn sie ein Geschäftsfeld darin wittern. Und Gierigen kann man das Blaue vom Himmel erzählen. Indes darf die Daten-Goldgräberstimmung nicht dazu verleiten, dass das Individuum zu einem rein technokratischen Vorgang verkommt. Dort nämlich, wo nur harte Fakten zählen, werden soziale Faktoren negiert. Datenmanie killt Empathie. Wer auf Zahlen fixiert ist, denkt nur noch in Zahlenkategorien.
Unsaubere Kennzahlen sind gefährlich wie Irrlichter im Moor
Schon mancher hat sich im Zahlenrausch taumelnd verirrt. So ist vielerorts nicht mal bekannt, auf welcher Basis Algorithmen ihre Entscheidungen treffen und wie sie zu ihren Ergebnissen kommen. Sie sind eine Blackbox, in die man nicht eingreifen kann. Egal! Ungeprüft nimmt man ihren Output für bare Münze. Dabei schaffen Algorithmen oft ein fragwürdiges und meist ein unvollständiges Bild. Unser Online-Verhalten erfassen sie ziemlich bruchstückhaft. Unser Offline-Verhalten erfassen sie gar nicht. Und was sie lernen, stammt von ebenso fehlerhaften Vergangenheitsdaten.
Doch solche Bruchstücke der Wirklichkeit halten Kennzahlenjunkies für die vollständige Wahrheit. Was sich nicht messen lässt, wird schlichtweg negiert, so, als ob es nicht existiert. Zum Beispiel werden Online-Formulare von vielen Usern absichtlich falsch ausgefüllt. Bei Online-Befragungen wird aus Bequemlichkeit meist der oberste Punkt angeklickt. Das so entstandene Falsche fließt in Berechnungen ein, die zu falschen Schlüssen und dann zu falschen Aktionen führen. Oder es wird gezielt manipuliert, indem der Befrager das erwünschte Ergebnis an die oberste Stelle rückt.
Kennzahlenmanie kann zu bizarren Entscheidungen führen
Das betrifft alle Bereiche des Unternehmens. So gelten im Human-Resources-Bereich vielfach die Weiterbildungstage pro Mitarbeiter als Kennzahl für erfolgreiche Personalentwicklung. „Sie haben die vorgeschriebenen Weiterbildungstage noch nicht gemacht. Suchen Sie sich einfach irgendwas raus, damit wir das abhaken können,“ heißt es dann. Das ist doch absurd! Man misst das wieviel, die Quantität. Was damit für das Unternehmen erreicht wird, also die Qualität, wird nicht erhoben.
Zudem lässt man sich gern von getürkten Metriken blenden. Pure Reichweite scheint den zählwütigen Managern oft der wichtigste Faktor zu sein. Auf diese Weise wird man zur leichten Beute all derer, die aus Eigennutz tricksen und manipulieren. Das ist ganz leicht – und auch nicht teuer. Zum Beispiel kosten Likes, Follower und Bewertungen aus der Feder von Bots selbst in hoher Stückzahl nur ein paar Hundert Euro.
Durch eine passende Zahlenauswahl lässt sich jedes Ergebnis optisch verbessern. So wird der Umsatz im Onlinemarketing meist vor Retouren ausgewiesen, obwohl die teils bis zu 40 Prozent betragen. Über eine geeignete Auswahl der Fragen sowie der Befragten und/oder der Befragungszeitpunkte kann man ein favorisiertes Ergebnis vorkonstruieren. Und durch eine geeignete Interpretation der Ergebniszahlen lässt sich fast jedes gewünschte Resultat herausdestillieren. Was nicht passt oder der eigenen Position widerspricht, wird verschwiegen und fällt unter den Tisch.
Kennzahlen geben dem Management die Illusion der Kontrolle
Wo kommt die Fixierung auf Zahlen eigentlich her? Sie gibt Managern die Illusion der Kontrolle. So werden bergeweise Reportings, Kennziffern, Statistiken und Indikatoren erhoben. Doch Zahlen sagen, wie dargelegt, meist nicht die Wahrheit. Denn:
Erstens ist die finale Ausbeute immer nur so gut, wie das zuvor eingefütterte Ausgangsmaterial. „GIGO“ (Garbage in, Garbage out) wird dieses Prinzip in der Informatik genannt. Eine vollständige Analyse ist gar nicht möglich, weil vieles unerfassbar ist, manches lückenhaft bleibt und anderes einfach nicht stimmt.
Zweitens können Wunschdenken, falsche Fragestellungen, interessengeleitete Abfragezeitpunkte oder andere Manipulationen zu verfälschten Messergebnissen führen. Und diese unterliegen schließlich noch der Gefahr (beabsichtigter) Fehlinterpretationen im Wirrwarr zwischen Korrelationen und Kausalität.
Drittens sind Zahlen oftmals das Resultat von (bonifizierten) Abteilungszielen, erzwungenen Lügen, persönlichen Interessen und eigennützigen Motivationen. Eine einzige gezielt eingesetzte manipulierte "vorstandstaugliche" Kennzahl kann über das Schicksal von Unternehmen entscheiden.
Fazit: Als Ergebnis aus Unvollständigkeit, Eingabefehlern und Systembetrug ist – bei genauer Betrachtung - nahezu jede ermittelte Kennzahl vielleicht ein bisschen richtig, aber hauptsächlich falsch. Die große Gefahr: Zahlen legitimieren. Selbst dann, wenn sie falsch sind, dienen sie als Entscheidungsgrundlage.
Ausbildung zum zertifizierten Customer Touchpoint Manager
Hervorragende Unternehmen liefern ihren Kunden an allen Touchpoints die beste Erfahrung über die gesamte Customer Journey hinweg. Dies kann aber nur dann wirklich gelingen, wenn ein bereichsunabhängig agierender Customer Touchpoint Manager die uneingeschränkte Rückendeckung einer ganz und gar kundenzentrierten Geschäftsleitung erhält. Und grad zur Info: Die nächste Ausbildung zum zertifizierten Customer Touchpoint Manager findet vom 6. bis 9. Sept. 2023 in München statt: https://www.anneschueller.de/ausbildung-touchpoint-manager.html
Der Erfolg hängt von der Qualität der Daten ab. Diese jedoch ist permanent bedroht: Datenschutzrechtliche Vorgaben, sensibilisierte Nutzer und intelligente Tracking Prevention (ITP) ruinieren Online-Marketern die Datenbasis. Mit serverseitigem Tracking glauben viele Unternehmen, ein Schlupfloch für ihre Webanalyse gefunden zu haben – ohne zu merken, auf welche Mythen sie dabei hereinfallen.
Server Side Tracking übermittelt anders als beim Client Side Tracking keine Nutzerinteraktionen direkt aus dem Browser oder der nativen App an die genutzten Analytics Tools, sondern schaltet einen Server (Proxy) zwischen. Ziel ist es, den unmittelbaren Datenaustausch zwischen den Geräten der Nutzer und den Tracking-Diensten zu vermeiden. Stattdessen werden die Daten über die Domain des Unternehmens erfasst und an den Proxy gesendet, der die Informationen vorverarbeitet, indem er etwa die IP-Adresse kürzt oder nutzerbezogene IDs entfernt. Erst dann gelangen die anonymisierten oder pseudonymisierten Daten an die vom Unternehmen genutzten Analyse- oder Werbesysteme. Die erfassten Daten lassen sich also so weit modifizieren und einschränken, dass nur die nötigsten Informationen an diese Tools weitergegeben werden, um die EU-Datenschutzvorgaben zu wahren.
Das sind die Fakten zum serverseitigen Tracking. Doch ringsherum ranken sich etliche Mythen, von den sich die folgenden acht am hartnäckigsten halten:
Mythos #1: Server Side Tracking ist wie First-Party-Tracking.
Der erste und wohl gravierendste Mythos zum serverseitigen Tracking ist der Irrglaube, es handele sich um einen „eigenen“ zwischengeschalteten Tracking-Server. Denn „eigen“ heißt nur, dass dieser unter der Unternehmensdomain läuft, zum Beispiel data.meinshop.de für meinshop.de. Dabei gehört er in der Regel einem Drittanbieter, das Unternehmen betreibt den Server nicht selbst. Oftmals sind es Tag Management Systeme (TMS), die eine derartige Proxy-Funktion erfüllen, aber von einem Drittanbieter betrieben werden. Es handelt sich also eher um eine Verschleierung dieses zwischengeschalteten Systems. Somit sieht es zwar aus wie First-Party-Tracking, ist aber faktisch Third-Party-Tracking.
Mythos #2: Ad- und Tracking-Blockern lassen sich umgehen.
Heutzutage setzen laut Statistika über 35 Prozent der Internet-Nutzer Browser-Plugins wie Ad- und Tracking-Blocker ein, erfahrungsgemäß sind allerdings nur 10 bis 20 Prozent – was immer noch viel ist, und die Datenbasis reduziert. Durch die Proxy-Verschleierung lassen sich unter Umständen einige Plugins und sogar manche browserseitigen ITP-Technologien umgehen, aber sicher nicht alle: Zahlreiche Anti-Tracking-Mechanismen erkennen serverseitiges Tracking ebenso gut wie clientseitiges Tracking. Hier gilt es, zu jeder Zeit mit technologischen Innovationen zu rechnen.
Mythos #3: Sie behalten stets die Datenhoheit.
Zwar haben Marketer über die Proxy-Konfigurationen die Hoheit darüber, welche Daten sie an die Tracking- und Werbesysteme übermitteln, aber wenn der Tracking-Anbieter auf die Daten zugreifen oder sie sogar selbst zur websiteübergreifenden Profilbildung oder eigenen Marketingzwecken nutzen kann, ist die Datenhoheit nur ein Schein: Die Kontrolle über die erhobenen Daten hat dann der Proxy-Anbieter. Der Online-Marketer verfügt über keinerlei Einfluss oder Kontrollmöglichkeiten in Bezug auf die Datenverwertung, sobald der Tracking-Anbieter diese für eigene Zwecke nutzt. Marketer müssen also explizit darauf achten, wer die Daten am Ende wie verarbeitet. Das müssen Webseitenbetreiber dann auch gegenüber den Nutzern transparent darlegen.
Mythos #4: Sie benötigen keine Einwilligung.
Die Einwilligung der Nutzer wäre nur dann obsolet, wenn das Tracking
a) keine Daten von den Endgeräten, wie beispielsweise die Bildschirmauflösung, auslesen,
b) auch keine Cookies oder ähnliche Techniken zur Wiedererkennung der Nutzer einsetzen und
c) das Tracking-System die Daten nicht zu eigenen Zwecken verwenden würde.
Wird aber wie beim Google Tag Manager die Bildschirmauflösung standardmäßig erfasst, ist bereits eine Einwilligung erforderlich. Ebenfalls einwilligungspflichtig ist es, wenn der Tracking-Anbieter die Daten für eigene Zwecke verwendet oder die Informationen über verschiedene Webseiten hinweg verknüpft. Das Problem mit der Einwilligung: Laut Consent-Studie 2023 von etracker liegt die Einwilligungsrate bei rechtskonformer Consent-Gestaltung bei nur 17 Prozent, was die Grundlage für datengetriebenes Marketing erheblich reduziert.
Mythos #5: Die Anonymisierung macht das serverseitige Tracking rechtskonform.
Eine vollständige Anonymisierung umfasst laut Rechtsprechung des Europäischen Gerichtshofs (EuGH), dass jegliche Rückverfolgbarkeit auf die betroffene Person durch den Datenverarbeiter unmöglich sein muss. Folglich müssten neben der IP-Adresse auch sämtliche IDs – etwa Client-ID, Device-ID, User-ID und Session-IDs – und sogar der Zeitstempel gelöscht oder transformiert werden, um die Identifikation einer Person gänzlich auszuschließen. Dies ist in der Realität jedoch so nicht umsetzbar.
Mythos #6: Sie haben beste Datenqualität.
Fataler noch als die Reduktion der Stichprobe ist die Verzerrung der Daten durch Einwilligungen (sog. Consent Bias). Nutzer sind generell sehr wechselhaft im Zustimmen oder Ablehnen von Cookies – anders als etwa bei der Wahl politischer Parteien: Nutzer stimmen dem Tracking heute spontan zu, lehnen es morgen aber auf derselben Website genauso spontan ab. Dieses inkonsistente Einwilligungsverhalten sorgt dafür, dass sich die Datenbasis verzerrt und sowohl Kampagnenerfolgsparameter als auch andere steuerungsrelevante KPI beliebig über- oder unterschätzt werden. Daran ändert auch ein serverseitiges Tracking nichts. Und auch, wenn Nutzer keine Ad- und Tracking-Blocker verwenden oder sich einige davon durch das Server Side Tracking umgehen lassen, bleibt die Problematik an sich bestehen: Die Consent-Pflicht beschneidet und verzerrt die Datenbasis soweit, dass eine gezielte Online-Steuerung unmöglich wird. Hinzu kommt, dass auch eine vollständige Anonymisierung, so wie Datenschützer sie fordern, die Webanalyse-Daten völlig unbrauchbar macht.
Mythos #7: Sie können weiterhin US-Dienste und Retargeting einsetzen.
Ein Vorteil des serverseitigen Tracking bestand für viele Marketer darin, dass durch die serverseitige Anonymisierung und Pseudonymisierung – die ja in der Form gar nicht praktikabel ist –, den Anforderungen der DSGVO genüge getan war, um die erfassten Daten auch in den USA oder von einem US-Tool weiterverarbeiten zu dürfen. Mit dem seit Juli 2023 gültigen Data Privacy Framework scheint dies nun überflüssig. Dabei stehen Datenschützer bereits in den Startlöchern, um auch diesen Angemessenheitsbeschluss aufgrund seiner Widersprüchlichkeit zur Rechtslage zu kippen. Aber selbst mit dem Data Privacy Framework sind bestimmte Verfahren, zum Beispiel Retargeting, ohne Einwilligung des Nutzers aus Datenschutzgründen nicht gestattet.
Mythos #8: Server Side Tracking ist leicht zu implementieren und kostengünstig
Das genaue Gegenteil ist der Fall! Die Implementierung ist für Online-Marketer sehr aufwendig, da jedes Datum identifiziert werden muss, das modifiziert werden soll: von einfachen Nutzer-IDs über URLs, die beispielsweise Namen oder Nutzer-IDs enthalten, bis hin zu technischen Feinheiten wie Zeitstempeln oder IP-Anonymisierung, auch für das neue Internet Protokoll Version 6 (IPv6). Der Implementierungsaufwand entkräftet auch das Argument der Kostengünstigkeit: Viele Online-Marketer halten Server Side Tracking für ein Schnäppchen, weil sie damit eine kostenlose Tracking-Lösung nutzen können. Richtig ist aber, dass moderne Tracking-Systeme meist kostengünstiger sind als die Proxy-Lösung selbst und keiner komplexen Implementierung bedürfen. Obendrein machen sich Unternehmen beim serverseitigen Tracking vom Proxy-Anbieter abhängig. Doch was, wenn der Anbieter insolvent geht oder aufgekauft wird? Die Risiken eines Ausfalls oder einer erforderlichen Neuimplementierung lassen sich minimieren, wenn das Unternehmen auf einen seit Jahren etablierten Tracking-Anbieter statt auf ein „Serverside Startup“ setzt.
Fazit: Die hybride Wahrheit
Statt auf die Mythen des Server Side Tracking hereinzufallen, können Marketer es in eine hybride Lösung integrieren: Das heißt, sie kombinieren auf der Client-Seite ein einwilligungsfreies, cookie-loses und datenschutzkonformes Session-Tracking mit dem Tracking unter der eigenen Domain. So lassen sich Visits und Conversions zuverlässig erfassen – und zwar ohne Einwilligung –, während die serverseitige „Verschleierung“ Tracking-Blocker abwehrt. Dies maximiert die Stichprobe und gleichzeitig die Datenqualität. Somit können Online-Marketer auch die automatisierte Gebotssteuerung bei Google, Bing und Facebook via Upload mit datenschutzkonformen Conversion-Daten versorgen. Entscheidend für den Erfolg einer Hybridlösung ist jedoch das Tracking-System selbst, das genau folgende Anforderungen erfüllen muss:
Eine intelligente Vorverarbeitung der Conversion-Daten für den Upload in Werbesysteme bieten,
Tracking unter der Unternehmensdomain verorten,
Cookie-less Tracking gestatten,
Die langfristige Rechtssicherheit durch seinen EU-Standort gewährleisten.
Erst dann hält Server Side Tracking wirklich, was es verspricht!
Für Unternehmensblogs lautet die Frage aller Fragen stets: Wie viele Leads hat ein bestimmter Blogartikel generiert? Manche Kennzahlen, wie etwa die Anzahl der Besuche pro Beitrag, sind auf einen Blick ersichtlich. Um Ihrem Blog – und Ihrem Unternehmen – Auftrieb zu verleihen, ist es mit solch einfachen Kennzahlen jedoch nicht getan.
Stattdessen sollten Sie messen, wie sich der Blog konkret auf Ihren Marketing-Funnel auswirkt. Auf dieser Grundlage können Sie dann eine umsetzbare Strategie für die Zukunft entwickeln.
Wenn Sie gerne die Kennzahlen Ihres Blogs analysieren möchten, aber nicht genau wissen, wie Sie dabei vorgehen müssen, dann sind Sie hier genau richtig. In diesem Beitrag gehen wir einen Beispielbericht durch und leiten potenzielle Maßnahmen ab, die die Blog-Performance verbessern.
Berichterstattung über durch den Blog generierte Leads
Häufig können Marketer und Marketerinnen zwar die Gesamtzahl der generierten Leads berechnen, wissen aber nicht, wie viele Kontakte von einem einzelnen Beitrag stammen. Jedoch nur mithilfe dieser spezifischen Daten können Sie die besten Themen und Formate für Ihre Beiträge auswählen.
Um an diese Daten zu kommen, sollten Sie in Ihrer Marketingsoftware einen sogenannten Attribution-Bericht erstellen. Werfen wir gemeinsam einen Blick auf einen Beispielbericht, der uns Aufschluss darüber gibt, wie viele Leads durch Blogbeiträge eines Unternehmens generiert wurden.
Auf welche Kennzahlen kommt es an?
Je nachdem, wie viele Blogbeiträge Sie pro Monat verfassen, kann Ihr Bericht recht lang werden. Wählen Sie jeweils 3-5 ihrer erfolgreichsten und schlechtesten Beiträge aus, um mit Ihrer Analyse loszulegen.
Der Einfachheit halber widmet sich dieser Artikel den erfolgreichsten Beiträgen. In Ihrer eigenen Analyse sollten Sie aber alle aufgeführten Schritte auch auf die schwächsten Beiträge anwenden.
In unserem Beispielbericht haben folgende Beiträge am besten abgeschnitten:
10 Fehlannahmen bei Big Data
Wachstumsbericht: Textilherstellung
Webinar: Fallstudie zur gewonnenen Wahl
Webinar: Eine Einführung in Big Data & Algorithmen
Als nächstes stellen Sie sich die folgenden Fragen:
Hatten die Beiträge ähnliche Themen?
Beginnen Sie mit thematischen Gemeinsamkeiten der Artikel. Gibt es beliebte Themen, die in allen Beiträgen auftauchen, die besonders viele oder wenige Leads generiert haben? Überrascht es Sie, dass es bestimmte Themen, von deren Zugkraft Sie überzeugt waren, nicht unter die erfolgreichsten Beiträge geschafft haben?
Sie müssen ein Gespür dafür entwickeln, welche Themen bei Ihrer Zielgruppe gut ankommen und welche weniger. Denn nur so können Sie künftige Beiträge auf deren Interessen abstimmen und eine bessere Performance erzielen.
Im obigen Beispielszenario sehen wir, dass es in zwei der Blog-Beiträge um Big Data und in den anderen zwei Beiträgen um Datenanalysen in Excel geht. Das zeigt, dass diese Themen gut ankamen und für zukünftige Inhalte berücksichtigt werden sollten, da sie die Lead-Generierung ankurbeln.
Hatten die Beiträge ähnliche Formate?
Auch das Format eines Blogbeitrags kann einen Einfluss darauf haben, ob die Leserschaft zu Leads konvertiert oder nicht. Geschmäcker sind verschieden: Manch einer bevorzugt übersichtliche Beiträge mit vielen Aufzählungen, andere mögen visuell ansprechende Artikel mit Infografiken oder SlideShare-Präsentationen.
Begutachten Sie deshalb Ihre Blog-Inhalte sehr genau und versuchen Sie herauszufinden, ob ein spezielles Format bei Ihrer Zielgruppe besonders gut ankommt. So können Sie ermitteln, wie Ihre Zielgruppe Inhalte und Informationen konsumiert.
In unserem obigen Beispiel ist der Blog-Beitrag mit der besten Performance sehr visuell gestaltet. Die anderen drei Beiträge enthalten jedoch viele praktische Tipps und Anleitungen. Somit ist es sicherlich sinnvoll, noch weitere Beiträge in diesem Stil zu veröffentlichen (und bei Gelegenheit einige visuelle Inhaltselemente einzustreuen).
Waren die Beiträge ungefähr gleich lang?
Vermutlich haben Sie eine ganze Reihe von Ideen und Informationen, zu denen Sie Ihren nächsten Beitrag verfassen könnten. Doch wie viel ist zu viel oder zu wenig? Analysieren Sie die Länge der ausgewählten Beiträge im Hinblick auf die Conversion Rates: Bei welcher Länge konvertieren die meisten Leser und Leserinnen? Vielleicht stellen Sie fest, dass Sie mit längeren Beiträgen weniger Leads generieren. Daraus ließe sich womöglich schließen, dass ein Großteil Ihrer Leserschaft nicht bis ans Ende Ihrer Beiträge kommt, wo sich die Calls-to-Action befinden.
Waren in den Beiträgen andere Medienformate eingebettet?
Blogbeiträge enthalten häufig andere Inhaltsformen, zum Beispiel Social-Media-Beiträge, Videos, SlideShares oder Infografiken. Auf diese Weise können Sie ganz bequem zusätzliche Inhaltselemente in Ihrem Blog teilen, ohne jeweils einen gesamten Beitrag verfassen zu müssen. Die eingebetteten Medien können durchaus den Hauptteil Ihres Beitrags ausmachen.
Im obigen Beispiel beinhalteten zwei der Beiträge die Aufnahme eines Webinars. Abgesehen von den Themen selbst könnte also auch das Video- bzw. Webinar-Format von großem Interesse für die Zielgruppe sein.
Welche CTAs wurden in den Beiträgen verwendet?
Das wichtigste Element, um mit einem Blogbeitrag möglichst viele Conversions zu erzielen, ist ein gut durchdachter Call-to-Action (CTA). Nehmen Sie die CTAs der bestplatzierten Beiträge genauer unter die Lupe und suchen Sie nach Gemeinsamkeiten.
Im besten Fall hängen die CTAs thematisch mit den Artikeln zusammen, in denen sie vorkommen. Sie könnten auch in denselben Inhalten verschiedene CTAs ausprobieren, um herauszufinden, welche davon besonders gut ankommen.
In unserem Beispiel fanden sich einige CTAs, die sich auf das Thema „Big Data“ bezogen. Denn Big Data war ja das Thema der zwei besonders erfolgreichen Beiträge. Nun analysieren wir genauer, welche CTAs in den Beiträgen platziert wurden, die eine hohe Conversion Rate aufweisen. Wenn es immer der gleiche CTA war, wissen wir jetzt, dass dieser gut funktioniert. Wenn es verschiedene CTAs waren, sollten wir ermitteln, ob es Gemeinsamkeiten etwa bei der Farbe oder bei den Keywords gibt.
Wo waren die CTAs platziert?
Außerdem wollen wir herausfinden, wo die CTAs innerhalb der Beiträge platziert waren. Befinden sie sich am Ende des Artikels? In der Seitenleiste? Waren es Slide-In-Boxen? Befinden sie sich in der Mitte der Beiträge? Diese Informationen helfen uns, zu verstehen, an welcher Stelle die CTAs die meiste Aufmerksamkeit auf sich ziehen und die besten Ergebnisse erzielen.
Enthielten die Beiträge Links zu einer Landing-Page? Wenn ja, wo befanden sich diese?
Verlinken Sie in Ihren Beiträgen Landing-Pages oder andere Inhalte auf Ihrer Website? In diesem Fall sollten Sie für die wichtigsten Links Tracking-URLs einrichten, bevor Sie die Beiträge veröffentlichen. So können Sie später nachvollziehen, ob darauf geklickt wurde.
Gehen Sie in der Analyse noch einen Schritt weiter und schauen Sie sich die Platzierung der Links innerhalb Ihrer Beiträge genau an. Wenn nur auf jene Links geklickt wird, die sich am Anfang eines Beitrags befinden, könnten Sie daraus schließen, dass Ihre Leserschaft nicht den gesamten Text durchgeht. Außerdem: Platzieren Sie die Links zu den wichtigsten Seiten (wie zum Beispiel Ihre Lead-Magnete) eher in der ersten Hälfte eines Beitrags. So erhöht sich die Wahrscheinlichkeit, dass jemand darauf klickt.
Wenn hingegen eher auf die Links am Ende Ihres Blog-Beitrags geklickt wird, dann können Sie davon ausgehen, dass Ihre Leser und Leserinnen an zusätzlichen Informationen interessiert sind. Schließlich klicken sie auf weiterführende Links, nachdem sie Ihren Beitrag durchgelesen haben. Wie Sie sehen, gibt die Positionierung Ihrer Links Aufschluss über das Verhalten Ihrer Zielgruppe.
Wurden die Beiträge in bestimmten Kanälen beworben?
Wir haben uns bislang der Analyse der eigentlichen Blogartikel gewidmet. Es gibt jedoch noch andere Faktoren, die die Conversion Rates Ihrer Beiträge beeinflussen können.
So spielt beispielsweise der Kanal, in dem ein Beitrag beworben wird, eine wichtige Rolle. Bevor Sie die Links zu einem Artikel in den sozialen Medien veröffentlichen oder in einem Newsletter versenden, sollten Sie für jeden Werbekanal die richtigen Tracking-URLs einrichten. Auf diese Weise können Sie feststellen, ob Ihre Bloginhalte auf bestimmten Kanälen besonders gut ankommen und wie dort gewisse Themen oder Formate funktionieren.
Der Beitrag „10 Fehlannahmen bei Big Data“ wird vermutlich in den sozialen Medien die besten Ergebnisse erzielen, da hier konkrete Punkte zu einem aktuellen Thema kompakt rübergebracht werden. Der Beitrag „Wachstumsbericht: Textilherstellung“ sollte vielleicht eher per E-Mail verteilt werden, da es sich hier um ein Nischen-Thema handelt und es nicht üblich ist, einen ganzen Bericht in den sozialen Medien zu teilen. Auch das Thema, das Format und die Länge eines Beitrags können Einfluss auf seine Performance auf den unterschiedlichen Kanälen haben.
Was sind die nächsten Schritte? Experimentieren Sie!
Wenn Sie Ihre Blogbeiträge anhand der beschriebenen Schritte analysieren, können Sie tiefgreifende Erkenntnisse zu Ihrer Performance gewinnen. Trotzdem gilt: Probieren geht über Studieren. Der beste Weg, um herauszufinden, was gut und was eher schlecht funktioniert, sind Experimente. Also: Experimentieren Sie!
Versuchen Sie, eindeutige Schlussfolgerungen aus Ihren Analysen zu ziehen und setzen Sie diese bei der Erstellung künftiger Inhalte um. Optimieren Sie Ihre Beiträge anhand der gewonnenen Daten und überprüfen Sie nach einer Zeit, ob sich die Zahlen verbessert haben. Nur durch kontinuierliche Analyse und Tests können Sie herausfinden, ob Ihre Schlussfolgerungen richtig waren.
Vor ein paar Tagen: Ich möchte mit jemandem aus der Zentrale eines größeren Unternehmens sprechen, hab aber seine Durchwahl nicht zur Hand. Also ab auf die Website. Mit Anrufern will man wohl nichts zu tun haben, denn, wie so oft, eine Telefonnummer findet nur der, der das Impressum durchwühlt. Es begrüßt mich ein Bot mit seinem Auswahlprogramm. Mein nicht einmal sehr besonderer Wunsch ist, auch wie so oft, nicht dabei. Ich drücke notgedrungen die eins – und lande im Callcenter. Der Mann dort will mir was verkaufen, weiterverbinden kann er mich nicht.
„Es müsste aber doch möglich sein ….“, beginne ich zaghaft. Er schmeißt mich aus der Leitung. Nun tritt der Zufriedenheitsbefragungsbot in Aktion. Nur vier schnelle Fragen, säuselt er, bitte wählen Sie zwischen eins, sehr gut, und sechs, ungenügend. Ich wähle vier Mal die sechs. Er bedankt sich überschwänglich und versichert mir herzlich, wie sehr ich dem Unternehmen mit meinen Antworten geholfen habe. Geholfen? Ich gab in allem die schlechteste Note, doch niemand will wissen, warum.
Zahlensammeln als Selbstzweck – ohne jeden Erkenntnisgewinn
So ist es bei Befragungen oft: Das Unternehmen will keine Gründe, sondern nur Zahlen. Da wird eine riesige Maschinerie aufgesetzt und in Gang gehalten, die enorme Kosten verursacht, doch keinerlei Wertschöpfung bringt. Keine Painpoints werden gesucht und gefunden, die sich beheben ließen, keine Stärken herausgefiltert, die man stärken könnte, niete, nada, nichts. Nur Zahlen werden gesammelt, die in Statistiken eingepflegt werden, um sie an jemandem zu reporten, der die nicht einmal liest. Das sind doch alles kluge Leute in den Führungsetagen, sollte man meinen, wieso machen die das?
„Wegen der Vergleichbarkeit“, ruft man mir zu. Vergleichbarkeit? Was soll das bringen? Man weiß zwar dann, dass man besser oder schlechter wurde, doch man weiß nicht - und nur das ist entscheidend - warum. Was kann das nicht alles bedeuten, wenn der Befragte eine eins gibt? Oder im schlimmsten Fall überall eine sechs? Man hat zwar einen Wert, aber keinen blassen Schimmer, was unbedingt besser gemacht werden müsste. Auf die richtigen Gründe zu kommen ist dann wie Stochern im Nebel. So werden Optimierungsprogramme zum reinen Ratespiel. Das ist doch absurd!
Kennzahlengier? Durch Wiegen allein wird kein Schwein fett
Eine Menge Kennzahlen mögen zwar interessant sein, doch Erkenntnisse bringen sie nicht. Vieles ist Rechtfertigungs- und Selbstbeschäftigungsbürokratie – also eine Riesenverschwendung an Geld, Zeit und Ressourcen, um die Wichtigkeit der eigenen Abteilung zu untermauern. Natürlich ist Messbarkeit unerlässlich, um die Spreu vom Weizen zu trennen. Daten sind also genauso wie KPI’s überaus wichtig. Nur darf man sie nicht für den Stein der Weisen halten und ihnen blind vertrauen.
Eine Generalinventur wäre oft überfällig. Was muss unbedingt bleiben? Und was kann alles weg? Weniger Kennzahlenhype und halb so viele Reportings bringen doppelt so viel Zeit für die Kunden. Für Kontrollfreaks ist es allerdings praktisch, sich hinter Zahlen zu verschanzen. Solange es um die Vermessung des Menschen geht, braucht man sich nicht mit Herz und Seele befassen. Doch Menschen sind keine Nullen und Einsen. Sie sind auch keine Datenpakete. Und ganz gewiss sind sie kein bürokratischer Vorgang, der sich fix vordefinierten Steuerungsmechanismen unterwirft.
Wer auf Zahlen fixiert ist, denkt nur noch in Zahlenkategorien
Das Wichtigste im Kundenbeziehungsmanagement sind nicht Daten, sondern es ist der Mensch. Insofern muss sich Zahlenverständnis mit sozialer Intelligenz und gesundem Menschenverstand paaren. Doch die meisten Manager kennen ihre Kunden nur noch von Charts und auf dem Papier. Sie haben sich ihnen völlig entfremdet und Messpunkte aus ihnen gemacht. Endlos brüten sie über Daten und nennen das Customer Insights. Wie es den Leuten tatsächlich im wahren Leben ergeht, das haben sie nie erforscht.
Den Datensalat, der auf ihren Dashboards erscheint, den halten sie für die ganze Wahrheit. Doch das Kaufverhalten der Konsumenten ist bei weitem nicht so gläsern, wie uns die Software-Industrie vorgaukeln will. Smarte Konsumenten ducken sich mithilfe passender Tools ganz gezielt weg. So bleibt das meiste, das die Menschen denken, sagen, kaufen und tun, den Cookies und Crawlern verborgen.
Wie das aber bei Analysetools immer so ist: Von findigen Anbietern sind sie schnell programmiert, wenn sie ein Geschäftsfeld darin wittern. Und Gierigen kann man das Blaue vom Himmel erzählen. Indes darf die Daten-Goldgräberstimmung nicht dazu verleiten, dass das Individuum zu einem rein technokratischen Vorgang verkommt. Dort nämlich, wo nur harte Fakten zählen, werden soziale Faktoren negiert. Datenmanie killt Empathie. Wer auf Zahlen fixiert ist, denkt nur noch in Zahlenkategorien.
Unsaubere Kennzahlen sind gefährlich wie Irrlichter im Moor
Schon mancher hat sich im Zahlenrausch taumelnd verirrt. So ist vielerorts nicht mal bekannt, auf welcher Basis Algorithmen ihre Entscheidungen treffen und wie sie zu ihren Ergebnissen kommen. Sie sind eine Blackbox, in die man nicht eingreifen kann. Egal! Ungeprüft nimmt man ihren Output für bare Münze. Dabei schaffen Algorithmen oft ein fragwürdiges und meist ein unvollständiges Bild. Unser Online-Verhalten erfassen sie ziemlich bruchstückhaft. Unser Offline-Verhalten erfassen sie gar nicht. Und was sie lernen, stammt von ebenso fehlerhaften Vergangenheitsdaten.
Doch solche Bruchstücke der Wirklichkeit halten Kennzahlenjunkies für die vollständige Wahrheit. Was sich nicht messen lässt, wird schlichtweg negiert, so, als ob es nicht existiert. Zum Beispiel werden Online-Formulare von vielen Usern absichtlich falsch ausgefüllt. Bei Online-Befragungen wird aus Bequemlichkeit meist der oberste Punkt angeklickt. Das so entstandene Falsche fließt in Berechnungen ein, die zu falschen Schlüssen und dann zu falschen Aktionen führen. Oder es wird gezielt manipuliert, indem der Befrager das erwünschte Ergebnis an die oberste Stelle rückt.
Kennzahlenmanie kann zu bizarren Entscheidungen führen
Das betrifft alle Bereiche des Unternehmens. So gelten im Human-Resources-Bereich vielfach die Weiterbildungstage pro Mitarbeiter als Kennzahl für erfolgreiche Personalentwicklung. „Sie haben die vorgeschriebenen Weiterbildungstage noch nicht gemacht. Suchen Sie sich einfach irgendwas raus, damit wir das abhaken können,“ heißt es dann. Das ist doch absurd! Man misst das wieviel, die Quantität. Was damit für das Unternehmen erreicht wird, also die Qualität, wird nicht erhoben.
Zudem lässt man sich gern von getürkten Metriken blenden. Pure Reichweite scheint den zählwütigen Managern oft der wichtigste Faktor zu sein. Auf diese Weise wird man zur leichten Beute all derer, die aus Eigennutz tricksen und manipulieren. Das ist ganz leicht – und auch nicht teuer. Zum Beispiel kosten Likes, Follower und Bewertungen aus der Feder von Bots selbst in hoher Stückzahl nur ein paar Hundert Euro.
Durch eine passende Zahlenauswahl lässt sich jedes Ergebnis optisch verbessern. So wird der Umsatz im Onlinemarketing meist vor Retouren ausgewiesen, obwohl die teils bis zu 40 Prozent betragen. Über eine geeignete Auswahl der Fragen sowie der Befragten und/oder der Befragungszeitpunkte kann man ein favorisiertes Ergebnis vorkonstruieren. Und durch eine geeignete Interpretation der Ergebniszahlen lässt sich fast jedes gewünschte Resultat herausdestillieren. Was nicht passt oder der eigenen Position widerspricht, wird verschwiegen und fällt unter den Tisch.
Kennzahlen geben dem Management die Illusion der Kontrolle
Wo kommt die Fixierung auf Zahlen eigentlich her? Sie gibt Managern die Illusion der Kontrolle. So werden bergeweise Reportings, Kennziffern, Statistiken und Indikatoren erhoben. Doch Zahlen sagen, wie dargelegt, meist nicht die Wahrheit. Denn:
Erstens ist die finale Ausbeute immer nur so gut, wie das zuvor eingefütterte Ausgangsmaterial. „GIGO“ (Garbage in, Garbage out) wird dieses Prinzip in der Informatik genannt. Eine vollständige Analyse ist gar nicht möglich, weil vieles unerfassbar ist, manches lückenhaft bleibt und anderes einfach nicht stimmt.
Zweitens können Wunschdenken, falsche Fragestellungen, interessengeleitete Abfragezeitpunkte oder andere Manipulationen zu verfälschten Messergebnissen führen. Und diese unterliegen schließlich noch der Gefahr (beabsichtigter) Fehlinterpretationen im Wirrwarr zwischen Korrelationen und Kausalität.
Drittens sind Zahlen oftmals das Resultat von (bonifizierten) Abteilungszielen, erzwungenen Lügen, persönlichen Interessen und eigennützigen Motivationen. Eine einzige gezielt eingesetzte manipulierte "vorstandstaugliche" Kennzahl kann über das Schicksal von Unternehmen entscheiden.
Fazit: Als Ergebnis aus Unvollständigkeit, Eingabefehlern und Systembetrug ist – bei genauer Betrachtung - nahezu jede ermittelte Kennzahl vielleicht ein bisschen richtig, aber hauptsächlich falsch. Die große Gefahr: Zahlen legitimieren. Selbst dann, wenn sie falsch sind, dienen sie als Entscheidungsgrundlage.
Ausbildung zum zertifizierten Customer Touchpoint Manager
Hervorragende Unternehmen liefern ihren Kunden an allen Touchpoints die beste Erfahrung über die gesamte Customer Journey hinweg. Dies kann aber nur dann wirklich gelingen, wenn ein bereichsunabhängig agierender Customer Touchpoint Manager die uneingeschränkte Rückendeckung einer ganz und gar kundenzentrierten Geschäftsleitung erhält. Und grad zur Info: Die nächste Ausbildung zum zertifizierten Customer Touchpoint Manager findet vom 6. bis 9. Sept. 2023 in München statt: https://www.anneschueller.de/ausbildung-touchpoint-manager.html
Die Pandemie hat einen exponentiellen Anstieg der Nutzung von Internetdiensten wie dem E-Commerce mit sich gebracht. Wie beeinflussen die neuen Umstände die Anforderungen, die Kunden an Unternehmen stellen?
Die Cloud-Branche hat in den letzten Monaten eine verstärkte Nutzung von digitalen Diensten erlebt. Für viele Unternehmen hat sich der Online-Kanal von einer sekundären Ergänzung zu ihrem physischen Verkauf hin zum Hauptvertriebskanal für ihre Produkte und Dienstleistungen entwickelt. Dies hat auch die Einführung von Cloud- und Sicherheitsdiensten beschleunigt. Projekte, deren Fertigstellung ursprünglich Jahre in Anspruch nahmen, müssen nun innerhalb von Monaten durchgeführt werden. Es gelten die Regeln einer neuen Realität, in der das Arbeiten und Einkaufen von zu Hause aus zum Normalzustand geworden ist.
Daher erwarten Unternehmen vier grundlegende Kriterien von einem Content Delivery Network (CDN):
1. Geschwindigkeit: Websites müssen schnell sein. Dies kann erreicht werden, indem Inhalte, insbesondere statische, auf der Edge gecacht werden, so dass sie näher an den Nutzern sind. Dadurch werden Latenzen vermieden und die Leistung verbessert, Objekte und Bilder können so außerdem ohne Qualitätseinbußen optimiert werden.
2. Sicherheit: Der Schutz und die Verwaltung von Benutzerdaten ist ein bedeutender Punkt, um Vertrauen bei den Verbrauchern zu schaffen. Dies kann sowohl durch die Verwendung von TLS-Verschlüsselung für sichere Transaktionen als auch durch den Schutz von Assets vor Bedrohungen wie DDoS-Angriffen ermöglicht werden.
3. Verfügbarkeit: Es werden Funktionen wie Echtzeit-Logging benötigt, die einen vollständigen Einblick in die Anwendungsperformance ohne Verzögerung bieten. So kann bei Anzeichen von Verfügbarkeitsproblemen schnell reagiert werden.
4. Customization: Heutzutage hofft der Käufer, dass die Website, die er besucht, genau weiß, was er braucht. Personalisierung ist etwas, das traditionell auf den Origin Servern erfolgte wodurch jedoch die Performance beeinträchtigt wurde. Aus diesem Grund ist die Nachfrage gestiegen, diese Anpassungen auf der Edge durchzuführen. So wird die Leistung nicht beeinflusst und es können Faktoren wie Device oder Location vermehrt berücksichtigt werden.
Die Kunden von heute sind “hypervernetzt” und verlangen eine andere Nutzererfahrung. Außerdem erwarten sie ein konsistentes Einkaufserlebnis, egal ob es sich um einen gewöhnlichen Wochentag oder um ein großes Ereignis wie Black Friday oder Flash Deals handelt. Alles soll sofort verfügbar sein. Edge Computing macht genau das möglich. Eine Cloud-Plattform auf der Edge kann all diese Herausforderungen meistern, indem sie Inhalte schneller bereitstellt und auch das Einkaufserlebnis personalisiert. Und das schlägt sich letztendlich in besseren Umwandlungsraten und einem höheren durchschnittlichen Kaufwert nieder.