magnify
Home Themen Affiliate-Marketing Kommentar: Conversion der Netzwerke – ein kleiner Test
formats

Kommentar: Conversion der Netzwerke – ein kleiner Test

Aus der Reihe „Randbemerkungen – aus Affiliate-Perspektive“…

Wenn man mit einem Partnerprogramm hohe Umsätze macht, kann es sich durchaus lohnen, einmal die Conversion der verschiedenen Netzwerke zu testen. Konvertiert ein Partnerprogramm in einem Netzwerk um 10% besser, macht das auf Dauer schon ein hübsches Sümmchen aus.
Ich hab das lange vernachlässigt. Schon aus dem Grund, weil die Umsätze bei mir auf sehr viele Partnerprogramme verteilt sind und ich nur mit wenigen Partnerprogramme wirklich hohe Umsätze mache. Letztes Jahr habe ich mich aber doch dazu durchgerungen, das mal mit zwei Partnerprogrammen zu testen.

Um ein brauchbares Ergebnis zu bekommen, sollte das Partnerprogramm über mehrere Netzwerke an der gleichen Stelle im selben Zeitraum laufen. Wenn ich das PP über ein Netzwerk im Dezember und über das andere im Jänner teste, wird das Ergebnis wenig aussagekräftig sein. Man muss die Links also entsprechend rotieren lassen. Wenn man noch keinen hat, installiert man zu diesem Zwecke einen AdServer (z.B. openads) und lässt über diesen nicht nur die Links entsprechend rotieren, sondern auch die Klicks zählen. Denn um die Conversionrate richtig zu messen, müssen die Klicks bei allen Netzwerken mit dem selben Tool gezählt werden. Zieht man die Klick-Zahlen der Netzwerke heran, bekommt man mit Sicherheit kein brauchbares Ergebnis. Jeder, der schon mal zwei Counter gleichzeitig auf einer Website eingebaut hat, weiß, dass man hier immer unterschiedliche Ergebnisse geliefert bekommt.

Ich habe zwei Partnerprogramme mit unterschiedlichen Trackingmethoden für den Test ausgewählt. Auf Wunsch der Betreiber möchte ich diese hier allerdings nicht beim Namen nennen. Der Test sollte eigentlich mindestens ein Jahr laufen. Nachdem nach einem Serverumzug im Dezember die Klicks von AdServer aber nicht mehr richtig gezählt wurden, musste ich den Test leider frühzeitig abbrechen. Die Datenbasis ist aber ausreichend groß, um die eine oder andere Erkenntnis zu gewinnen. Partnerprogramm 1 hatte bis zu diesem Zeitpunkt in jedem der Netzwerke rund 200 Sales, Partnerprogramm 2 in jedem der Netzwerke etwas über 100 Sales.

[Ergänzung 12.02.09] Ich habe keine Image-Tags oder JavaScripts der Netzwerke verwendet, nur den “nackten” html-Link. Über die Images oder JavaScripts hätten die Netzwerke theoretisch die Möglichkeit, das Tracking etwas “zu erweitern”. Wäre vielleicht auch nicht uninteressant, wie das Ergebnis in diesem Fall ausgesehen hätte. Das war aber erst einmal nicht Gegenstand dieses Tests.

Partnerprogramm 1 (Cookietracking)

Partnerprogramm 1 arbeitet mit Cookie-Tracking. Erweiterte Tracking-Methoden (z.B. Fingerprint) die von einigen Netzwerken angeboten werden, werden nicht in Anspruch genommen. Hier war also ein recht gleichmäßiges Ergebnis zu erwarten. Cookie ist schließlich Cookie. Hier das Ergebnis:

pp1

zanox war hier eine echte Überraschung. Die Conversion war über 20% höher als der Durchschnittswert. Nach einer Erklärung dafür suchte ich – auch im Gespräch mit dem Affiliate Manager des Parternprogramms – vergeblich. affilinet und webgains hinken etwas hinterher. Sieht im Vergleich zu den anderen allerdings schlimmer aus, als es ist, da zanox den Durchschnittswert auch kräftig nach oben drückt. Nimmt man den Durchschnittswert aller Netzwerke ex zanox liegen die Werte von affilinet und webgains doch einigermaßen im normalen Bereich statistischer Abweichungen.

Partnerprogramm 2 (Sessiontracking)

Partnerprogramm 2 arbeitet mit Sessiontracking. Hier habe ich doch größere Unterschiede erwartet, da beim Sessiontracking (so weit ich da Einblick habe) doch etwas unterschiedliche Technologien zum Einsatz kommen. Die Differenzen hielten sich aber absolut in Grenzen:

pp2

Da die Datenbasis hier etwas geringer ist, ist die statistische Schwankungsbreite etwas höher. Die Differenzen sind also gerade im Vergleich zum cookiegetrackten Partnerprogramm überraschend gering. CJ (nach unten) und affilinet (nach oben) reißen zwar etwas aus. Die Abweichungen sind aber wohl innerhalb der statistischen Toleranz. Interessant ist, dass die Prognose des Affiliate Managers dieses PPs – beruhend auf den unterschiedlichen Technologien der Netzwerke – genau umgekehrt war (CJ Top, affilinet schwach). So kann man sich irren.

Fazit

Bis auf den Ausreißer von zanox bei Partnerprogramm 1 liegen alle Abweichungen im normalen Bereich. Gerade bei Partnerprogramm 2 hätte ich größere Schwankungen erwartet. Man muss auch sagen, dass die Datenbasis hier sicher am unteren Limit für ein brauchbares Ergebnis war.
Die Gretchenfrage ist nun, ob ich aus den Ergebnissen Konsequenzen ziehen werde. Im Fall von Partnerprogramm 1 müsste ich eigentlich alles sofort über zanox laufen lassen. Dazu muss ich aber erst einmal über meinen eigenen Schatten springen – daran arbeite ich noch ;). Partnerprogramm 2 hatte ich früher schon über affilinet laufen und werde damit wohl wieder dorthin zurück wechseln.

[Ergänzung aus den Kommentaren:]

Eines wollte ich noch als Fazit ergänzen:

Was der Test auf jeden Fall sehr schön zeigt ist, dass man wohl bei keinem Netzwerk sagen kann, dass es generell besser oder schlechter tracked als die anderen. Die Reihenfolge ist bei beiden Tests bunt durcheinander gewürfelt.
Nur webgains hatte leider keine “2. Chance”, da das zweite Partnerprogramm dort nicht lief.

Der Kommentar “Randbemerkungen – aus Affiliate-Perspektive” entspricht nicht unbedingt der Meinung des Herausgebers.

Wie denken Sie darüber?  Wir freuen uns über Ihre Sicht der Dinge…

VN:F [1.9.22_1171]
Wie hat dir dieser Beitrag gefallen?
Wertung: 0.0/5 (0 Bewertungen)
Danke für´s Teilen :-)Share on FacebookShare on Google+Tweet about this on TwitterShare on LinkedIn
 
 Share on Facebook Share on Twitter Share on Reddit Share on LinkedIn
Kommentare deaktiviert für Kommentar: Conversion der Netzwerke – ein kleiner Test  comments 

Keine Antworten

  1. Wenn ich es richtig verstehe, und hier die gleichen Werbemittel verwendet wurden
    kann es doch nur an der Zeit respektive der Art der Werbung liegen.

    VA:F [1.9.22_1171]
    Wertung: 0 (von 0 Bewertungen)
  2. @ Markus: Jetzt warst du doch schneller als Monti, der ja seinen Test (mit einem anderen PP) auch bald veröffentlichen will.

    VA:F [1.9.22_1171]
    Wertung: 0 (von 0 Bewertungen)
  3. avatar Markus

    @Norbert
    Was liegt an der „Zeit respektive der Art der Werbung“? Die Differenzen?
    Es sind die selben Werbemittel an der selben Stelle über den selben Zeitraum. Eine gewisse Differnz ergibt sich ganz natürlich aufgrund der statistischen Unschärfe. Ich würde sagen, dass alle Abweichungen, bis auf den Ausreißer von zanox da hinein fallen.

    Alles was darüber hinaus geht, kann theoretisch nur am Tracking des Netzwerkes liegen. Praktisch ist das gerade beim Cookietracking aber keine befriedigende Erklärung. Weil die Technologie eigentlich sehr simpel ist und es da wohl kaum Unterschiede zwischen den Netzwerken geben kann.

    @Henning
    Macht ja nix. Sein Ergebnis ist deshalb sicher nicht weniger interessant.

    VA:F [1.9.22_1171]
    Wertung: 0 (von 0 Bewertungen)
  4. @ Markus: Nein, im Gegenteil – umso mehr Daten man hierzu hat, desto besser.

    VA:F [1.9.22_1171]
    Wertung: 0 (von 0 Bewertungen)
  5. […] Conversion der Netzwerke – ein kleiner Test – Interessant. […]

  6. avatar Fridaynite

    Über 30% Differenz bei Punkt 1 und über 20% Differenz bei Punkt 2 ist wohl keine Pillepalleeinheit mehr.

    VA:F [1.9.22_1171]
    Wertung: 0 (von 0 Bewertungen)
  7. avatar Markus

    Eines wollte ich noch als Fazit ergänzen:
    Was der Test auf jeden Fall sehr schön zeigt ist, dass man wohl bei keinem Netzwerk sagen kann, dass es generell besser oder schlechter tracked als die anderen. Die Reihenfolge ist bei beiden Tests bunt durcheinander gewürfelt.
    Nur webgains hatte leider keine „2. Chance“, da das zweite Partnerprogramm dort nicht lief.

    VA:F [1.9.22_1171]
    Wertung: 0 (von 0 Bewertungen)
  8. avatar Pat

    Die Abweichungen, egal ob nach unten oder oben können auch an den Netzwerkweichen der Programmbetreiber liegen.

    VA:F [1.9.22_1171]
    Wertung: 0 (von 0 Bewertungen)
  9. avatar Markus

    Ich nehme doch an, dass diesbezüglich alle Netzwerke gleich behandelt werden. Bei Partnerprogramm 1 weiß ich das auch, weil ich nachgefragt hab.

    VA:F [1.9.22_1171]
    Wertung: 0 (von 0 Bewertungen)
  10. Hallo,

    schade, dass nicht alle Netzwerke getestet wurden…

    Marcus

    VA:F [1.9.22_1171]
    Wertung: 0 (von 0 Bewertungen)
  11. Hallo Markus,
    recht interessant die Sache.
    Nur eins konte ich (auch nach mehrmaligem Durchlesen) nicht ganz nachvollziehen.
    Was ist deine Datenbasis, auf Grund dessen die Abweicheungen gemessen wurden?
    Was ist sozusagen der Nullpunkt, von dem aus ein Netzwerk ins plus oder minus gehen kann?
    Ist das die Performance eines gleichen Zeitabstandes, die du bemessen hast?
    Viele Grüße

    Tibor

    VA:F [1.9.22_1171]
    Wertung: 0 (von 0 Bewertungen)
  12. Sehr überraschende Ergebnisse… Eine Idee, warum das so sein könnte: Der Merchant akzeptiert alle Cookies – also keine Trackingvariable zwischen den Netzwerk-Cookies. Um das Zanox-Cookie gibt es weniger Affiliate-Wettbewerber als um Webgains- oder Affilinet-Cookie. Dadurch „überlebt“ dein Zanox-Cookie länger und hat mehr Aussichten auf Erfolg.

    Aber: Ein Programm, dass über soviele Netzwerke wirbt, wird wohl nicht alle Cookies parallel akzeptieren, sondern nach last-cookie-counts nur eins akzeptieren…

    VA:F [1.9.22_1171]
    Wertung: 0 (von 0 Bewertungen)
  13. „Um das Zanox-Cookie gibt es weniger Affiliate-Wettbewerber als um Webgains- oder Affilinet-Cookie.“

    Daran hatte auch ich schon gedacht. Bei Cookie Programmen bietet sich ja normalerweise das Netzwerk an, was am wenigsten andere Publisher in dem Programm hat. Aber daß zanox weniger Publisher als Webgains hat ist doch ziemlich unwahrscheinlich.

    VA:F [1.9.22_1171]
    Wertung: 0 (von 0 Bewertungen)
  14. avatar Markus

    @Marcus
    Ich kann leider nur die Netzwerke testen, in denen das entsprechende Partnerprogramm läuft.

    @Tibor
    Ah, OK – ist etwas verschlüsselt. Grundsätzlich geht es um die Conversionrate. Links von den Diagrammen steht „realtive Abweichung vom Durchschnitt“. Der „Nullpunkt“ ist also die durchschnittliche Conversionrate.

    @Thorsten
    Beide Partnerprogramme arbeiten mit Netzwerkweichen. D.h. es wird am Ende nur der Trackingcode jenes Netzwerkes ausgegeben, über das der Besucher gekommen ist.

    VA:F [1.9.22_1171]
    Wertung: 0 (von 0 Bewertungen)
  15. avatar Ron

    Hallo Markus,
    auf welche absoluten Zahlen beziehen sich denn deine Aussagen? Ich finde den Test sehr interessant, jedoch kann man das Ergebnis schwer bewerten wenn man die zu Grunde liegende Datenbasis (Timeslots, Absolute Sales, etc.) nicht einsehen kann.

    VA:F [1.9.22_1171]
    Wertung: 0 (von 0 Bewertungen)
  16. avatar Markus

    Steht oben im Beitrag: „Partnerprogramm 1 hatte bis zu diesem Zeitpunkt in jedem der Netzwerke rund 200 Sales, Partnerprogramm 2 in jedem der Netzwerke etwas über 100 Sales.“
    Der Test lief von März bis November letzten Jahres.

    VA:F [1.9.22_1171]
    Wertung: 0 (von 0 Bewertungen)
  17. avatar yi

    Vielleicht sollst du die Sales-Zahlen fett hervorheben, ich habs auch überlesen ;-)

    VA:F [1.9.22_1171]
    Wertung: 0 (von 0 Bewertungen)
  18. Wie lange liefen die Tests denn? :-)

    VA:F [1.9.22_1171]
    Wertung: 0 (von 0 Bewertungen)
  19. avatar yi

    Ich merke, dass wir alle nicht lesen können ;-)

    VA:F [1.9.22_1171]
    Wertung: 0 (von 0 Bewertungen)
  20. avatar Markus

    :)

    @Huggy
    März bis November letzten Jahres

    VA:F [1.9.22_1171]
    Wertung: 0 (von 0 Bewertungen)
  21. Habe mal im Blogbeitrag die Passage fett und rot markiert ;-)

    VA:F [1.9.22_1171]
    Wertung: 0 (von 0 Bewertungen)
  22. avatar Markus

    Karsten, kannst du meinen Kommentar von 12:09 vielleicht noch als PS dranhängen?

    VA:F [1.9.22_1171]
    Wertung: 0 (von 0 Bewertungen)
  23. Klar, Markus, schon erledigt!

    VA:F [1.9.22_1171]
    Wertung: 0 (von 0 Bewertungen)
  24. Und da hattest du nur 100 Sales in dem Zeitraum ? Mensch, du bist ja echt schon in Rente (-:
    100 / 200 Sales pro Netzwerk ja ? Wie haste denn das gemacht ?
    Wenn ich das richtig verstehe hatte CJ im P2 ~90 Sales und affilinet ~110 Sales – eine maximale Abweichung von 20 Sales auf 30 Tagen.
    Mal davon ausgehend, dass du nicht alle parallel aktiv hattest (wie dann gleich beworben ?) könnten doch schon kleine Unterschiede wie z.B. der Sonntagssieger in der Vorweihnachtszeit den Unterschied rechtfertigen.
    Falscher Tag am falschen Programm und die Statistik ist dahin.

    Wobei mir hat zuletzt ein super Affiliate Manager einfach alle Sales weg storniert, weil ihm unsere Art der Bewerbung nicht gefiel bzw. er sie nicht verstanden hat.
    Der Wert hätte deine Auswertung mächtig verfälscht.
    Ohne jetzt jemanden etwas böses zu wollen, könnte es auch daran liegen wie genau die Sales geprüft / bearbeitet wurden ?

    VA:F [1.9.22_1171]
    Wertung: 0 (von 0 Bewertungen)
  25. avatar Markus

    >Und da hattest du nur 100 Sales in dem Zeitraum ? Mensch, du bist ja echt schon in Rente (-:

    Das war ja nur jeweils ein Link von einem Partnerprogramm auf einer Seite. Ich hab ja zum Glück viele Links von vielen Partnerprogrammen auf vielen Seiten ;)

    >Falscher Tag am falschen Programm und die Statistik ist dahin.

    Ich habe die Links ja nicht tageweise ausgetauscht, sondern sie über einen AdServer rotieren lassen. Aber Grundsätzlich hast du recht, hab ich ja auch geschrieben: Die Abweichungen sind für diese Datenbasis im normalen Bereich (ausgenommen der Ausreißer bei zanox).

    >Ohne jetzt jemanden etwas böses zu wollen, könnte es auch daran liegen wie genau die Sales geprüft / bearbeitet wurden ?

    Nein, die Stornoquote spielte bei dem Test keine Rolle.

    VA:F [1.9.22_1171]
    Wertung: 0 (von 0 Bewertungen)
  26. avatar Markus

    Noch etwas, das man vielleicht ergänzen sollte (bitte lieber Karsten unterhalb des Satzes mit der Datenbasis einfügen):
    Ich habe keine Image-Tags oder JavaScripts der Netzwerke verwendet, nur den „nackten“ html-Link. Über die Images oder JavaScripts hätten die Netzwerke theoretisch die Möglichkeit, das Tracking etwas „zu erweitern“. Wäre vielleicht auch nicht uninteressant, wie das Ergebnis in diesem Fall ausgesehen hätte. Das war aber erst einmal nicht Gegenstand dieses Tests.

    VA:F [1.9.22_1171]
    Wertung: 0 (von 0 Bewertungen)
  27. […] week verscheen er een interessant artikel op 100partnerprogramme.de, het betrof een onderzoek naar de verschillen in tracking tussen verschillende […]

  28. @Markus:
    My German is not that great, but I do have a small question.
    If I understand right, for Partnerprogramm 1 you only tested the cookietracking. And, if I understand correct, you didn’t take notice of IP/Fingerprint tracking.

    How could you know the fingerprint tracking for all parties was disabled?

    Ill try and translate my question to German ;) :
    Mein Deutsch ist nicht so gut, aber ich hab ein kleiner Frage.
    Wenn ich Sie recht verstanden habe, haben Sie nur cookietracking getestet, und nicht IP/Fingerprint tracking.

    Wie wissen Sie, dass Fingerprint tracking ausgeschalt war?

    Hope you somewhat understand it :-)

    VA:F [1.9.22_1171]
    Wertung: 0 (von 0 Bewertungen)
  29. avatar Markus

    >My German is not that great

    No problem, I can answer your question in english

    >How could you know the fingerprint tracking for all parties was disabled?

    Because the advertiser told me, he only uses cookietracking, no additional tracking techniques. I´m not sure if a network could use this additional tracking „secretly“ – without the knowledge of the advertiser. But I don´t suggest that.

    VA:F [1.9.22_1171]
    Wertung: 0 (von 0 Bewertungen)
  30. @Markus: Ah, alright, that clarifies it all for me :-). Interesting findings you have there, keep up the good work!

    VA:F [1.9.22_1171]
    Wertung: 0 (von 0 Bewertungen)
  31. btw: Lt. meinen Informationen nutzt mind. 1 getestetes Netzwerk immer alle Technologien, also Cookie-Tracking und Non-Cookie-Tracking/Fingerprint-Tracking (Viewtracking in diesem Fall wohl nicht von Belang), auch wenn es der Betreiber/Merchant nicht ausdrücklich untersagt. Am besten mal die betr. Netzwerke dazu befragen, die sollten es genauer wissen ;-)

    VA:F [1.9.22_1171]
    Wertung: 0 (von 0 Bewertungen)
  32. avatar Markus

    Wenn es der Betreiber nicht untersagt, halte ich das aber auch für legitim, alle vorhanden Technologien einzusetzen, damit möglichst alle Sales (die nach dem Klick erfolgen) erfasst werden. Warum auch nicht?

    Vom Betreiber des Partnerprogramm 1 weiß ich, dass sie grundsätzlich nur Cookietracking akzeptieren. Wenn ich da jetzt beim Netzwerk nachfrage, ob auch wirklich nur Cookietracking eingesetzt wird, werde ich wohl kaum was gegenteiliges zu hören bekommen.

    Partnerprogramm 2 akzeptiert ohnehin nur Sessiontracking. Wenn da ein Netzwerk mehr machen würde, würde das auf jeden Fall deutlicher aus der Reihe fallen.

    VA:F [1.9.22_1171]
    Wertung: 0 (von 0 Bewertungen)
  33. Zitat:“Partnerprogramm 1 müsste ich eigentlich alles sofort über zanox laufen lassen. Dazu muss ich aber erst einmal über meinen eigenen Schatten springen – daran arbeite ich noch ;).“

    :-) :-) :-)

    VA:F [1.9.22_1171]
    Wertung: 0 (von 0 Bewertungen)