(Sorbisciti tutto il pippone teorico, arriva ai consigli degli smanettoni e ritarda il giorno in cui le macchine prenderanno il tuo posto oppure fuggi subito e goditi gli ultimi giorni di professione)
La prendo larga:
I primi 30 minuti successivi alla messa live di un contenuto determinano “il successo” o l’insuccesso dello stesso.
In pratica: “O la va o la spacca”.
Questa cosa non è scritta in nessun manuale ma son sicuro l’avrai notato, non è vero?
Pubblicando da qualsiasi profilo, ti sarai accorto che più o meno su qualunque social se quello che hai postato inizia subito ad avere apprezzamenti/interazioni avrà sempre più visibilità e di conseguenza più esposizione, diversamente il contenuto finirà -quasi certamente- nel dimenticatoio.
Questo è uno dei motivi per cui molti utenti cancellano contenuti se non raggiungono un certo numero di like in uno determinato span di tempo – e di conseguenza il motivo per cui instagram aveva temporaneamente nascosto il numero di like nei post- ma questo potrebbe essere un altro articolo, se vuoi sapere se lo scriverò lascia la tua mail qui, non spammo, prometto.
Se abbiamo chiaro l’obiettivo delle piattaforme social la motivazione a questo fenomeno è molto semplice da comprendere.
Al contrario di quanto dichiara ad esempio Mark Zuckemberg:
“Bringing the world closer together”
L’obiettivo di Meta e di tutti i social che guadagnano attraverso la pubblicità è semplice:
Trattenere l’utente all’interno della piattaforma il più a lungo possibile in modo da mostrare contenuti per cui qualche inserzionista sta pagando.
Per farlo, la piattaforma deve trovare un bilanciamento fra quello che l’utente vorrebbe vedere e quello che la piattaforma deve mostrare per monetizzare.
Per questo motivo se la piattaforma reputa intrattenente il tuo contenuto sarà ben felice di mostrarlo ad un numero più alto di persone perchè in qualche modo starai facendo il suo gioco, ovvero offrirai ai suoi utenti un motivo per rimanere sulla piattaforma.
Lo stesso principio vale per le creatività delle tue campagne.
Se le AD che stai facendo girare risultano “interessanti” per il target che hai selezionato: Costeranno meno.
(Sì, se spendi più di mille euro al mese in adv, ho generalizzato.)
Siamo d’accordo quindi che ho tutti gli interessi nel trovare le creatività che performano meglio, come fare?
Veniamo al nocciolo di questo articolo e rispondiamo alla domanda:
Come fa la piattaforma a definire se un contenuto è interessante o meno?
Effettua dei test.
La rappresentazione che mi sono fatto è più o meno questa.
Prendiamo l’insieme dei componenti del target, quindi il pubblico potenziale;
(mi concentrerò sulla parte pubblicitaria, ma se non fai campagne puoi immaginare, nel caso di un profilo privato, “gli amici” o i follower, il concetto è lo stesso.)
L’algoritmo distribuirà ad una piccola porzione di questo target il contenuto giudicandolo sulla base del comportamento che questi selezionatissimi utenti avranno nei confronti del contenuto.
Come vengono selezionati questi profili?
Per non rendere la cosa troppo complicata, diciamo: In maniera casuale.
(Se ti interessa la versione approfondita fammelo sapere così nel caso la scrivo)
La performance della tua creatività è quindi affidata al caso.
Da un test iniziale potrebbe risultarti più performante un angolo comunicativo o una creatività solo perchè è stata mostrata ad un primo insieme di utenti ben predisposti nei confronti del contenuto.
O viceversa ovviamente.
(Questo è uno dei motivi per cui se sei un advertiser vecchia scuola, duplicando la campagna ritornavi ad avere risultati.)
Questo preambolo serviva a convincerti del fatto che la struttura ed i ragionamenti che dovremo fare per testare le creatività delle campagne avranno come obiettivo quello di abbattere il più possibile l’incidenza della casualità sul risultato dei test che effettueremo.
Andiamo al sodo, e a come testare le creatività nelle campagne Meta.
Questi sono i consigli “teorici”.
- Crea una nuova campagna.
Io lo so che nel day-by-day hai un sacco di robe da fare e pubblichi le creatività nuove in una campagna già esistente ma che ti piaccia o meno i dati raccolti dal gruppo di inserzioni influenzeranno i risultati delle AD.
Stacce.
Inoltre, sia mai che la campagna che sta girando sia stabile e abbia creatività che performano, immettere altre creatività anzitempo potrebbe destabilizzare le performance.
Inserisci le creatività quando serve, ovvero quando hai cali di performance. Già lo vedi Toretto che ti dice “troppo presto” eh?…
- Utilizza lo stesso obiettivo algoritmico delle campagna in cui dovrai utilizzare le AD.
Abbiamo capito che non mi fai una campagna nuova e butti le nuove creatività nella campagna che sta “girando”, ma se lo facessi, utilizza lo stesso obiettivo algoritmico (CHE DEVE ESSERE CONVERSIONE) della campagna in cui andrai ad inserire le creatività.
Troppo spesso mi confronto con persone che non hanno chiaro che in base all’obiettivo di campagna selezionato l’algoritmo andrà a ricercare all’interno del target che definiremo gli utenti più inclini a realizzare quest’ultimo.
Ad esempio, persone che acquistano possono interagire pochissimo con il contenuto.
Se testiamo le stesse creatività su obiettivo interazione, quindi su persone inclini ad interagire otterremo un risultato completamente forviante se siamo interessati a creatività che dovremo utilizzare per obiettivi di conversione.
- Sii “equo” nei formati.
Meta predilige i contenuti complessi, i video tendenzialmente performeranno sempre meglio di creatività statiche.
Per questo motivo, se per caso stai testando angoli comunicativi o pattern interrupt fallo a parità di formato.
Come per qualsiasi test: Metti in A/B test una variabile alla volta.
esempio:
Video Angle 1 vs Video Angle 2
NON
Video Angle 1 vs Foto Angle 2
- Scegli un target ampio.
L’algoritmo ha bisogno di andarsi a prendere chi pensa sia giusto, molti preferiscono un pubblico broad, io se posso escludo porzioni di target.
(ad esempio, se vendo giacche in pelle e lavoro con obiettivo conversione [vendita] escludo i vegani.)
Non provare a farmi cambiare idea che discutiamo.
- Impostato tutto questo non ti rimane che creare delle regole automatizzate per cui la delivery delle AD in test sia il più simile possibile in modo da evitare che l’AD che inizia a spendere meglio si aggiudichi tutto il budget dall’algoritmo.
- Se stai pensando “sì ok, ma quanto budget devo mettere su ogni test” provo a risponderti.
Concettualmente l’obiettivo nel testare le creatività delle campagne è evitare che l’algoritmo trovi una AD più performante delle altre e spenda tutto il budget lì sopra “snobbando” le altre.
Dovrai quindi impostare le regole in modo da avere una delivery il più uniforme possibile in modo da dare le stesse chance a tutte le creatività.
Provo a spiegarmi con un esempio:
Supponiamo che io abbia 3 creatività e un budget per 9000 impressions, senza regole è verosimile che la prima creatività riceva 500 impressions, la seconda mille e la terza -quella che è piaciuta di più all’algoritmo- 7500.
Ragionando in questo scenario, dovrò impostare delle regole automatizzate affinchè la delivery di questo test avvenga in maniera identica su ogni creatività, quindi 3000 impressions su ogni AD.
Il risultato del test ci fornirà con certezza le AD migliori?
Assolutamente no, per quanto possa andare a calmierare la varianza posso “avere fortuna” con le prime 3000 impressions…
Rifacendo il test duplicando lo stesso AD SET potresti ottenere risultati diversi, il goal nella scelta della regola quindi è quello di testare la creatività su una porzione di target con validità statistica.
Non escludere tuttavia la possibilità di rifare il test, questa opzione conceditela soprattutto quando hai uno storico e ha senso fidarti del tuo istinto prima di bidonare AD che pensi potrebbero funzionare.
Tornando alle regole da impostare, sono le impressions l’indicatore migliore su cui impostare regole: Non per forza.
Se posso scegliere imposterei regole sulla CPA, tuttavia dipende dal budget.
Fine della parte teorica e dell’articolo.
Ho fatto delle interviste, per capire nella pratica come si traduce tutto questo.
Ho chiesto a chi di lavoro spende soldi in adv, nella pratica, come si comporta per testare creatività.
La teoria è importante, per carità, lo è molto di più scaricarla a terra e nel farlo dobbiamo tenere conto che verranno prese scorciatoie o bisognerà scendere a compromessi con la scelta migliore.
Questo ceffo è Alberto Ghirardelli, è entrato in GH perchè mi ha fatto questa domanda fatale nell’estate del 2018:
“Che specialistica mi consigli per arrivare a fare il tuo lavoro?”
Da allora non ha più fatto specialistiche e oggi spende qualche milione di euro in budget in adv.
Salve, per valutare le creatività in GH utilizzo diversi metodi, in base al business, in base agli strumenti del cliente e in base al budget del progetto.
Solitamente la fase di testing, viene influenzata non solo dalla creatività, ma anche, dalla combinazione di copy e creatività, dal tipo di impostazione di pubblico o targetizzazione dettagliata scelta, ecc.
Per quanto riguarda la sola fase di test di creatività in un business con un budget investito decente (rapportato al costo del prodotto o di ciò che vogliamo ottenere), andiamo a testare non più di 5-6 creatività per adset, dopodiché nei progetti dove non utilizziamo software esterni per il monitoraggio delle prestazioni, andiamo a impostare delle regole di spegnimento e accensione delle ads in base allo speso, in base alla CPA e in base ad altri criteri come il CTR o il CPM.
Successivamente una volta individuate le creatività vincenti e aver dato possibilità a tutte le creatività di spendere almeno fino alla CPA consentita, andiamo a scalare il budget in quella campagna finché quelle ad non si esauriscono a livello di performance.
In seguito abbiamo 2 possibilità, quella di andare a ritestare le creatività vincenti in un’altra campagna per scalare più velocemente, oppure andare a dare una seconda possibilità in una campagna LOSERS le creatività perdenti.
In questo modo avremo la possibilità di scalare più velocemente, ma anche quella di dare una seconda chance alle creatività perdenti.
Eventualmente è possibile andare a testare tutte le creatività con nuovi target, oppure un’altra possibilità è quella di cambiare la CONVERSIONE di ottimizzazione e avviare un nuovo test con tutte le creatività.
In campagne dove abbiamo molte creatività e dove decido di mantenere tutto all’interno di una stessa campagna, utilizzo anche regole di turning, quindi oltre a impostare lo spegnimento delle ad una volta sorpassata la CPA, imposto anche regole di accensione dopo tot giorni e dopo non aver speso un determinato budget per determinati giorni.
Costui invece non necessità di presentazioni.
Il mio socio Michelangelo, che probabilmente dovrò far riassumere per voi da chatGPT.
Sentiamo come imposta le campagne per testare le creatività.
Partiamo dal concettuale:
- in una fase iniziale: algoritmo > uomo
- in una fase avanzata: algoritmo a servizio dell’uomo
La procedura che prediligo per la fase di test delle creatività è: applicare un obiettivo algoritmico che non spinga alla conversione.
Uuuuuuu
In che senso?
La campagna copertura in che modo influenza la delivery dell’annuncio?
Su base di un CPM minore possibile, giusto?
Giusto.
Bene?
Molto.
Perché?
Perché non influenzando il target maggiormente propenso all’azione finale, il risultato sarà:
se un’ads funziona bene in copertura, funziona bene anche in conversione.
Su quale metriche mi baso?
Mi basta il CTR.
Se c’è un’ads che in copertura ha un buon CTR (>0,7%) allora in campagna conversione sarà una delle top ads.
Fine?
No.
Questa l’ho fatta molto complessa, facciamola più semplice per tutti.
Sono in una condizione in cui: devo scalare e veloce anche.
Metto tutte le creatività in un’unica campagna conversione, stabile (indicata come dati presenti negli ultimi 7 giorni, per adset).
In questo adset attivo – per volta – 4/5 ads per volta.
Fine?
No.
Quelle che performano bene, bene.
Quelle che sottoperformano, vanno a casa.
Fine?
No, calma.
iOS14.5 ha introdotto una marea di late attribution.
Quindi?
Quindi le ads che ho spento a giorno 1, vado a ricontrollare che siano effettivamente sottoperformanti, fino a giorno 7.
E come gestisco quelle spente?
Ne attivo una o due, quando vado sotto le 3 ads attive.
Così, avete sia la versione strong, che la versione easy. 🙂
Ah…
e poi occhio alle losers.
cit alberto
e poi in una fase iniziale del progetto, inserite regole di turning delle campagne.
cit federico
saluti.
Prima di tutto dobbiamo aver fatto una buona analisi delle audience per capire le cose che sono da testare.
Poi, il metodo più semplice è fare una campagna conversioni e all’interno della campagna metterci più gruppi di inserzione e lì ci sono due opzioni.
Opzione 1: fare tutti i gruppi di inserzioni uguali identici l’uno con l’altro cambiando solo le creative per vedere se ci sono delle creatività che performano meglio su tutti i gruppi e per farlo faccio una campagna con tre adset identici e all’interno degli adset metto diverse creatività ma sempre le stesse creatività per ogni adset.
Opzione 2: si testa per angle, quindi faccio adset 1 con angle 1 e creatività angle 1, adset 2 con angle 2 e creatività angle 2 e a quel punto riesco a gestire meglio la parte di testing creativo in base al singolo angolo.
Oppure posso fare anche una cosa mista e prendo tutte le creatività per un angolo specifico e faccio più adset identici per quell’angolo.
btw Fra ha fatto un video super esaustivo sull’argomento qui:
https://www.youtube.com/watch?v=3issHWqqWvI&t=1557s
Parto col dire che a volte credo ci si faccia un po’ troppe “pippe” mentali sulla parte tecnica delle Facebook Ads.
Sì, noi advertisers ci infiliamo spesso in discorsi che si avvicinano a quelli di 2 fisici nucleari seduti al tavolino di un bar del CERN…
…A volte però la strada è molto più semplice e lineare.
Ciò non toglie che è sempre molto affascinante discuterne, soprattutto insieme a professionisti che stimo molto come le persone coinvolte in questo articolo.
Ok arrivo al dunque.
Io credo che per la fase di testing, come per quella di scaling ci siano tante possibilità.
Negli anni ho conosciuto tantissimi advertisers di successo che usavano i metodi più disparati.
Chi testa con obiettivo traffico.
Chi testa con una ad in ogni adset.
Chi testa con obiettivo copertura.
Dunque mi dispiace deluderti ma…
La risposta n. 1 è sempre quella più brutta.
Quella che “no amico mio, non sono arrivato fino a qui per sentirmelo dire, no!”.
Hai già capito giusto?
Sì, la risposta n.1 purtroppo è: dipende.
(Stai con me però perché arriviamo ad un dunque più interessante)
Dipende dal budget.
Dipende dalla pazienza del cliente/business (sicuramente giusto testare una crea per volta spegnendo ogni tot impression ma in alcuni casi è impossibile)
Dipende dal tuo metodo.
Ecco, alla base di tutto ci deve essere un ragionamento logico e soprattutto uno schema mentale pre definito.
Faccio A e se succede B, faccio C.
Se succede D faccio E.
L’errore più grande che vedo fare in fase di testing è partire senza uno schema e un metodo.
Cosa succede poi puntualmente?
Che nel momento in cui bisogna fare il passo successivo ci si incarta o si va a caso.
Devi sempre avere un metodo e ragionare come in una partita a scacchi.
Appurato questo, ciò che solitamente noi facciamo è:
Opzione a. Adset identici a livello di pubblico, copy, posizionamenti ecc. che variano solo nella creatività.
Es 3 adset uguali duplicati, con 2 ad ognuno e dentro creatività diverse.
Il tutto ottimizzato per l’obiettivo che precede quello finale (es. Il mio obiettivo è purchase, ottimizzo in fase di testing per inizio check out).
Perché questo?
- testo più velocemente (mi costa meno raggiungere un IC rispetto a un PUR)
- Raccolgo più segnali e social proof
Opzione B. Stessa identica cosa ma con l’obiettivo finale (es. PUR o Lead)
Quando uso uno o l’altro?
Per la lead generation nel 99% dei casi usiamo l’opzione B.
Per le campagne con ob acquisto 50 e 50.
Poi che si fa?
Si spengono gli adset peggiori e si continua a testare.
Testare creatività, pubblici, posizionamenti…
“E come scali amico mio se testi solo?”
Dovrei aprire un’altra grossa parentesi ma ti lascio con una domanda.
E se scalassi rimanendo sempre in fase di testing?