Chiunque si sia avvicinato alla web analytics da sufficiente tempo si sarà trovato di fronte agli A/B test. Strumenti preziosi per interpretare il proprio target. Strumenti che spesso vengono raccontati dagli altri consulenti come quasi sovrannaturali, in grado di incrementare di svariate decine (centinaia!) di punti percentuali le performance di landing page ed e-commerce.
“Con le statistiche puoi provare ogni cosa, persino la verità” – Anonimo
La realtà è spesso diversa e passa attraverso un’iniezione di consapevolezza per nulla banale. No, se il tuo consulente non ti ha ancora consigliato di effettuare A/B test non significa che ti stia fregando. No, se hai concluso un A/B test senza grandi miglioramenti non significa che non hai speranza.
Oggi ti racconto sette cose che (forse) nessuno ti ha mai detto sugli split test A/B. E come fare a metterne in pratica uno che funzioni.
1. Non riguarda testare due strategie di marketing
L’esempio classico riguarda due pulsanti per la conferma di un’iscrizione. Il primo contiene un testo del tipo “Scarica la guida” e il secondo “Scarica gratuitamente la guida”. È palese – pensa un po’- che la seconda opzione, contenendo la parola “gratuitamente” possa risultare ben più appetibile e senza impegno della prima.
Tuttavia, un A/B test non dovrebbe testare tutto ciò che è comunque un miglioramento già applicabile di base a una landing o a un sito nel suo insieme. Puoi variare *il modo* in cui dici qualcosa nei tuoi testi, il modo in cui comunichi qualcosa, non il suo significato.
2. Devi sapere cosa testare
Testa tutto, testa sempre. Verissimo, ma se non sai da dove partire rischi di impiegare mesi per scoprire una variazione il cui impatto sull’economia globale del sito sarà pressoché nullo.
Significa sapere interpretare i dati di traffico prima ancora di sapere cosa siano gli A/B test. Significa conoscere come il tuo target si muove sul sito e perché, in modo da predisporre le variazioni più efficaci negli snodi in grado di veicolare utenti migliori e più motivati a compiere le azioni che desideri.
3. Devi sapere quanto testare
Tralasciando gli aspetti matematici più noiosi (molti tool se ne fanno carico da soli), un A/B test diventa rilevante solo quando ha raggiunto un dato congruo. Un sufficiente numero di test effettuati, in grado di garantire la bontà il risultato ottenuto.
Interrompi un test troppo presto e avrai ottenuto la risposta sbagliata. Interrompilo troppo tardi e avrai perso tempo prezioso. Fortunatamente, come scrivevo, tool come Google Analytics, Optimizely e tutti gli altri integrano più di un sistema per assicurarsi di aver ricevuto sufficienti dati prima di emettere un verdetto.
4. Se c’è troppa discrepanza, non è servito a granché
Il succo di un test di questo tipo è scoprire come tra un set di varianti più o meno distanti tra loro, una di queste sia in grado di generare un risultato percentuale maggiore dell’errore intrinseco del test.
Se, tuttavia, il vincitore supera di gran lunga tutte le altre variazioni, non ti è servito assolutamente a niente. Hai solo scoperto che qualcosa (il vincitore) continua a funzionare mentre tutto il resto è irrilevante agli occhi del visitatore. Ricomincia da capo.
5. Ti serve traffico…
Tanto traffico, possibilmente. Ti serve sufficiente traffico da poter testare i tuoi utenti in un tempo ragionevole (diciamo entro 30 giorni). Anche ammettendo che tu voglia riservare al test il 100% del traffico generato dal tuo sito e con solo un paio di variazioni in campo, avrai bisogno di almeno qualche migliaio di utenti al giorno.
6. …anche pagato
Così, forse starai pensando di attivare un test A/B sottoponendolo a un flusso di traffico pagato da Google AdWords, Facebook Ads, LinkedIn Ads o un qualunque altro -Ads esistente là fuori. Ottimo. Ricorda solo che per mantenere coerente il test non potrai variare *anche* la campagna pubblicitaria mentre stai variando la tua destinazione.
Questo, come puoi immaginare, complica leggermente le cose, imponendoti di testare le tue pagine solo su (parti di) campagne già avviate e in grado di generare lo stesso tipo di traffico, allo stesso volume, nel tempo.
7. Non ne basta uno solo
No, non ne basta uno. Diffida di chi ti propone gli A/B test come oracoli con cui con poca spesa e poco tempo avrai scoperto i più intimi segreti dei tuoi lettori o clienti. Testerai a lungo e scoprirai molto. Forse non scoprirai ciò che ti aspettavi. E dovrai testare ancora per assicurartene. E passerà altro tempo.
La mappa
Gli A/B test non sono la soluzione. Sono la mappa che ti consente di arrivare alla soluzione. Ogni test determina vincitore e vinti all’interno di un contesto che tu soltanto hai scelto. E verso un obiettivo che hai quantificato a priori come rilevante.
Non tutti i brand possono permettersi un A/B test che dia risultati efficaci. Non tutti i brand possono permettersi di testare tutto il loro traffico nello stesso periodo di tempo. O di interrompere campagne ADV pagate e le relative variazioni per testare in maniera scientifica ogni proposta.
Ma dove c’è spazio, fanno realmente la differenza.