A/B Test: guida pratica

Facebook
Threads
Twitter
LinkedIn

A/B Test: guida pratica (con esempi reali) per scegliere la variante che vende di più

Negli ultimi anni ho visto landing page appariscenti perdere contro varianti molto più sobrie. Non c’è magia: c’è A/B testing fatto bene. Quando ho il dubbio tra due soluzioni — headline, immagine, prezzo, layout — non chiedo un’opinione, chiedo ai dati. In questo articolo ti spiego cos’è davvero un A/B test, quando farlo (e quando no), come progettarlo e leggerlo senza errori, con esempi concreti per e-commerce, SaaS e lead generation locale. Niente formule astruse: metodo operativo, checklist, KPI e trappole da evitare.


Cos’è un A/B test (detto semplice)

Un A/B test confronta due varianti (A = controllo, B = nuova versione) mostrandole a campioni casuali di utenti e misurando quale porta più vicino all’obiettivo: CR (tasso di conversione), CTR (click-through rate), CPA (costo per acquisizione), AOV (scontrino medio), ecc. Se testi 3+ varianti, parliamo di A/B/n; se cambi più elementi nello stesso blocco in combinazione, è multivariate (MVT).

Idea chiave: stai isolando il causale: a parità di pubblico e periodo, è la variante a generare la differenza, non la fortuna del giorno.


Quando ha senso testare (e quando no)

Sì, testa quando:

  • hai traffico sufficiente (almeno qualche migliaio di sessioni/mese sulla pagina) e conversioni a doppia cifra alla settimana;

  • la differenza attesa (MDE, Minimal Detectable Effect) è realistica (es. +10% sul CR, non +200%);

  • il cambiamento è materiale: blocco hero, pricing, form, checkout, CTA, prove sociali, sequenza sezioni.

Meglio NON testare quando:

  • il traffico è troppo basso (rischi mesi di test inconcludenti);

  • stai affrontando un bug o un problema di usabilità evidente (prima risolvi, poi eventualmente ottimizzi);

  • hai una campagna temporalmente anomala (lancio, Black Friday, emergenze): misura ma non trarre conclusioni generalizzabili.


Il mio metodo in 7 passi

  1. Definisci l’obiettivo (una sola metrica primaria)
    Esempi: CR lead, CR checkout, CTR al passo 2, add-to-cart. Aggiungi 1–2 guardrail (es. bounce rate, tempo pagina) per evitare “vittorie tossiche”.

  2. Formula l’ipotesi
    “Se spiego cosa succede dopo il click e aggiungo garanzia visibile vicino alla CTA, allora il CR form aumenta del +10% in 2 settimane.”

  3. Disegna la variante (cambia una cosa che conta)
    Evita micro-tweak invisibili. Punta a chiarezza, prova, rischio: headline, immagini di contesto, prova sociale, prezzo/benefici, CTA specifiche.

  4. Imposta il test

    • Randomizzazione 50/50 (o split diverso se vuoi conservare performance).

    • Stesso periodo per A e B.

    • Segmenti coerenti (mobile/desktop separati se hanno comportamenti diversi).

    • Escludi personale interno, bot, traffico di test.

  5. Durata e campione
    Regola pratica: almeno 2 cicli completi del tuo business (minimo 1–2 settimane) e almeno 250–400 conversioni totali se puoi. Non “fermare quando sembra vincere”: è il modo più rapido per auto-ingannarti.

  6. Monitora integrità (SRM & co.)
    Se lo split 50/50 risulta 60/40 con volumi grandi, c’è SRM (Sample Ratio Mismatch): verifica filtri, targeting, bug.

  7. Leggi il risultato
    Più che fissarti sul solo “p-value”, guarda l’intervallo di confidenza del lift e chiediti: “Questa differenza è rilevante economicamente?” Se sì, implementa e pianifica il follow-up test.


Cosa testare (che sposta davvero)

  • Hero & promessa: titolo con risultato/tempo senza ostacolo vs claim generico.

  • CTA: “Prenota la demo di 15′ (senza carta)” vs “Contattaci”.

  • Prove & garanzie: testimonianza verificabile con numeri + SLA vs badge generici.

  • Immagini: prodotto in uso vs still life; persone reali vs stock.

  • Pricing/piani: pacchetti semplificati (3 piani) vs tabella lunga; mensile evidenziato vs annuale scontato.

  • Form: 4 campi vs 8 campi; maschere intelligenti + auto-fill vs standard.

  • Sequenza sezioni: “problema → come funziona → prove → CTA” vs ordine alternativo.


Esempi concreti (settori diversi)

1) E-commerce abbigliamento

Ipotesi: mostrare taglie disponibili sopra il fold + “reso gratuito 30 giorni” vicino alla CTA aumenta l’add-to-cart.
Risultato tipico: +7–12% add-to-cart su mobile; AOV invariato (guardrail ok).
Next: test “foto indossato” vs still life + guida taglie a fisarmonica.

2) SaaS gestione fatture

Ipotesi: CTA specifica in prima persona + micro-testo “senza carta di credito” aumenta trial start.
Risultato: +14% start trial; attivazione D7 stabile (guardrail).
Next: pricing toggle mensile/annuale pre-selezionato + testimonial video 30″.

3) Lead gen locale (idraulico h24)

Ipotesi: headline tempo certo (“Arriviamo entro 90′”) + bottone click-to-call fisso su mobile aumenta chiamate.
Risultato: +22% chiamate; spam lead invariato.
Next: FAQ anti-obiezioni prima della CTA; foto mezzo brandizzato al posto dello stock.


KPI: quali guardo e come li interpreto

  • Primaria: CR (form, checkout, trial), CTR (passo successivo), Revenue/visitor.

  • Secondarie (guardrail): AOV, tempo pagina, rimbalzo, errori form, tasso di refund/cancel.

  • Operative: scroll depth, click su ancore, aperture FAQ, play video.

Lettura rapida dei pattern

  • CTR alto ma CR basso → frizione post-click (form lungo, prezzo opaco).

  • CR su desktop ↑, mobile ↓ → problemi di layout/velocità mobile.

  • Add-to-cart ↑ ma revenue flat → AOV giù o checkout problematico: serve test sul carrello/checkout.


Errori frequenti (e come li evito)

  • Stop anticipato quando “sembra vincere”: aspetto il campione minimo e il ciclo completo (weekday/weekend).

  • Test multipli sovrapposti sulla stessa audience: creo coda test e blocchi temporali.

  • Varianti invisibili: se l’utente non percepisce il cambiamento, non vedrai effetto.

  • Obiettivo confuso (due metriche primarie): scelgo una sola metrica che decide il vincitore.

  • Tanti micro-test scollegati: costruisco roadmap partendo dall’impatto (pagine a revenue alto).

  • Conclusioni da segmenti minuscoli: evito “su Safari in Puglia di notte vince B…” se i numeri sono pochi.


Quanto deve durare un test? (senza feticismo statistico)

Non esiste “X giorni” che vada bene sempre. Io uso questa regola pratica:

  • Minimo 14 giorni se il sito ha cicli settimanali marcati.

  • Almeno 250–400 conversioni totali tra le varianti (se possibile).

  • Stop rules chiare prima di partire (no “p-hacking”).
    Se il traffico è troppo basso, preferisco migliorie “best practice” o un test di coorte più qualitativo (user test, session recording) in attesa di volumi.


A/B test, bandit e MVT: cosa scelgo quando

  • A/B classico: ottimo per decisioni binari su elementi ad alto impatto.

  • A/B/n: quando ho 3–4 headline o creatività da scremare in fretta.

  • Multivariate (MVT): utile solo con tanto traffico; altrimenti diluisce.

  • Multi-armed bandit: per rotazione creatività in campagne sempre-on (ottimizza allocazione, meno “rigore” causale).


Checklist pre-lancio (la mia)

  • Metrica primaria e MDE definiti.

  • Varianti visibilmente diverse, testate su mobile/desktop.

  • Split random 50/50, esclusi bot e IP interni.

  • Durata minima e regole di stop scritte.

  • Eventi tracciati (form submit, add-to-cart, checkout step).

  • Piano “se vince B” (dev, contenuti, traduzioni).

  • Log dei test: ipotesi, asset, risultati, decisioni.


SEO kit (pronto per il tuo blog)

  • Meta title: A/B Test: cos’è, come farlo, esempi e metriche (guida pratica)

  • Meta description: Scopri come progettare e leggere un A/B test che migliora davvero conversioni e ricavi. Metodi, KPI, errori da evitare ed esempi concreti.

  • Slug: /ab-test-cosa-e-come-farlo

  • Keyword principali: A/B test, A/B testing, test A/B, A/B/n, multivariate test, CRO, conversion rate, come fare A/B test, esempi A/B test, KPI A/B test

  • H2 suggeriti: cos’è; quando farlo; metodo in 7 passi; cosa testare; esempi; KPI; errori; durata; bandit/MVT; checklist.


Conclusione

Quando uso l’A/B testing con ipotesi chiare, variante coraggiosa e lettura onesta dei numeri, smetto di discutere gusti e passo a decisioni che pagano. Non vincono sempre i fuochi d’artificio: spesso vince spiegare meglio, ridurre il rischio, chiedere un’azione specifica. Io lavoro così: una metrica che conta, una differenza che si vede, abbastanza tempo da evitare abbagli. È sorprendente quante volte un singolo test — fatto bene — valga più di mesi di brainstorm. Se vuoi, prendo una tua pagina chiave, preparo due varianti (hero+CTA+prove) e un piano di misura: hai un test pronto che può portare fatturato nel giro di poche settimane.

potrebbe interessarti anche: