Performance Max potrafi działać jak dobrze naoliwiona maszyna… dopóki nie zaczniemy zadawać trudnych pytań: „co dokładnie tu zadziałało?” i „czy da się to powtórzyć?”. W praktyce najczęściej nie potrzebujesz rewolucji w całej kampanii — tylko sensownego testu A/B, który odpowie na jedno konkretne „dlaczego”.
Dlaczego test A/B w Performance Max wygląda inaczej niż w klasycznych kampaniach?
Jeśli masz za sobą choć kilka kampanii w wyszukiwarce, to naturalny odruch jest prosty: robimy dwie reklamy, dzielimy ruch, porównujemy CTR i konwersje — koniec historii. W Performance Max (PMax) ten schemat rzadko działa 1:1, bo to kampania oparta o automatyzację, miks kanałów i uczenie maszynowe. A to oznacza, że „grupa reklam” nie jest tu klasyczną grupą reklam, tylko grupą komponentów (asset group) — zestawem kreacji, sygnałów i stron docelowych, które system dopasowuje do użytkowników w różnych miejscach (Search, YouTube, Discover, Gmail, Display).
W praktyce, gdy klient z Wrocławia (np. firma usługowa: hydraulik, klinika, szkoła językowa) pyta: „Czy lepiej działa reklama z ceną czy bez ceny?”, to w PMax odpowiedź wymaga trochę sprytu. Nie porównujemy jednego nagłówka do drugiego w próżni, bo system miesza komponenty, zmienia miejsca emisji i optymalizuje pod sygnały. Dlatego test A/B musi być zaplanowany tak, żeby izolować jedną zmienną, trzymać resztę względnie stałą i dać algorytmowi wystarczająco dużo danych.
Co w PMax realnie da się testować „A/B”?
Zanim przejdziemy do procesu, uporządkujmy, co ma sens, a co często jest stratą czasu:
- Kreacje i komunikaty w asset group: nagłówki, long headline, opisy, obrazy, wideo, logo.
- Strona docelowa (w praktyce: różne landing page albo różne kategorie w e-commerce).
- Sygnały odbiorców (audience signals): np. segmenty remarketingu vs segmenty zainteresowań; tutaj test bywa podchwytliwy, bo sygnał to „podpowiedź”, a nie twarde targetowanie.
- Feed vs kreacje (w e-commerce): jak dużo „ciężaru” oddajemy Merchant Center, a jak dużo dokładamy materiałów własnych.
- Różne podejścia do oferty: „szybka wycena” vs „umów konsultację”, „promocja -10%” vs „darmowa dostawa”.
Za to testowanie wielu rzeczy naraz (np. nowe grafiki i nowa strona i inny cel) kończy się tym, że po 3 tygodniach mamy ładny raport, ale żadnej pewnej odpowiedzi. To częsty widok w audytach: kampania „zmieniana co tydzień”, a potem zdziwienie, że Performance Max „wariuje”.
Najpierw fundament: upewnij się, że mierzysz to, co trzeba
Test A/B jest tyle wart, ile warte są dane. Jeśli konwersje są zdublowane, import z GA4 nie działa albo leady z formularza wpadają jako „view_content”, to wynik testu będzie złudzeniem.
Z perspektywy praktyka: zanim cokolwiek przetestujesz, sprawdź trzy rzeczy:
- Definicja konwersji — czy kampania optymalizuje pod właściwe działania (lead, zakup, telefon), a nie pod mikrocele „dla statystyk”.
- Atrybucja i import — czy konwersje z GA4/Google Ads nie liczą się podwójnie i czy mają sensowną wartość.
- Spójność formularzy/telefonów — zwłaszcza w firmach usługowych: czasem pół leadów to kliknięcie w numer, a pół to formularz. Jeśli mierzysz tylko jedno, algorytm „nauczy się” nie tego, co chcesz.
Jeśli temat pomiaru wymaga uporządkowania, to najczęściej zaczynamy od sensownego wdrożenia GA4 i zdarzeń. W naszej praktyce to jest ten moment, w którym zamiast „wydaje mi się”, zaczyna się rozmowa w stylu: „wariant A ma mniej leadów, ale wyższy odsetek kwalifikowanych” — i to jest dopiero paliwo do decyzji. W razie potrzeby punkt wyjścia to wdrożenie Google Analytics 4.
Jak podejść do testu A/B w PMax: dwie bezpieczne metody
W Performance Max masz dwie praktyczne drogi. Jedna jest „czystsza” metodologicznie, druga bardziej „warsztatowa”, ale często szybsza w realnych warunkach klienta.
Metoda 1: oficjalny eksperyment PMax (Performance Max experiments)
Google umożliwia tworzenie eksperymentów dla Performance Max. To najlepsza opcja, gdy chcesz:
- utrzymać porównywalny podział ruchu,
- testować na tym samym budżecie i podobnych warunkach aukcyjnych,
- mieć wyniki ujęte w jednym miejscu z podsumowaniem różnic.
W eksperymencie zwykle tworzysz wariant kampanii, zmieniasz jeden element (np. asset group albo stronę docelową), a system dzieli ruch pomiędzy „control” i „treatment”. W teorii brzmi to idealnie — w praktyce kluczowe jest, żeby nie kombinować za dużo w trakcie i dać testowi czas na „rozbieg”.
Metoda 2: porównanie dwóch asset groups w jednej kampanii (z ograniczeniami)
Czasem test w ramach jednej kampanii jest jedyną sensowną opcją, np. gdy klient ma mały budżet i nie „udźwignie” eksperymentu z osobnym ruchem. Da się to zrobić, ale trzeba uczciwie powiedzieć: to nie jest laboratoryjne A/B. Algorytm może preferować jedną grupę komponentów, a dystrybucja ruchu nie musi być równa.
Żeby to miało ręce i nogi:
- twórz asset groups z bardzo zbliżonymi ustawieniami,
- zmieniaj jeden element na raz (np. komunikat, nie wszystko),
- patrz na dane w horyzoncie 2–6 tygodni, nie 48 godzin.
Krok po kroku: test A/B asset groups w Performance Max (praktyczny proces)
Poniżej proces, który stosujemy najczęściej, gdy klient chce szybciej dojść do wniosków i nie ma warunków na rozbudowane eksperymenty. Nadaje się zarówno dla usług lokalnych (Wrocław i okolice), jak i e-commerce z dostawą w całej Polsce.
1) Zdefiniuj hipotezę — jedno zdanie, jedna zmienna
Zamiast „sprawdźmy nowe kreacje”, zrób hipotezę w stylu:
- „Jeśli w nagłówkach podamy widełki cenowe, spadnie liczba leadów, ale wzrośnie ich jakość i wartość.”
- „Jeśli użyjemy landing page’a z krótszym formularzem, wzrośnie współczynnik konwersji bez spadku jakości.”
- „Jeśli w e-commerce pokażemy produkt na zdjęciu w użyciu (lifestyle), CTR i konwersje wzrosną vs packshot.”
To brzmi jak drobiazg, ale ratuje testy przed chaosem. W audytach kont bardzo często widzę „testy”, które były tak naprawdę serią przypadkowych zmian. Jeśli potrzebujesz uporządkować kampanię przed testowaniem, dobrym punktem startu bywa audyt konta Google Ads.
2) Ustal metrykę sukcesu (i metryki pomocnicze)
Najczęściej wybieramy jedną metrykę główną i 2–3 pomocnicze:
| Typ biznesu | Metryka główna | Pomocnicze |
|---|---|---|
| Usługi (leady) | Koszt/kwalifikowany lead lub wartość konwersji | CTR, współczynnik konwersji, udział połączeń vs formularzy |
| E-commerce | ROAS lub marżowy ROAS (jeśli masz wartości) | CPA, wartość koszyka, udział nowych klientów |
W praktyce w usługach lokalnych często jest tak, że „tani lead” jest najdroższy. Pamiętam kampanię dla firmy remontowej: wariant A generował dużo formularzy, ale po odsłuchaniu rozmów (i sprawdzeniu CRM) wyszło, że połowa to zapytania „najniższa cena, termin wczoraj”. Wariant B z jasnym komunikatem o minimalnym budżecie miał mniej konwersji, ale sprzedaż wzrosła. Dlatego sama liczba leadów bywa zdradliwa.
3) Zadbaj o porównywalne warunki
Żeby test miał sens:
- Nie zmieniaj budżetu w trakcie testu (albo zmieniaj symetrycznie, gdy musisz).
- Nie dodawaj nowych sygnałów, feedów, rozszerzeń „przy okazji”.
- Trzymaj tę samą strategię stawek (np. Maksymalizacja wartości konwersji / Maksymalizacja konwersji) i ten sam cel.
Jeżeli testujesz landing page, upewnij się, że obie strony ładują się podobnie szybko i mają podobną „higienę” techniczną. Zaskakująco często „wariant B przegrywa”, bo miał wolniejszą stronę albo formularz, który na mobile ucinał przycisk. Czasem to sygnał, że najpierw trzeba dopracować bazę — np. stronę firmową. Jeśli działasz lokalnie, sensownym uzupełnieniem jest tworzenie stron internetowych we Wrocławiu (to temat, który potrafi realnie podnieść skuteczność kampanii, zanim zaczniemy polerować kreacje).
4) Zbuduj warianty asset group: A (kontrola) i B (zmiana)
Najbezpieczniej: skopiuj asset group i zmień dokładnie to, co testujesz.
Przykład dla usług: Test komunikatu „szybki termin” vs „gwarancja i jakość”.
- Asset group A: nagłówki z naciskiem na dostępność („Wolne terminy w tym tygodniu”, „Szybka realizacja”).
- Asset group B: nagłówki z naciskiem na bezpieczeństwo („Gwarancja na usługę”, „Doświadczeni fachowcy”).
W obu grupach zostawiasz te same grafiki (albo przynajmniej ich styl), tę samą stronę docelową, podobne sygnały odbiorców. Dzięki temu różnica w wynikach częściej wynika z komunikatu, a nie z „wszystkiego naraz”.
Przykład dla e-commerce: Test zdjęć packshot vs lifestyle. Tutaj zmieniasz obrazy (i ewentualnie wideo), ale nie ruszasz struktury tytułów/opisów, feedu ani ustawień kampanii.
5) Minimalna „objętość” testu: ile danych to „wystarczająco”?
To pytanie pada na konsultacjach regularnie. Odpowiedź: to zależy od wolumenu, ale są praktyczne minimumy:
- Nie oceniaj po 1–3 dniach. W PMax widzimy często „falowanie” wyników.
- Celuj w co najmniej 30–50 konwersji na wariant, jeśli to możliwe.
- Jeśli masz mało konwersji (np. 5–10 tygodniowo), test potrwa dłużej lub musisz testować na „wyższych” zdarzeniach (np. rozpoczęcie formularza) — ale wtedy ostrożnie z wnioskami.
W małych budżetach usługowych czasem robimy sprytne rozwiązanie: najpierw testujemy różnice na wskaźnikach pośrednich (CTR, zaangażowanie, mikrokonwersje), a dopiero potem wprowadzamy zwycięzcę i obserwujemy wpływ na leady przez kolejne tygodnie. To nie jest idealne naukowo, ale w realnym świecie ratuje czas i budżet.
6) Nie „pomagaj” algorytmowi w trakcie — to częsty sabotaż
Najpopularniejsza pułapka: klient widzi, że wariant B ma gorszy wynik po 4 dniach i prosi, żeby „wyłączyć, bo szkoda pieniędzy”. A potem po 2 tygodniach okazuje się, że B miał lepszą jakość leadów albo lepszy ROAS, tylko potrzebował czasu na nauczenie się sygnałów.
Umów się sam ze sobą (albo z zespołem), że test trwa np. 21 dni lub do osiągnięcia konkretnego progu konwersji. Dopiero potem wyciągasz wnioski.
Jak czytać wyniki w Performance Max, żeby nie dać się zwieść
W PMax łatwo wpaść w dwie skrajności: albo wierzyć ślepo w „Performance” z panelu, albo uznać, że „nic nie wiadomo”. Da się podejść do tego pragmatycznie.
Patrz na trend, nie na pojedynczy dzień
Wykresy w PMax potrafią wyglądać jak EKG. Porównuj tygodnie do tygodni (np. pon–niedz vs pon–niedz), szczególnie w usługach lokalnych, gdzie sezonowość tygodniowa jest mocna (weekendy często mają inne zachowania użytkowników).
Segmentuj po typie konwersji
Jeśli masz osobno formularze i połączenia telefoniczne, sprawdź, czy wariant nie „przepycha” tylko jednego rodzaju akcji. W praktyce bywa tak, że jedna wersja kreacji prowokuje kliknięcia w telefon (super dla pilnych usług), a inna generuje dłuższe formularze (lepsze dla usług wymagających briefu).
Uważaj na „Final URL expansion”
Jeżeli w kampanii masz włączoną opcję rozszerzania końcowego adresu URL, PMax może kierować ruch na różne podstrony. W teście landing page vs landing page to potrafi całkowicie rozmyć porównanie. Jeśli testujesz stronę docelową, najczęściej warto to ograniczyć lub świadomie kontrolować.
Przykładowe scenariusze testów, które często przynoszą realny efekt
1) Usługi lokalne: „szybko” kontra „pewnie”
Wrocławskie firmy usługowe mają jedną cechę wspólną: konkurencja jest gęsta, a użytkownik często szuka „na już”. Test, który regularnie daje wnioski:
- Wariant A: komunikacja szybkości (terminy, dojazd, dostępność).
- Wariant B: komunikacja bezpieczeństwa (opinie, gwarancja, doświadczenie).
Najciekawsze jest to, że „zwycięzca” zależy od branży. Dla awaryjnych usług (np. hydraulik) często wygrywa szybkość. Dla usług droższych (np. remonty, zabiegi) bywa odwrotnie.
2) E-commerce: wideo „z telefonu” kontra produkcyjne
W PMax wideo ma znaczenie, nawet jeśli nie czujesz się „YouTube-owy”. Często testujemy:
- Wariant A: eleganckie, produkcyjne wideo (brandowe).
- Wariant B: prostsze wideo typu UGC (produkt w użyciu, naturalne ujęcia).
Paradoks: czasem „gorsze” technicznie wideo wygrywa, bo wygląda autentycznie. Szczególnie w kategoriach, gdzie użytkownik chce zobaczyć skalę, fakturę, realne zastosowanie.
Najczęstsze błędy, które psują test A/B w PMax
- Testowanie trzech rzeczy naraz — potem nie wiesz, co zadziałało.
- Za krótki czas trwania — PMax potrzebuje danych, a faza uczenia nie jest ozdobą, tylko realnym etapem.
- Nieporównywalne asset groups — jedna ma 2 grafiki i brak wideo, druga ma komplet materiałów.
- Problemy z pomiarem — źle ustawione konwersje to najdroższy błąd, bo wygląda „normalnie” w panelu.
- Brak kontroli jakości leadów — w usługach to szczególnie ważne; czasem dopiero CRM pokazuje prawdę.
Co zrobić po teście: wdrażanie wniosków bez psucia tego, co działa
Gdy masz zwycięzcę, pojawia się pokusa: „to teraz zmieńmy wszystko zgodnie z tym”. Spokojnie. Najlepiej działa podejście iteracyjne:
- Wdróż zwycięski wariant jako nową bazę (albo wyłącz przegrywający).
- Odczekaj 1–2 tygodnie, żeby wyniki się ustabilizowały.
- Zaplanuj kolejny test, znów z jedną zmienną.
Właśnie tak kampanie PMax dojrzewają: nie przez jedną „wielką przebudowę”, tylko przez serię małych, mierzalnych decyzji. Jeśli chcesz to poukładać szerzej w ramach stałej obsługi, to jest dokładnie ten obszar, który obejmuje prowadzenie kampanii Google Ads — nie tylko „ustawienie” kampanii, ale też regularne testy, interpretacja i wyciąganie wniosków z danych.
Podsumowanie: test A/B w PMax to bardziej proces niż jednorazowa akcja
Performance Max potrafi być bardzo skuteczny, ale wymaga innego myślenia o testowaniu. Kluczem jest prosta hipoteza, porównywalne warunki, cierpliwość do danych i świadomość, że system miesza kanały i kreacje. Gdy podejdziesz do tego jak praktyk (z planem, a nie z impulsem), test A/B asset groups naprawdę potrafi wyciągnąć kampanię o poziom wyżej — bez nerwowego „grzebania” co dwa dni.













