Пост телеграм-канала PPC для сверхразумов | Александр Хитро
PPC для сверхразумов | Александр Хитро
31 окт. 2024 года в 10:32
Как, взяв 2–4% слов с конверсиями, учесть 95% трафика и спасти 15–20% бюджета.
Не первый год замечаю в bi-аналитике разных проектов идентичную ситуацию:
90–95% кликов, 85–95% показов, 85–95% расхода в аккаунте приходится на поисковые запросы, которые содержат хоть одно слово из списка уникальных слов, по которым были конверсии в любых других поисковых запросах.
Иными словами:
1️⃣ Как не надо:
Пересобирать РК из фраз, которые содержат слова, по которым было 0 конверсий.
2️⃣ Как надо:
Пересобирать РК из фраз, которые целиком состоят из слов, по каждому из которых было 1+ конверсий.
————
Как это сделать?
————
1⃣ Берём статистику поисковых запросов, коих может быть десятки и сотни тысяч.
Я давно привык к обработке 200–500–800 тысяч уникальных поисковых запросов за всю историю аккаунта, быстрой их фильтрации и оперативному пересбору РК из любого объёма накопленной статистики.
2⃣ Разбираем поисковые запросы на 1-gram анализ словоформ без их лемматизации, т.е. без приведения склонений всех слов к начальным словарным формам.
3⃣ По каждой словоформе считаем:
🥰 Количество уникальных поисковых запросов, которые содержат каждую словоформу.
😁 Сумму абсолютных показателей (конверсий, кликов, показов, расхода).
😃 Относительные показатели (CPA, CR, CTR, CPC).
4⃣ Отфильтровываем словоформы, по которым было 1 и более конверсий или продаж.
5⃣ Проверяем этот список слов на наличие в нём ненужных нецелевых слов, убираем около 10% списка нецелевых слов с конверсиями, остальные 90% целевых слов с конверсиями используем далее для фильтрации поисковых запросов.
6⃣ Этот список целевых слов с конверсиями, который у меня последние 5 лет составляет лишь 2–4% от общего количества униграмм (уникальных слов, из которых состоят фразы), используем как вайтлист для фильтрации поисковых запросов.
Что значит фильтрация фраз вайтлистом слов?
Это фильтрация поисковых запросов, целиком состоящих из разрешенного нами списка слов, т.е. каждое слово во фразе содержится в вайтлисте, и во фразе больше нет ни одного слова, которое мы не занесли в вайтлист.
7⃣ По полученным фразам считаем все показатели и обязательно — какую долю от общего они составляют.
8⃣ Видим, что 50–65% всего списка уникальных поисковых запросов суммарно принесли лишь 5–10% кликов, 10–15% показов, но расхода на них пришлось до 15–20%.
Т.е. 15–20% расхода не увенчались конверсиями, и уже вряд ли увенчается, т.к. они совершаются по другим кластерам лексики.
————
Что делать дальше?
————
1️⃣ Минусуем униграммы без конверсий, не сожалея о том, что мы можем урезать себе трафик и конверсии. Нет, не урежем. Мы же посчитали, что на униграммы без конверсий приходится 5–10% кликов, но доля расхода от общего в 2–3 раза выше.
Так происходит всегда. Иногда эти цифры ещё больше.
2️⃣ Перераспределяем спасённые 15–20% бюджета на целевые сегменты и получаем с них ещё больше конверсий.
————
Т.к. автоматизацию аналитики данных нет смысла объяснять в тексте, покупаем панписочку, где я покажу на стримах:
1️⃣ Как эти и сотни других операций делать:
✔️ На полном автомате в 1 клик.
✔️ На любых объёмах данных.
✔️ В абсолютно незнакомых нишах.
✔️ На любом языке.
2️⃣ При каждом обновлении данных за новый диапазон дат автоматически в 1 клик:
✔️ Обновлять, обрабатывать, фильтровать, группировать любые объёмы данных.
✔️ Создавать 50+ кастомных укрупнённых группировок данных.
✔️ Создавать в модели данных десятки сквозных фильтров по суммарным показателям на каждом из созданных уровней укрупнённых группировок данных.
3️⃣ Автоматически формировать по абсолютном понятным и прозрачным критериям:
✔️ Список минус-слов.
✔️ Список минус-фраз.
✔️ Список категорий, отсортированных по приоритетным показателям, для добавления на сайт соответствующих посадочных страниц.
✔️ Список сегментов, которые будут запускаться только в определённых типах соответствия ключевых фраз, почему именно в них, в каком порядке добавлять их в других типах соответствия и надо ли это делать.
via @ppc_bigbrain