Крупные западные компании уже публикуют результаты использования искусственного интеллекта и машинного обучения в маркетинговых стратегиях для решения самых разных задач. Это может быть написание продающих текстов, компоновка и прорисовка конверсионных баннеров, персонализация контента на сайте, умные системы таргетинга и т.д. Временами кажется, что это технологии для “взрослых” и украинский рынок до них пока не дорос. Однако уже есть кейсы и в Украине. Агентство Promo.ua уже полгода экспериментирует, тестирует и применяет технологии ИИ в своей работе с клиентами.
Как мы использовали искусственный интеллект в PPC
Алгоритмы ИИ обучаются на данных. И основная проблема большинства бизнесов в том, что всяких разных данных много, но изначально они собирались бессистемно, разными способами, хранились в разных местах (Google Analytics, CRM, 1C), т.е. без четкого понимания, что потом с этими данными придется делать и как обрабатывать.
В отделе платного трафика изначально мы собрали все данные, которыми располагал клиент, в одном месте. Процесс изучения структуры этих данных оказался довольно трудоемким. Когда специалисты data science уже вникли и разобрались со всеми нюансами сбора данных и их смысла, в ход пошли алгоритмы кластеризации и классификации.
На исторических данных выявили закономерности в покупательском поведении в зависимости от сезона. Любопытно, что весьма очевидные и предсказуемые пики активности перед Новым годом и 8 марта оказались не единственными для бизнеса подарков. С помощью алгоритмов обработки больших данных выявили также интересные всплески активности в середине сентября.
Затем в периодах “низкого” и “высокого” сезонов сегментировали активность пользователей по времени суток, дню недели, устройству, региону, позиции объявления, кластеру семантики (именно по этим срезам мы можем корректировать ставки), оценили вероятность конверсии в каждом сегменте и вывели математическую модель формирования ставки. На выходе мы получили некоторую таблицу с корректировками ставок для каждого сегмента.
Далее задача свелась к написанию пользовательского скрипта Adwords, который все эти корректировки применит в нужной кампании при определенных условиях.
Текущее достижение эксперимента:
-
- снижение 2% в стоимости клика
- незначительное снижение конверсии на 6%
- снижение затрат на 27%
- рост прибыли на 20%
- рост среднего чека на 86%
- повышение ROI на 65%
Теперь мы работаем над тем, чтобы автоматизировать всю эту историю и расширить на другие каналы трафика.
Big Data, скоринг и модели в SEO
Работа с большими проектами имеет свои прелести и особую специфику. С прелестями все просто – это бюджет, который может обеспечить единую команду специалистов и ФОКУС на одном проекте. А специфика сложнее. Если сайт – одностраничник, не возникает вопрос, какую страницу продвигать. Но большим мы называем проект на 10 000 страниц и более.
Представьте себе, что специалист должен среди всего количества страниц и миллиона запросов, по которым нужно эти страницы продвигать, выбрать именно те, продвижение которых даст быстрый результат уже через пару месяцев. Если он “не угадал”, то продвижение превращается в трудно прогнозируемую инвестицию с непредсказуемым сроком окупаемости. И часто у клиента не хватает терпения дождаться результата.
Ранее мы проблему решали “опытом специалистов”. Процесс расчета стратегии для проекта занимал от 20 до 100 часов главного технолога компании. Масштабировать такой процесс сложно: опытного специалиста физически не хватает на N проектов, а передача опыта – процесс растяжимый, трудно копируемый. В связи с чем возникает “бутылочное горлышко” в процессах или же экспоненциально растущее число косяков.
Автоматизация рабочих процессов и оцифровка опыта специалиста – это единственный здравый путь в работе с масштабными проектами. На сегодня в нашем распоряжении есть “виртуальный сеошник”, который справляется с задачей точнее и быстрее «живого сеошника».
Спарсить полную структуру сайта, все его целевые страницы, собрать все релевантные ключевые слова и позиции сайта по этим запросам в поисковой выдаче, разбить их на семантические кластеры и определить для каждого кластера посадочную страницу. Именно тут пригодились алгоритмы NLP (обработка естественного языка). На это теперь уходит всего 30 минут времени “цифрового специалиста”. Даже если какой-то URL закрыт от индексации или имеет сбой в ранжировании, наша система все равно определит наиболее релевантный.
Обучаемый алгоритм определяет, какие страницы с наибольшей вероятностью попадут в топ поисковой выдачи при проведении минимального количества работ по оптимизации, и самое интересное – сам предлагает техническое задание. В результате скорость получения результата в среднем по клиентам сократилась на 36%. Мы заработали не только на снижении оттока клиентов, но и сэкономили до 50% времени специалистов за счет того, что не делали лишних, малоэффективных работ.
Еще одна инновация, которая лишила головной боли не только сеошников, но и менеджеров по работе с клиентами, копирайтеров и редакторов. Мешок LSI-запросов (семантически связанные слова) и плотность – не решают проблемы качества текста. Да, можно под каждую тему найти профессионала, но где их взять, если ты работаешь с большими сайтами, где продают и детские коляски, и бензопилы. Для решения этой задачи разрабатывается текстовый анализатор, который ищет наиболее вероятно возможные устоявшиеся n-граммы тематики, на основании анализа конкурентов и UGS-контента, расстояние n-грам от основного ключа в тексте и важность каждой n-граммы. Что позволяет уйти от понятия плотности ключей и писать тексты, которые смогут максимально четко ответить на потребности пользователя. И конечно под каждый текст парсим наиболее популярные вопросы, которые задает пользователь, решая свою проблему. Наша задача – выдать копирайтеру тот костяк текста, следуя которому он сможет написать максимально полезный текст.
Автор: Любовь Солодкая, Product Owner направления Big Data и автоматизации в Promo.ua