«Мы не делали лишней работы»: как украинское агентство интернет-маркетинга применяет машинное обучение в работе

11731
10

Крупные западные компании уже публикуют результаты использования искусственного интеллекта и машинного обучения в маркетинговых стратегиях для решения самых разных задач. Это может быть написание продающих текстов, компоновка и прорисовка конверсионных баннеров, персонализация контента на сайте, умные системы таргетинга и т.д. Временами кажется, что это технологии для «взрослых» и украинский рынок до них пока не дорос. Однако уже есть кейсы и в Украине. Агентство Promo.ua уже полгода экспериментирует, тестирует и применяет технологии ИИ в своей работе с клиентами.

Как мы использовали искусственный интеллект в PPC

Алгоритмы ИИ обучаются на данных. И основная проблема большинства бизнесов в том, что всяких разных данных много, но изначально они собирались бессистемно, разными способами, хранились в разных местах (Google Analytics, CRM, 1C), т.е. без четкого понимания, что потом с этими данными придется делать и как обрабатывать.

В отделе платного трафика изначально мы собрали все данные, которыми располагал клиент, в одном месте. Процесс изучения структуры этих данных оказался довольно трудоемким. Когда специалисты data science уже вникли и разобрались со всеми нюансами сбора данных и их смысла, в ход пошли алгоритмы кластеризации и классификации.

На исторических данных выявили закономерности в покупательском поведении в зависимости от сезона. Любопытно, что весьма очевидные и предсказуемые пики активности перед Новым годом и 8 марта оказались не единственными для бизнеса подарков. С помощью алгоритмов обработки больших данных выявили также интересные всплески активности в середине сентября.

Затем в периодах «низкого» и «высокого» сезонов сегментировали активность пользователей по времени суток, дню недели,  устройству, региону, позиции объявления, кластеру семантики (именно по этим срезам мы можем корректировать ставки), оценили вероятность конверсии в каждом сегменте и вывели математическую модель формирования ставки. На выходе мы получили некоторую таблицу с корректировками ставок для каждого сегмента.

Далее задача свелась к написанию пользовательского скрипта Adwords, который все эти корректировки применит в нужной кампании при определенных условиях.

Текущее достижение эксперимента:

    • снижение 2% в стоимости клика
    • незначительное снижение конверсии на 6%
    • снижение затрат на 27%
    • рост прибыли на 20%
    • рост среднего чека на 86%
    • повышение ROI на 65%

 

 

Теперь мы работаем над тем, чтобы автоматизировать всю эту историю и расширить на другие каналы трафика.

Big Data, скоринг и модели в SEO

Работа с большими проектами имеет свои прелести и особую специфику. С прелестями все просто — это бюджет, который может обеспечить единую команду специалистов и ФОКУС на одном проекте. А специфика сложнее. Если сайт — одностраничник, не возникает вопрос, какую страницу продвигать. Но большим мы называем проект на 10 000 страниц и более.

Представьте себе, что специалист должен среди всего количества страниц и миллиона запросов, по которым нужно эти страницы продвигать, выбрать именно те, продвижение которых даст быстрый результат уже через пару месяцев. Если он «не угадал», то продвижение превращается в трудно прогнозируемую инвестицию с непредсказуемым сроком окупаемости. И часто у клиента не хватает терпения дождаться результата.

Ранее мы проблему решали «опытом специалистов». Процесс расчета стратегии для проекта занимал от  20 до 100 часов главного технолога компании. Масштабировать такой процесс сложно: опытного специалиста физически не хватает на N проектов, а  передача опыта — процесс растяжимый, трудно копируемый. В связи с чем возникает «бутылочное горлышко» в процессах или же экспоненциально растущее число косяков.

Автоматизация рабочих процессов и оцифровка опыта специалиста — это единственный здравый путь в работе с масштабными проектами. На сегодня в нашем распоряжении есть «виртуальный сеошник», который справляется с задачей точнее и быстрее «живого сеошника».

Спарсить полную структуру сайта, все его целевые страницы, собрать все релевантные ключевые слова и позиции сайта по этим запросам в поисковой выдаче, разбить их на семантические кластеры и определить для каждого кластера посадочную страницу. Именно тут пригодились алгоритмы NLP (обработка естественного языка). На это теперь уходит всего 30 минут времени «цифрового специалиста». Даже если какой-то URL закрыт от индексации или имеет сбой в ранжировании, наша система все равно определит наиболее релевантный.

Обучаемый алгоритм определяет, какие страницы с наибольшей вероятностью попадут в топ поисковой выдачи при проведении минимального количества работ по оптимизации, и самое интересное — сам предлагает техническое задание. В результате скорость получения результата в среднем по клиентам сократилась на 36%. Мы заработали не только на снижении оттока клиентов, но и сэкономили до 50% времени специалистов за счет того, что не делали лишних, малоэффективных работ.

Еще одна инновация, которая лишила головной боли не только сеошников, но и менеджеров по работе с клиентами, копирайтеров и редакторов. Мешок LSI-запросов (семантически связанные слова) и плотность — не решают проблемы качества текста. Да, можно под каждую тему найти профессионала, но где их взять, если ты работаешь с большими сайтами, где продают и детские коляски, и бензопилы. Для решения этой задачи разрабатывается текстовый анализатор, который ищет наиболее вероятно возможные устоявшиеся n-граммы тематики, на основании анализа конкурентов и UGS-контента, расстояние n-грам от основного ключа в тексте и важность каждой n-граммы. Что позволяет уйти от понятия плотности ключей и писать тексты, которые смогут максимально четко ответить на потребности пользователя. И конечно под каждый текст парсим наиболее популярные вопросы, которые задает пользователь, решая свою проблему. Наша задача — выдать копирайтеру тот костяк текста, следуя которому он сможет написать максимально полезный текст.

Автор: Любовь Солодкая, Product Owner направления Big Data и автоматизации в Promo.ua

Оставить комментарий

Комментарии | 10

  • Ну вот просто ор в голос, такие кейсы, а топовых клиентов нет… Зашёл на сайт посмотрел портфель клиентов. Серьёзно? Только фокстрот, остальных ТОПовых сайтов не нашёл.
    Зачем ИИ, если клиентов нет?

  • Бред, бред, бред. Автоматизация человеческой непредсказуемости и восприятия. Тест Тьюринга эта биг дэйта дип машин ленинг наверно уже успешно прошла. И этот текст, видимо, тоже она написала.

    • Ваша так называемая человеческая непредсказуемость — это иллюзия. Мы(люди) подчиняемся вполне определенным паттернам поведения, которые давным давно успешно классифицированы по нужным наборам признаков(активность на сайте, поисковые запросы, предпочтения в еде, одежде, фильмах). С помощью довольно-таки не сложных алгоритмов(например коллаборативная фильтрация) вас отнесут к тому или иному стаду, которому потом скормят то, что вы и так кушаете, но только с выгодой для себя (или для нас).

      • Да, видимо поэтому маркетинг решил идти в сторону биологических исследований нашего поведения (нейромаркетинг). Вопрос к вам. Как можно систематизировать то, что изучено настолько плохо (можно сказать, что практически не изучено. Более-менее масштабные работы начались в 2004)

        • Советую, перед тем, как писать подобные комментарии, посмотреть немножко больше, чем просто википедию.

          • Больше скажу. Я общаюсь с нейробиологом (психиатрия) из Kent State University. Поговорите с кем-то более продвинутым (научно) не с территории СНГ (ибо в СНГ до сих пор не знают, что закон Мура уже не работает). И старайтесь не включать субъективную аргументацию и переходы на личности. И да, про маски браузера и прочие технологии когортирования я знаю. Но это не уровень СНГ. Далеко. Погрешность растет экспоненциально, как и мисслиды/миссклики. Так же растут и расходы на эти погрешности.

  • Какой ИИ? Обычные алгоритмы кластеризации, или даже open-source нейронку, называете ИИ? Хватит писать чепуху.

Поиск