EN

Как защитить уникальный контент: колонка управляющего партнера SEO-Studio Юрия Сукача

4964
22

К сожалению, случаев, когда у наших клиентов крадут контент, предостаточно. Чем больше и известнее продвигаемый проект, тем чаще такое случается. Зачастую это происходит не со зла — маленькие сайты или новые интернет-магазины обычно не задумываются об уникальности, и для наполнения своих ресурсов просто копируют материалы с других источников, которыми и оказываются наши клиенты. В 99% случаев мысли о нанесении вреда первоисточнику у них нет. Но в оставшемся 1% случаев идет попытка целенаправленно навредить сайту и понизить его в выдаче, украв и распространив по сети его контент. О том, как действовать в указанных случаях, я расскажу ниже.

Юрий Сукач, управляющий партнер SEO-Studio

Приводит ли кража контента к снижению позиций или трафика?

Если говорить о трастовых сайтах, то подобные кражи не будут иметь практически никаких последствий. Поисковая система прекрасно поймет, кто настоящий автор, и он никаким образом не пострадает. А вот если речь идет о молодых проектах, то ситуация меняется в корне. Копирование текстов может навредить, особенно если вором окажется как раз таки трастовый сайт. В таком случае, настоящий первоисточник может перестать считаться таковым и получить пенальти, потеряв позиции в выдаче.

Если контент на сайте, в целом, уникальный, то страдает только та страница, с которой текст был украден. Если же количество не-уникальных материалов переходит рамки разумного, то пострадать может и весь сайт. Особенно, это касается выдачи в «Яндексе».

Такого мы, конечно же, не допускаем, а вот воровство материалов с отдельных страниц случается. Если вовремя ничего не предпринять, то можно увидеть подобную картину:

1Как изменилась ситуация после возвращения контенту уникальности, смотрите ниже.

Если контент все-таки стянули и наш сайт рискует потерять статус первоисточника, то текст обычно переписывается. Это намного быстрее и, в итоге, дешевле, чем воевать за удаление скопированного материала на других сайтах. Особенно если он уже успел появиться на нескольких ресурсах.

Что можно сделать

Способа защититься от кражи на 100% не существует. Но, в то же время, 99% краж совершают пользователи с низкой компетенцией, и потому достаточно усложнить им жизнь — и они тут же пойдут искать, где можно стянуть текст без лишних проблем, оставив ваш сайт в покое.

Обычно с кражами борются одним из следующих способов:

  • «Отключают» возможность копировать текст в буфер обмена как с помощью CTRL+C, так и мышью. Этого будет достаточно для тех самых 99%, которые перестанут воровать материалы с вашего сайта. Но это может создать дискомфорт и для пользователей. Допустимо ли это — зависит от профиля вашего сайта и того как часто вашей ЦА все-таки нужно что-то копировать;
  • Разрешают копирование, но при этом в скопированный материал добавляют обратную ссылку. Зачастую невнимательные контент-менеджеры, скопировав текст, вставляют его на свой сайт без каких либо проверок и пропускают вашу ссылку. Особенно если она оформлена, с помощью CSS, под обычный шрифт. Таким образом, вы и внешнюю ссылку получите, и контент защитите, поскольку беклинк со страницы-вора на вашу с оригинальным материалом практически всегда позволяет не потерять «авторство» в глазах поисковой системы.

Несколько хуже, если контент берут не люди, а скрипты-парсеры. В таком случае защититься сложнее. Нужно пробовать отлавливать ботов и банить их, запрещая доступ к сайту.

Можно использовать и более ухищренные варианты. Например, так называемый «метод Бурундука», который хорошо работал, особенно если защититься от кражи практически невозможно, как в случае с автоматическим парсингом контента. Но он во многом потерял свою актуальность с отходом в прошлое арендных ссылок.

Кроме непосредственно защиты, важно понимать, что с кражами контента борются не просто потому, что воровать плохо, а ввиду негативных последствий для ранжирования сайта, если он потеряет статус первоисточника. Важно, чтобы поисковая система поняла, что автор — именно вы. В этом нам поможет быстрая индексация новых или обновляемых страниц. Для этого необходимо правильно настроить генерацию и обновление файла Sitemap.xml, а также использовать «аддурилки» для сообщения о новых материалах. Неплохим решением может стать и Twitter, который помогает загонять страницы в индекс за считанные минуты.

Выше я привел пример того, что произошло с позициями после кражи контента. А вот что стало после возвращения уникальности:

2Очевидно, что трафик на данную страницу сначала упал, а затем вернулся на прежний уровень вместе с позициями.

Что делать, если текст уже украли

Нужно, прежде всего, смириться вот с чем — если у вас посещаемый сайт, то воровать с него будут всегда. После удаления копированного контента с других сайтов, позиции продвигаемого ресурса восстанавливаются. Но это требует значительного времени на ведение переговоров, последующую переиндексацию и снятие пенальти.

Потому мы рекомендуем один из описанных выше вариантов защиты, которые минимизируют возможные потери. В случае особо наглых воришек можно пойти и на личный контакт, но это, скорее, исключение, чем правило.

Мне вспомнился интересный случай, как для одного из клиентов сделали добавление обратной ссылки при копировании контента. Это был магазин с достаточно дорогостоящей продукцией, тексты с которого успешно скопировали несколько конкурентов. Благодаря беклинкам продвигаемый сайт не пострадал. Но самым интересным стало то, что по этим ссылкам, несмотря на маскировку под обычный текст, перешло несколько пользователей, а один даже совершил покупку, причем на немалую сумму. Таким образом, и позиции в поиске защитили, и конверсию дополнительную обеспечили.

А как вы защищаете свой контент?

Автор: Юрий Сукач, управляющий партнер SEO-Studio

Оставить комментарий

Комментарии | 22

  • Sitemap в помощь. Добавили материал, обновили сайтмап, отправили поисковой системе.

    • Автоматическое обновление Sitemap после публикации новых материалов это само собой. Но не всегда этого хватает.
      Если у вас малоизвестный сайт, то быстрая индексация может не спасти, если материал перепостит кто-то трастовый: Форбс или Корреспондент, например.

    • если это новостной сайт, то проще просто попасть в ЯН, после этого индексация практически моментальная.

  • А какже забыли самый интересный способ — выясняем личность вора, звоним, доказываем его неправоту 🙂 Меня спасало несколько раз. 5 минут разговора и в течение 12 часов выдача чиста.

  • Можно вот так защититься: http://copywatcher.com/
    Эта система не только автоматически мониторит страницы на плагиат, но и может гарантированно убрать плагиат из кеша Гугла!

  • От парсера данные методы не спасут.
    «Нужно пробовать отлавливать ботов и банить их, запрещая доступ к сайту.» — тоже вариант не очень. Ну или нужно раскрыть тему как имелось ввиду «отлавливать».

    Достойные варианты:
    1) Капча, при сомнительных заходах.
    2) Динамические блоки. (запарятся подстраивать парсер под сайт).
    3) Отслеживание поведение, тестировать > автоматический бан.
    4) Скупать базы Прокси и банить (Дорогое удовольствие)

    В итоге 2-3 текста максимум спарсить за раз смогут в лучшем случае.

    П.С. Да, это тяжело, да, это, порой, дорого. Но! Если дорожите контентом и он существенно влияет на ваш бизнес — CSS плюшки с блоком кнопочки не Ваш вариант. Отслеживайте, тестируйте, реализовуйте.

    П.С. — еще из плюшек к топику — репост в соц сети разные. Платная ФБ реклама. Пингаторы тонны, динамическая карта сайта.
    Есть кейс, когда спарсили тему через день. Сайта первоисточника не было в выдаче. Другой сайт спарсил и начал ранжироваться. После того как в вебмастерку загнали, гугл определил дату публикации и сместил более трастовый сайт на другое место.

    • Отлавливать ботов можно по многим признакам.
      Это и IP-адреса, и график посещения, и левые User-agent-ы, и другие варианты, основанные на параметрах самого трафика.

      По поведению сложнее всего, плюс большой риск захватить реальных пользователей, что совсем плохо.
      С каптчей аналогично.

      А вот динамические блоки — однозначно, лайк. Хороший способ.

      Для максимальной скорости индексации: Sitemap, пингаторы, аддурилки, Twitter. Фейсбук тоже можно, но Twitter быстрее.
      Если новостной сайт, то Google News и Яндекс Новости.
      Да и в целом, направленность сайта очень влияет на правила игры в вопросе контента.

      Лучше всего четко разложить проблему на составляющие и тогда становится понятно как ее решать:
      1. Для того, что бы не таскали контент люди. Добавлять ссылку на первоисточник или вообще запрещать копировать.
      2. Для того, что бы не таскали контент боты. Как минимум, блочить их по статическим параметрам динамическая верстка. Как максимум, пробовать отлавливать динамически.
      3. В максимально быстрой индексации помогут озвученные выше методы.
      4. И последний нюанс, что делать если уже увели и статус первоисточника потерян. Тут либо SEO-шными методами возвращать авторство, либо переписывать, либо личным контактом.

      P.S. Приятно видеть в комментариях спецов. Заходи в гости при случае 🙂

  • Проблема полностью надуманная. В яндексе есть функция «оригинальные тексты» в вебмастере, в гугле аддурилкой что угодно загоняется в индекс за несколько секунд, а если правильно настроить пинги и кросспостинг в соц. сети, то и это не понадобится. «Эксперт» своими циферками не убедил.
    З.Ы. как пользователя — жутко раздражает отключение кнопок копирования в буфер. На такой сайт я большой вероятностью уже не вернусь.

    • Быстрая индексация гарантирует отсутствие проблем только в Google-овом мануале.
      На практике всё несколько иначе. Украденный и растиражированный даже через год материал может стать причиной понижения в выдаче.
      Всё очень зависит от того как это происходит и траста настоящего первоисточника.

  • Все это субъективно.
    Например http://vido.pro с парсером обзоров, настроен так что бы не быть первоисходников. Забирает материал минимум через день после публикации а то и неделю. При этом не плохо тем же Яндексом индексируется, и занимает позиции в выдаче.

  • Вот делайте контент для людей… я только не давно хотел размазать нос в красное месиво создателям сайта, заголовок статьи на котором я выделить не смог. А я просто хотел запостить в твиттер. Такой бред запрещать копирование в буфер.

    • Надо не запрещать копировать, а добавлять ссылку.
      Причем только при копировании значимого контента: статьи, уникального описания товара и т.п.
      Вешать такую защиту на заголовки, инфу о доставке, телефоны и прочее — абсурд.

  • Дія City
  • Истории компаний
  • Расследования AIN.UA
  • Спецпроекты
  • Безопасность номера
  • Безпека гаманця
Реклама на AIN.UA

Поиск