В течение последних двух лет Google и «Яндекс» неустанно меняли свои алгоритмы. Это нередко приводило к панике среди SEO-специалистов, но подыгрывало последователям органического SEO. Ведь все изменения, вводимые поисковыми системами, были направлены на уменьшение видимости страниц низкого качества и без добавленной ценности.
Так остались ли ещё методики продвижения сайтов, не приводящие к «фильтрации»? Какие стратегии оптимизации следует выбирать SEO-специалистам в 2015–2016 годах?
Что делать для успешного продвижения в Google?
1. Расширять семантическое ядро с учётом алгоритма «Колибри».
Алгоритм Hummingbird («Колибри») был запущен 20 августа 2013 года, но до сих пор многие SEO-специалисты не принимают его во внимание. «Колибри» кардинально изменил способ поисковой системы Google анализировать запросы: вместо сопоставления запросу отдельных ключевых слов на странице поисковик ищет соответствие общего смысла.
Ключевые слова по-прежнему важны, однако следует применять бóльшее их разнообразие, включая синонимы, поисковые подсказки и близкие по смыслу слова и словосочетания. Например, вместе с «ключом» «цветы» использовать фразы «букет ко дню святого Валентина», «доставка цветов в день заказа» или «цветочная композиция». Если возможно, т.е. если действительно есть что сказать по этому поводу, то вставлять и диалоговые фразы типа «где купить цветы дёшево?»
Все подобранные «ключи» необходимо разделить на три группы: информационные, навигационные и транзакционные.
- Информационные запросы (например, «как составить букет?») задают, когда ищут образовательный контент. Поэтому на сайте их следует использовать при создании информационных статей с ненавязчивыми ссылками на продукты или услуги.
- Навигационные запросы (например, «магазин ромашка») используют для поиска бренда, конкретного продукта или веб-ресурса, их рациональнее применять на страницах «Главная» и «О компании», например.
- Транзакционные же явно указывают на намерение совершить некое действие: заказать, купить, скачать. В этом случае используют слова «цена», «купить», «доставка», «аренда», «купон», «скидка» и пр. Подходящие места для них – странички товаров/услуг, акций и т.п.
В любом случае «ключи» не должны напоминать «коровью лепёшку» - несклоняемую и бессмысленную вставку в ткань повествования. Текст должен читаться плавно и естественно, ведь его воспринимает и оценивает Человек, поисковик же работает с «широким» семантическим ядром, а не повторённой 5 раз в «магических» формах и положениях фразой.
Распространенные мифы об оптимизации текстов мы подробно разбирали: «Эпидемия ключевого несварения».
2. Совершенствовать структуру URL сайта.
Сайты с упорядоченной структурой адресов обычно ранжируются лучше, чем ресурсы с «грязной» структурой и запутанной организацией контента. URL-адреса и ссылки являются строительными блоками веб-сайта, а потому им следует уделять должное внимание.
- Динамические адреса типа site.ru/page?id=13579&color=4&size=2&session=754839 слишком длинные и не несут никакого смысла. Показатель кликабельности (CTR, click-through rate) таких ссылок в результатах поиска обычно ниже, поэтому стоит использовать статические человекупонятные урлы (ЧПУ).
- Множество «битых» ссылок, ведущих на страницу 404 ошибки, также может повредить позициям сайта при ранжировании. Необходимо время от времени проверять сайт на предмет возникновения неработающих ссылок, используя специальные программы, например, Screaming Frog.
- Ранее считалось, что большое количество исходящих ссылок со страницы негативно сказывается на её ранжировании в поиске, хотя это утверждение некоторые оспаривали. Сейчас Google уже отказался от регламентированного (не более 100 штук) количества ссылок с одной страницы, но настаивает на том, чтобы соответствовали тематике страницы и тем запросам, по которым люди на неё приходят.
3. Фокусироваться только на качественных, потом-кровью заработанных обратных ссылках, пусть их будет и немного.
За определение качества ссылочной массы и естественности анкор-листа в Google отвечает алгоритм «Пингвин», последнее крупное обновление которого произошло 21 октября 2014 года (Google Penguin 3.0). 15 октября 2015 года началась новая итерация апдейта «Пингвина» — многие сайты, торгующие ссылками через биржу Sape, были понижены в выдаче.
Разработчики Google недвусмысленно нам говорят, что гораздо лучше иметь многочисленные ссылки с нескольких авторитетных нишевых ресурсов, чем сотни единичных ссылок со второсортных сайтов.
Для естественного линкбилдинга можно использовать следующие подходы:
- Получение редакционных ссылок. Это золотой стандарт для ссылок, появляющихся как упоминания Вашего сайта в обзорах средств массовой информации или в так называемых статьях лидеров мнений, написанных Вами для сторонних ресурсов. Чтобы такие статьи были приняты, необходимо понять аудиторию сайта, найти тему, которая ей интересна, написать не слишком (и даже совсем не-) рекламную статью, а когда она будет опубликована - поделиться ссылкой на неё в соцсетях.
- Социтирование. Каждый раз, когда Ваш бренд или ссылка на сайт появляется вместе с конкурентами или подобными веб-ресурсами, Google понимает, что Ваша фирма и эти компании связаны. А если конкуренты уже имеют авторитет в данной нише бизнеса, то и Ваш сайт будет постепенно приобретать в глазах поисковика такой же авторитет. Один из способов добиться социтирования – найти на профильных ресурсах списки типа «ТОП-10/20/100 компаний» или «Лучшие продукты 2014 года». Если упоминания о Вашем бизнесе там нет, обратитесь к издателю и попросите добавить упоминание. Заметим, что здесь необходимо приложить немало усилий, чтобы предоставить издателю весомые обоснования такого жеста.
- Использование чужих «битых» ссылок. Это кропотливая, но очень полезная тактика, в которой Вы охотитесь за неработающими ссылками на авторитетных профильных сайтах и предлагаете владельцам ресурсов заменить эти ссылки на Ваши. Перед этим не помешает изучить ссылочные профили процветающих конкурентов (используя, например, сервисы Ahrefs или Linkpad), чтобы составить список ресурсов, связанных с ними. После чего следует проверить ссылки на этих ресурсах и отыскать подходящие Вам неработающие.
4. Рассмотреть возможность использования безопасного протокола шифрования (HTTPS).
6 августа 2014 года было произведено обновление HTTPS/SSL, в результате чего использование безопасного протокола HTTPS на сайте стало положительным сигналом при ранжирования в Google.
Для транзакционных сайтов типа интернет-магазинов HTTPS давно уже стал стандартом. И это, на самом деле, необходимо любому сайту, который собирает личную информацию: логины и пароли пользователей, номера счетов и банковских карт. Использование безопасного протокола шифрования должно помочь повысить доверие к сайту не только поисковой системы, но и пользователей.
Другое дело, что переход на HTTPS достаточно непрост. Для того чтобы защитить переданные данные, используется технология SSL. Необходимо купить сертификат SSL для сайта и установить его на сервере. А затем настроить перенаправления со всех адресов HTTP на HTTPS и отредактировать все абсолютные внутренние ссылки либо заменить их на относительные.
Принимая во внимание все эти трудности и то, что пока HTTPS – довольно слабый сигнал (по словам сотрудников Google), для небольших коммерческих сайтов и информационных порталов переход на безопасный протокол шифрования не стоит считать приоритетным в ближайшее время.
5. Адаптировать сайт для планшетов и смартфонов.
21 апреля 2015 года «Гугл» объявил о начале работы нового алгоритма mobile-friendly. С этого момента в мобильном поиске приоритет отдаётся страницам, которые удобно просматривать на планшетах и смартфонах за счёт масштабирования содержимого под размер экрана.
Вот так выглядит изменение трафика из Google на сайт с неадаптивной вёрсткой после введения алгоритма:
Сразу «отсекается» огромное количество посетителей, которые до этого приходили из мобильного поиска.
Поэтому мы настоятельно советуем использовать адаптивную вёрстку. Это must have в 2016 году.
Проверить, насколько ваш сайт дружелюбен для планшетов и смартфонов можно на этой странице.
Как адаптировать сайт под мобильные устройства? Используйте, например, фреймворк Twitter Bootstrap. Это распространённая и очень удобная система вёрстки сайтов со стандартизированными шаблонами. А главное, что для дальнейшего улучшения сайта вам не придётся долго искать программиста, который смог бы разобраться в HTML-коде: с «Бутстрапом» знакомо большинство верстальщиков, которым не составит труда внести нужные изменения.
Как не потерять благосклонного отношения «Яндекса»?
1. Относиться к текстам как к основному инструменту продвижения.
Наряду с фильтром «Переоптимизация» «Яндекс» в середине 2014 года ввёл новый «Антиспам-фильтр». Он похож на своего «старшего брата», но более жёсткий (приводит к потере позиций в выдаче вплоть до 1000) и учитывающий больше нюансов.
Что делать, чтобы не подвести свой сайт под «Антиспам-фильтр»?
- Уделять особое внимание длине и заспамленности ключевыми словами заголовков (title) и описаний (description) страниц.
- Не зацикливаться на прямых вхождениях «ключей» и ограничить общий процент использования ключевых слов и выражений. Это касается таких «экзотов», как «Где купить ххх дёшево?», «Недорогие услуги ... в городе N» и т.п., но не базовых словосочетаний типа названий товаров или отраслевых терминов, без которых невозможно донести информацию. В отношении последних действует обычный литературный «ограничитель» - критерий тавтологичности.
- Тщательно редактировать тексты: «Антиспам-фильтр» настроен на определение орфографических и пунктуационных ошибок.
- Не выделять «ключи» жирным, курсивом и другими способами. Делать это можно лишь в отношении фраз или слов, на которых стоят логические акценты для привлечения внимания читателя. Ничего нового, всё логично - выделяется главная мысль или термин, а не любой «ключ».
- По возможности заменять избыточные «ключи» словами из подсказок и «Спектра».
2. Сосредоточиться на естественном линкбилдинге, приносящем трафик.
12 марта 2014 года «Яндекс» произвёл отмену ссылочного ранжирования по Москве и области для коммерческих запросов в ряде сфер. Не за горами отмена избыточного влияния ссылок и по всей России.
15 мая 2015 года «Яндекс» запустил новый алгоритм «Минусинск», понижающий в выдаче сайты с обратными SEO-ссылками, купленными на биржах. К сентябрю 2015 года санкции коснулись 3683 интернет-ресурсов. В их числе сайты «Эльдорадо», «Изолюкса», SEO-контор «Ингейт» и «Демис груп». 687 ресурсов уже вышли из-под фильтра, быстро избавившись от покупных ссылок. Однако число пониженных сайтов растёт с обновлениями алгоритма. Последний раз апдейт «Минусинска» был 3–4 октября 2015, и сотрудники антиспам-отдела «Яндекса» планируют обновлять алгоритм регулярно вместе со снижением порога санкций.
8 сентября 2015 года «Яндекс» объявил о новом АГС-фильтре. Теперь сайты, продающие ссылки, будут понижаться в выдаче и надолго прощаться со своим тИЦ. Начался отток сайтов с бирж: по разным оценкам к октябрю 2015 г. уже отказались от продажи ссылок от 30 до 50% доноров.
В этой ситуации особенно важным становится построение естественного ссылочного окружения, дающего целевой трафик на сайт.
Естественные ссылки накрепко связаны с качественным экспертным контентом на сайте, поскольку только ценной или любопытной информацией люди делятся в интернете, поставив ссылку на форуме, в соцсети, на своём сайте или блоге. По крайней мере, поисковик принимает это как аксиому.
Сайтовладельцам, которые с давних пор закупали ссылки на бирже, необходимо позаботиться о качественных бэклинках, тщательно проанализировать все ссылки на свой сайт и проделать следующую работу:
- убрать весь ссылочный «мусор»:
- арендованные ссылки;
- ссылки с некачественных ресурсов;
- нетематические;
- с неестественными анкорами;
- подумать о повышении юзабилити сайта (чтобы не отбить желание ссылаться на сайт);
- заняться получением естественных трафиковых ссылок.
Проверить бэклинки сайта вам поможет руководство «Как изучить обратные ссылки на свой сайт?»
3. Правильно работать с поведенческими факторами.
С 1 декабря 2014 года по рунету идёт волна пессимизации веб-ресурсов за накрутку поведенческих факторов (ПФ), к которым относятся: количество посещений, процент отказов, глубина просмотра сайта, время, проведённое посетителем на ресурсе.
Что делать в 2015 году, чтобы избежать санкций «Яндекса»?
- Не использовать сервисы накруток типа Seopult, Movebo, Perfectseo, Userator, WebEffector, SerpClick, Megaseo. Также в «запретной связи» с «Сеопультом» был замечен сервис социальных кнопок для сайтов UpToLike, с помощью которого собираются данные о социальном поведении пользователей на площадках с установленными кнопками и в дальнейшем используются «Сеопультом» для разработки кампаний по «улучшению» ПФ. По этому поводу в блоге «Яндекса» опубликована заметка «Использование некорректных способов продвижения приводит к существенной потере трафика».
- Обращать внимание на рефспам, который увеличивает процент отказов и может расцениваться поисковиками как накрутка поведенческих факторов.
Надо отметить, что санкции накладываются на срок от 6 месяцев, а выход на прежние позиции после исправления ошибок может занимать до года.
Рекомендации для развития сайта с учётом требований обоих поисковиков
1. Пересмотреть отношение к рекламе и всплывающим окнам на сайте.
а) Алгоритм Page Layout от Google.
Этот алгоритм, обновлённый 6 февраля 2014 года, направлен на понижение в выдаче страниц с избытком рекламы в верхней части сайта или с объявлениями, отвлекающими внимание пользователей от основного контента.
б) Усовершенствование алгоритмов «Яндекса» по пессимизации сайтов с назойливой рекламой.
В сентябре 2014 года российский поисковик объявил о результатах борьбы с большим количеством рекламы на сайтах и обновлении алгоритмов: «Изменения в ранжировании страниц с назойливой рекламой».
Если Вы хотите продолжать размещать рекламные блоки на своём сайте, то желательно не ставить их более двух, причём реклама не должна отвлекать от основного контента, перекрывать его, а уж тем более замещать, отодвигая текст в сторону или вниз.
Это касается и ставших в последнее время модными всплывающих виджетов типа «Мы Вам перезвоним через 26 секунд», «Вы были на сайте уже 10 секунд! Нашли что-то полезное?» и пр.
2. Видеть дальше персонализированного поиска.
а) Более 10 лет поиск в Google персонализируется в зависимости от многих факторов:
- Истории поиска. Если Вы ищете что-то в Google под своим аккаунтом, при формировании результатов поиска учитывается история минимум за год. И даже если Вы работаете с поисковиком анонимно, Google всё равно будет выдавать персонализированные результаты, поскольку при помощи файлов cookie хранит историю поиска в конкретном браузере за 180 дней. Не будешь же чистку каждый день устраивать...
- Предыдущего запроса. Google работает по механизму уточнения предыдущего запроса, предполагая, что Вы по нему нашли не всё, что искали, а потому предлагает страницы, связанные одновременно с текущим и предыдущим запросами.
- Географического положения пользователя. Результаты поиска, которые выдаются пользователю в одном городе, могут разительно отличаться от результатов по тому же поисковому запросу в другом городе. 24 июля 2014 года в США был запущен новый алгоритм Pigeon 1.0 («Голубь»), который резко изменил результаты локальной выдачи в связи с введением новых механизмов обработки и интерпретации сигналов местоположения. В итоге близость расположения бизнеса для пользователя Google стала чуть ли не главным фактором в поисковой выдаче. Даты внедрения нового алгоритма в других странах пока не озвучиваются.
б) «Яндекс» не отстаёт от западного конкурента в деле персонализации поиска: 12 декабря 2012 года российская компания запустила алгоритм «Калининград», учитывающий историю поиска. В то же время «Яндекс» обращает внимание и на географическое положение пользователя, а также разделяет запросы на геозависимые (по которым выдача привязана к региону) и геонезависимые (результаты поиска не зависят от региона пользователя).
Таким образом, вокруг каждого пользователя формируется поисковый пузырь, из которого не так-то легко выбраться. Это порождает массу иллюзий, например, у владельцев сайтов. Нужно просто принять, что практически невозможно узнать, на каких позициях в SERP Ваш сайт видят другие люди. Чтобы получить действительно точные данные по неперсонализированным позициям, следует использовать специальные программы или онлайн-сервисы, например, AllPositions (платный), «Энергослон» (платный), SEOGadget (бесплатный, но с ограничением количества проверок в день).
Но не надо заблуждаться и в отношении этого инструмента - он тоже не отражает реальную видимость ресурса (как мы поняли, она вообще индивидуальна). Увидеть сайт на позициях, определённых программами, может только ОН, Уникум анонимикус, постоянно уничтожающий cookies, генерирующий новые IP и т.п., или же впервые воспользовавшийся браузером где-то на орбите (а может, и там пеленгуют?). Но несмотря на то, что этот инструмент обитает в вакууме, он полезен, просто цель у него другая - оценка в динамике эффективности прикладываемых усилий по развитию ресурса. Иными словами, неперсонализированные позиции помогают понять, одобряет или нет поисковик вашу деятельность. А уж где в SERP сайт увидят Маша или Вася, сильно зависит от их сетевого поведения.
Летом мы написали лонгрид «Планирование, оценка и измерение SEO-кампаний» для неспециалистов в поисковой оптимизации и интернет-маркетинге, то есть в основном для владельцев сайтов, которые размышляют о том, какие действия предпринимать для развития проекта и укрепления его позиций в поиске, а какие не стоит.
Заключение
Все стратегии, описанные выше, разумеется, требуют вложения сил и средств. Их реализация длительна и трудоёмка. Но следует понять, что время быстрых решений и магического SEO ушло. Поисковые системы совершенствуются и ратуют за «чистоту», органичность выдачи, работая (за исключением «пузырных» перегибов) в конечном итоге для нас – пользователей интернета. И если строить и развивать сайт, следуя рекомендациям поисковых систем, усилия со временем окупятся.
При написании статьи учитывалось мнение сотрудников компании Link Assistant: «5 SEO Strategies That Will Still Work in 2015».
Если title новый, но «Гугл» выводит в поиске старое название страницы, значит новая версия страницы не проиндексировалась, потому что поисковый робот заходит на Ваш сайт достаточно редко.
Добавьте страницу сюда www.google.com/webmasters/tools/submit-url?hl=ru
Обычно после этого «Гугл» уже в течение 1-3 часов индексирует новую страницу.
Заходите ещё, задавайте вопросы — я на комментарии отвечаю.
По поводу Google можете прочитать ещё эту статью: biotext.ru/krugozor/publik-smi/google-pagerank-umer.html.
А здесь тоже есть информация о PR и тИЦ: biotext.ru/krugozor/stati/optimizacija/ne-pokupajte-ssylki-na-birzhah.html.