Оставьте заявку

Мы свяжемся с вами как только получим вашу заявку в рабочее время.

Мы обрабатываем персональные данные (cookies, IP-адрес, местоположение), чтобы вам было удобнее пользоваться сайтом. Оставаясь на сайте, вы соглашаетесь на обработку персональных данных. Если вы не согласны, пожалуйста, покиньте сайт и позвоните нам: +7 (495) 118-23-14, мы поможем найти решение.

19 SEO фактов для начального продвижения

24/11/2017
147
 19 SEO фактов для начального продвижения

Ежемесячная аудитория интернета в России достигла 87 млн человек, из которых 66 миллионов сидят с мобильных устройств. Эти люди — ваша потенциальная аудитория. Чтобы они совершили покупку или увеличили трафик, сайт должен быть оптимизированю. 

Неоптимизированный сайт не несет пользы: он переполнен ссылками, содержит замусоренный код, долго загружается и не привлекает трафик даже за плату. Такой сайт вреден всем: пользователи запутаются и выйдут, вы потеряете деньги, а сайт упадет в выдаче. Оптимизированный сайт помогает пользователю добиться цели: дает полезный контент, предвосхищает вопросы и помогает структурой. Он хорошо ранжируется даже при бесплатном, органическом поиске. Чтобы добиться такого результата, нужно провести поисковую оптимизацию — SEO. 


SEO — сложная штука. Она состоит из анализа структуры сайта, его наполнения, визуального оформления, анализа ключевых слов и т.д. Неправильная оптимизация может привести к тому, что поисковики заблокируют сайт и не будут его выводить. Мы подготовили 19 советов, которые помогут вам быстрее разобраться в теме.

1. Скорость загрузки страницы имеет значение

Многие полагают, что низкая скорость загрузки страницы досаждает только пользователям. Однако последствия медленной загрузки куда серьезнее. Скорость загрузки уже долгое время остается фактором в ранжировании сайтов. Более того,  Google заявляет, что в будущем скорость загрузки мобильной версии сайта может стать фактором в выдаче результатов мобильного поиска. Конечно же, ваша аудитория тоже оценит сокращение времени загрузки сайта.

Для анализа скорости загрузки сайта и получения рекомендаций по её улучшению используйте инструмент Google Page Speed Insights.

Если хотите улучшить работу мобильного сайта, Google разработал новый инструмент, специализирующийся на мобильных сайтах. Он проверит время загрузки страницы сайта в мобильном интернете 3G, оценивать юзабилити мобильной версии и многое другое.

2. Файлы robots.txt чувствительны к регистру и должны быть размещены в главной директории сайта

Файл robots.txt размещается в корневой директории сайта и содержит инструкции по его индексированию для роботов поисковых систем.

С помощью robots.txt можно:

  • запретить или разрешить роботам индексировать некоторые разделы и страницы сайта или весь сайт целиком;
  • указать путь к карте сайта sitemaps.xml, способствующей правильному индексированию;
  • дать понять роботу, какое зеркало сайта, при наличии нескольких его копий, является главным, и какие зеркала индексировать не нужно;
  • снизить нагрузку на сайт от поисковых роботов, если необходимо экономить ресурсы.

Файл должен иметь имя, состоящее исключительно из символов нижнего регистра (robots.txt), чтобы быть опознанным. Поисковые роботы ищут файлы robots.txt только в одном месте: главной директории сайта. Если поисковые роботы не находят этих файлов в главной директории, они просто продолжают сканировать дальше, предполагая, что таких файлов нет.

3. Поисковые роботы не всегда имеют доступ к страницам с бесконечной прокруткой

Бесконечная прокрутка — это прием, который позволяет прокручивать массивный кусок контента так, чтобы его конец не попадал в поле зрения. Этот метод обновляет страницу при прокрутке вниз.

Хотя метод и выглядит заманчиво, но если поисковый робот не получает доступ к такой странице, она может остаться не проиндексированной. Это означает, что такие страницы не будут внесены с в базу поисковых систем. Следовательно, они не будут появляться в поисковой выдаче и пользователи вас не найдут через поиск.

Если вы используете бесконечное прокручивание, убедитесь, что наряду с бесконечной страницей на вашем сайте есть серия пронумерованных страниц. Используйте инструмент replaceState/pushState. Большинство веб-разработчиков не знают об этой маленькой хитрости оптимизации, так что проверьте наличие команды rel=“next” и rel=“prev” в коде бесконечной страницы.

4. Google не обращает внимания на структуру карты сайта

Файл Sitemap (карта сайта) добавляется в корневую директорию сайта и дает поисковым системам информацию о том, какие страницы сайта должны быть проиндексированы, какие из них в первую очередь, как часто они обновляются.

Если карта сайта (Sitemap) в формате XML, вы можете структурировать её как угодно — разбивка на категории и разделы в структуре сайта никак не повлияет на то, как Google сканирует ваш сайт.

Подробно об этом мы писали в этой статье: https://myacademy.ru/baza-znanii/stati/kak-provesti-polnii-seo-audit-saita-poetapnoe-rukovodstvo-i-25-poleznih-instrumentov.html

5. Неархивный тег не повредит ранжированию в Google

Тэг noarchive запрещает Google показывать ссылку “Сохраненная копия” для определенной страницы. Он предотвратит выдачу кэш-версии страницы в результатах поиска (то есть  версию текста, которая проиндексирована поисковым пауком, но оригинальная страница недоступ

но не повлияет негативно на ранжирование страницы в целом.

6. Google обычно сканирует первой домашнюю страницу 

Об этом не говорится напрямую, но наблюдения показывают, что Google находит домашнюю страницу первой. Исключение составляют страницы, на которые ведет большое количество ссылок с других страниц вашего сайта.

7. Google оценивает внутренние и внешние ссылки по-разному

К внутренним ссылкам относятся ссылки на вашем сайте: в меню и ссылки на ваши статьи на страницах сайта и все все, что направляет посетителя опять же на внутренние страницы. Внешние ссылки — это ссылки, которые ведут посетителя за пределы сайта.

Ссылка на ваш контент или сайт с постороннего сайта имеет другой вес, нежели ссылка с вашего сайта.

8. Вы можете проверить свой Crawl Budget в панели Google Search Console

Ваш Crawl Budget (бюджет сканирования) — это количество страниц, которое поисковая машина сканирует за единицу времени. Вы можете получить представление о том, каков этот показатель для вашего сайта в панели Search Console (поисковой консоли Google) и попробовать увеличить его, если это необходимо.

9. Скрытие от поискового робота страниц без SEO ценности повысит бюджет сканирования

Запрет индексации ставится на служебные модули сайта, которые не несут смысловой нагрузки, как для пользователей, так и для поисковых систем.Они не стоят усилий по оптимизации. Например, положения о конфиденциальности, просроченные акции и условия соглашений.Если страница не была создана для ранжирования в поисковых системах и не имеет уникального на 100% контента, её необходимо закрыть от индексации.

Для запрета индексации страницы воспользуйтесь мета-тегом robots. Особенность его использования в отличие от robots.txt в том, что он дает указания сразу всем поисковикам. Этот мета тег подчиняется общим правилам формата html и должен находится в заголовке страницы между тегами<⁄head>.Пример записи для запрета:

Атрибут content может содержать такие условия:

  • index - разрешает индексацию этой страницы
  • noindex – запрещает индексацию страницы 
  • follow – разрешает индексировать ссылки на этой странице
  • nofollow – запрещает индексацию ссылок на странице
  • all – включает в себя сразу index и follow (разрешает индексировать и страницу и ссылки)
  • none – включает noindex и nofollow, т.е. запрещает индексацию

10. Важно разбираться в картах сайта

Если вы настроете XML-карту неправильно, то рискуете потеряеть позиции в выдаче.

Что нужно знать о карте сайта:

- Карты сайта в XML должны иметь код вида UTF-8.

- Они не могут включать сессий ID из URL ссылок.

- Они должны иметь менее 50 000 URL знаков и весить меньше 50 Mb.

- Рекомендуется использовать один файл индекса карты сайта вместо нескольких подчиненных файлов.

- Вы можете использовать разные карты сайта для разных типов медиафайлов: изображений, видеороликов и новостей.

11. Вы можете проверить, как мобильный поисковый робот Google «видит» страницы сайта

С тех пор, как Google и Яндекс стали отдавать предпочтение мобильным версиям сайта при индексировании. Оптимизировать сайт для мобильных стало важной задачей вебмастеров.

Чтобы проверить, будет ли признана конкретная страница вашего сайта мобилопригодной, можно воспользоваться инструментом "Проверка мобильных страниц" в новом Яндекс.Вебмастере. А при помощи другого инструмента "Диагностика сайта" можно проверить на мобилопригодность весь сайт.

Используйте отчет "Удобство просмотра на мобильных устройствах" консоли Google, чтобы найти отдельные страницы вашего сайта, которые имеют проблемы с юзабилити на мобильных устройствах. Также вы можете пройти тест на  удобство мобильной версии сайта.

12. Половину первой страницы выдачи Google составляют сайты HTTPS адресов

Безопасность веб-сайтов становится всё важнее. Кроме взлета безопасных сайтов в выдаче, Google Chrome теперь использует оповещения для пользователей, что сайт, на который они собираются перейти, содержит небезопасные данные. Судя по всему, веб-разработчики уже отреагировали на эти обновления: по данным инструмента RankRanger, 99% результатов первой страницы выдачи включают как минимум один, а то и несколько сайтов на HTTPS. Если вы еще не перешли на HTTPS, воспользуйтесь 13 рекомендациями Google по переезду на HTTPS..

13. Старайтесь, чтобы время загрузки страницы на вашем сайте было в пределах 2—3 секунд

Аналитик тенденций платформы Google Webmaster Джон Мюллер рекомендует время загрузки страницы от 2 до 3 секунд. Чтобы проверить скорость загрузки сайта, воспользуйтесь инструментом https://www.webpagetest.org/ .

14. Файлы robots.txt не остановят ранжирование вашего сайта в Google

Часто команда «запретить» (“Disallow”) в файле robots.txt вызывает замешательство. Ваш файл robots.txt просто говорит Google не сканировать запрещенные страницы/папки/определенные параметры, но это не значит, что страницы не будут проиндексированы.

Вы не должны использовать robots.txt, чтобы закрыть страницу от выдачи в результатах поиска, потому что другие страницы могут ссылаться на неё. В этом случае страница будет проиндексирована, несмотря на запрет в файле robots.txt. Если вы хотите заблокировать страницу от выдачи в результатах поиска, используйте другой метод, такой как защита паролем или noindex теги и команды

15. Вы можете добавить дополнительные канонические URL к основному домену

Это позволит вам сохранить вес старого домена, пока вы используете новое имя домена в маркетинговых материалах и других источниках.  В Справке Google подробно рассказано, как использовать канонические URL, чтобы улучшить рейтинг одинакового содержания, размещенного на разных страницах.

16. Google рекомендует сохранять перенаправление (редирект) хотя бы на 1 год

Поскольку Google фиксирует переезд сайта не сразу, а в течение нескольких месяцев, представитель Google Джон Мюллер рекомендует оставлять редирект 301 на сайте хотя бы на 1 год.

Лично я рекомендую никогда не избавляться от редиректа для важных страниц, например, ранжированных страниц, страниц с ссылками и авторитетным редиректом на другие важные страницы.

17. Вы можете контролировать Search Box в Google

Google Search Box — это специальное поисковое поле, которое делает поиск по вашему сайту прямо со страницы с результатами поисковых запросов.

Эта строка контролируется поисковиком Google и показывает пользователям релевантный контент внутри вашего сайта. По желанию, вы можете выбрать в качестве источника свою собственную поисковую систему или включить в список результаты из вашего мобильного приложения. Вы можете отменить поисковую строку, используя метатег “nositelinksearchbox”.

18. Вы можете активировать “notranslate” тег, чтобы предотвратить перевод в поиске

Метатег “notranslate” сообщает Google, что не следует переводить страницу на другие языки в поисковике Google. Эта функция полезна, если вы скептически относитесь к способности Google адекватно переводить ваш контент.

19. Вы можете добавить ваше приложение в поисковик Google, используя  индексатор приложений Firebase

Если у вас есть приложение, которое вы ещё не проиндексировали, сейчас самое время это сделать.

Используя индексатор приложений Firebase, вы можете позволить результатам поиска из приложения выдаваться, когда человек, установивший ваше приложение, запрашивает в поиске ключевые слова, связанные с контентом приложения.

 

Таких фактов, конечно, гораздо больше, но мы выбрали для вас несколько самых интересных и заслуживающих отдельного внимания.



О том, как правильно сделать SEO-аудит сайта мы писали в этой статье.

Исследование: email-маркетолог – кто это? Как продвигать бизнес в Телеграме

Запишитесь на курс по данной теме

Мы свяжемся с вами как только получим вашу заявку в рабочее время.

Подпишитесь на рассылку и получайте
лучшие статьи от наших профессионалов: