5 заблуждений о которых не знают многие оптимизаторы

Очень часто на форумах и в блогах оптимизаторов-новичков вводят в заблуждение и потом они всю оставшуюся жизнь следуют этим принципам, неся эти знания и передавая их из поколения в поколение — так рождаются seo мифы.

Я собрал 5 самых популярных фактов, заблуждений, рекомендаций или как их еще назвать… Которые большинство оптимизаторов используют или трактуют неправильно.

1) 404 или 410 ответ сервера

Многие используют для удаления страниц из индекса — 404 ответ сервера. Правильно использовать 410 ответ сервера. Он сообщает о том, что ресурс окончательно удален. Таким образом ненужная страница быстрее вылетит из индекса.

2) Точное вхождение ключевого слова в title и тексте

Это один из главных принципов, которому следуют почти все оптимизаторы — чтобы быть в топе, обязательно необходимо точное вхождение ключевого слова в title или текст страницы.

Обратимся к исследованию, которое провели NetPeak.

Было взято около 13000 вч и сч ключей. Пробили по ним топ 10. И посмотрели сколько из них страниц имеют точное вхождение ключа в title или текст.

Получились вот такие цифры:

60% сайтов вообще не имеют точного вхождения

28% имеют точное вхождение в title

12% точное вхождение только в тексте

Отсюда вывод, что точное вхождение не обязательно.

3) robots.txt и запрет от индексации

Мной был проведен эксперимент. Совершенно на новом домене создан сайт с robots.txt в котором был прописан запрет на индексацию сайта «Dissalow: /». В течении месяца я закупил на него трафик в большом количестве, в итоге сайт проиндексировался в Яндексе.

А вот еще один пример, как Google «кладет» на этот запрет:

Твит маула о robots.txt

Поэтому файл robots.txt носит рекомендательный характер. Если вы хотите закрыть сайт или его страницы от индексации, лучше использовать мета теги.

Кстати.

Редко кто проверяет, но часто встречается, особенно в самописных движках, что страница http://site.ru/robots.txt отдает не 200 ответ сервера.

Казалось бы, зачем нам это проверять, если ясно, что robots.txt не работает. Он работает, но при воздействие сильных поведенческих или ссылочных факторов поисковики не всегда ему следуют.

4) rel=nofollow и внутренние ссылки

Очень давно, закрывая внутренние ссылки на сайте rel=»nofollow» можно было управлять весом страниц. Многие этим злоупотребляли и поэтому Google решили сделать так — вес со страницы уходит, но он не передается.

Ставя на внутреннюю ссылку rel=nofollow вы забираете Page Rank у страницы на которой стоит эта ссылка и передаете его в никуда.

Поэтому для внутренних ссылок, лучше не использовать rel=»nofollow».

5) sitemap.xml

С детства нас учили, что sitemap ускоряет индексацию сайта и его надо делать каждому сайту, пихая туда все ссылки. Если у вас маленький сайт и нормальная структура, то без sitemap.xml он будет хорошо индексироваться. Но если у вас огромный портал с 100 000 страницами и вы их все засунете в sitemap.xml, то это никак не ускорит индексацию.

Поэтому наилучшее решение — добавлять в sitemap.xml только не проиндексированные страницы.

Георгий
22.05.2014 в 19:35

Про прямое вхождение информация сомнительная, конечно. Надо уточнять фразовое, точное вхождение и учитывались ли слова в разных частях текста.

Ответить
Ovsyannikoff
22.05.2014 в 21:50

Слова в разных частях скорее всего не учитывалось. В эксперименте подразумевается, слова стоят рядом, точно как в запросе.

Ответить
Антон
22.05.2014 в 21:07

Когда успел дизайн сменить?

Ответить
Ovsyannikoff
22.05.2014 в 21:51

Недавно, настали такие времена

Ответить
w2
23.05.2014 в 08:47

на моем опыте пока еще не увидал чтобы яндекс хавал страницы закрытого от индекса сайта в роботсе, если такой пример будет, кинь плис =)
скорее всего как ты сам и написал, тот роботс который не отдает код 200 не мог по сути запретить индексирование
по поводу важности роботса не согласен с тобой, он важен, потому как ограничивае доступ к ненужным страницам и отдает лимит поисковика на нужные = как и у гугла так и у яндекса есть лимиты на ресурсы скачивания страниц, вот и не ограничивая служебные страницы, половина твоего лимита уйдет на них
как по мне правда выглядит както так =)

Ответить
Ovsyannikoff
23.05.2014 в 11:06

Пример у меня был год назад, когда у меня такое произошло. Мой точно отдавал 200 код, я это всегда проверяю :) Я не говорю, что роботс не важен, он является лишь рекомендацией а не 100% запретом, ты сам прекрасно знаешь, что часто гугл ему вообще не следует и индексирует всё подряд. 100% запретом являются мета теги, чтобы поисковик игнорировал мета тег, я такого еще не встречал ниразу.

Ответить
Freethinker
23.05.2014 в 19:08

Как бы ни были многообразны ответы сервера, давно устоявшаяся практика – это использование именно 404 кода. Поисковики хоть и понимают 410, советуют все же использовать 404:
http://help.yandex.ru/webmaster/robot-workings/robot-workings-faq.xml
https://support.google.com/webmasters/answer/2409439?hl=ru
Так что стопроцентно заявлять «Правильно использовать 410» в разрезе рассматриваемого вопроса (индексация в ПС) не разумно.

Про заблуждение с точным вхождением вообще не слышал, применимо если только к ВЧ. К тому же СЧ СЧ рознь (по поводу эксперимента). Не уточнено, какие запросы использовались: вид, тип, тематика и пр. Да и в 13000 могли затесаться не совсем адекватные формы запросов, не вручную же они их составляли.

По sitemap.xml тоже совет крайне сомнительный, как будто на такие случаи нет официальных хелпов.

http://help.yandex.ru/webmaster/indexing-options/sitemap.xml
«Файл может содержать не более 50 000 URL. Если ваш Sitemap не удовлетворяет этим требованиям, разбейте его на несколько отдельных файлов и укажите их в файле индекса Sitemap.»

https://support.google.com/webmasters/answer/35738?hl=ru
«В файле Sitemap может содержаться не более 50 000 URL. Разделите его на несколько файлов Sitemap меньшего размера и создайте файл индекса Sitemap, где будут перечислены эти файлы.»

Так что вот.

Ответить
Ovsyannikoff
23.05.2014 в 20:16

Писал этот пост исходя из своего опыта. Что написано в хелпе и другой информации от поисковых систем (например что ссылки не работают и т.д.), не всегда верно, надо тестировать и смотреть.

Точное вхождение, да это про ВЧ и СЧ конкурентные имелось ввиду.

Проблема в sitemap, что робот не берет оттуда все ссылки, пару лет назад, на какой то конференции показывали эксперимент, что из сайтмапа роботом вытаскивается только например каждая 5 ссылка, а не все сразу. Да и смысл в сайтмапе держать все страницы, которые проиндексировались?

Ответить
Freethinker
24.05.2014 в 12:32

«что из сайтмапа роботом вытаскивается только например каждая 5 ссылка, а не все сразу.» — интересно, как они это проверили? Не могу даже представить ни одной правдоподобной возможности. Наоборот, поисковики после обработки файла говорят, что обработано столько-то ссылок = все ссылки из файла.

«Да и смысл в сайтмапе держать все страницы, которые проиндексировались?» — очень даже очевидно. Файл содержит параметр lastmod для каждой страницы, а роботы регулярно обходят sitemap. Таким образом они проверяют актуальность версии страницы, а сайтовладелец может управлять этим, т.е. сообщить роботу, что страница обновилась.

Ответить
Ovsyannikoff
24.05.2014 в 19:32

Создали сайт и внутренние страницы, на которых не было ссылок с самого сайта, а только в сайтмапе, там и посмотрели какие страницы вошли в индекс.

«Очень даже очевидно. Файл содержит параметр lastmod для каждой страницы, а роботы регулярно обходят sitemap. Таким образом они проверяют актуальность версии страницы, а сайтовладелец может управлять этим, т.е. сообщить роботу, что страница обновилась.» — это понятно, по факту же страницы обновляются не часто, если это какой то не специфический проект и зачем они тогда в сайтмапе? Или вы имеете ввиду, что робот видит в сайтмапе не измененную страницу и на неё не будет заходить, тем самым не тратить ресурсы?

Ответить
LeeSEOman
07.03.2015 в 23:50

Было время, с удивлением заметил что Гугл жрет странички запрещенные в роботсе. Был сильно удивлен, казалось правило есть правила… Пришлось мета нэйм роботсом выгонять :)

Ответить
Предприимчивый вебмастер
10.04.2015 в 06:57

С дизайном проблемы: не хватает контраста в комментариях, их трудно читать, верхнее меню после скроллинга занимает большую часть экрана на небольших мониторах, надо уменьшить по высоте.
Про эксперимент с исследованием прямых вхождений в title слышал, но он у меня вызывает сомнения. Обобщать не стоит, лучше перепроверить лишний раз конкретный запрос.

Ответить
Ovsyannikoff
11.04.2015 в 13:11

Это просто дизайн поехал, так как переносил блог на новый домен. Сейчас всё норм :)

Ответить
Евгений
07.05.2015 в 15:30

Приятно видеть что блог преображается и живет) Последний раз читал еще на предыдущем домене.

Интересные наблюдения, нужно будет отметить для себя некоторое.

Ответить
Ovsyannikoff
07.05.2015 в 16:03

Спасибо, только недавно начал преображаться, до этого времени не было, постигал тонкости seo и свои проекты разрабатывал :)

Ответить
Оставить комментарий