! Запросто с WordPress - доступная ручная работа по правилам оптимального интернета
...здесь Ваша реклама.?.
Здравствуйте !
написано: — 
отредактировано: 2017-11-17
издатель:  в теме: Seo-Plus продвижение  реплики: 5 комментариев
 
Запросто с WordPress - студия ATs media fashion Reception WordPress golden

Санкции вебмастера Яндекс (фатальные ошибки) — предупреждения или что это?

Сегодня коснёмся ошибок сайта в вебмастере Яндекса, которые он последнее время щедро раздаёт администраторам площадок: тема весьма обширна и бесконечна в плане разговоров, ибо нет никаких существенных пояснений от, скажем так, законодателей ПС Яндекс, а значит — предполагать можно бесконечно.

Ниже рассмотрим примеры подсказок в вебмастере о фатальных ошибках: когда, мол…

…по мнению алгоритма пс Яндекс, наш сайт угрожает безопасности пользователей… или практически прямое обвинение администрации сайта в спаме, бесполезности ресурса (его контента) для соискателей в интернете и пр. и пр. о чём весьма расплывчато говорят сообщения в инструментарии Яндекса.

Занавес открывается:


вебмастер поисковой системы Яндекс — ошибки сайта

 

 

(мне пришло в течение недели несколько писем, в которых коллеги-новички просили разъяснить (личную) ситуацию в веб мастере Яндекс.

Должен к своей величайшей радости доложить, что и на одном из моих подопечных сайтов наблюдается описанная проблема. Сайт достаточно новый, администрация пока что относит себя к разряду новичков, а посему я и помогаю иногда…

Так вот, чтоб не говорить много раз одно и то же, решил написать такой коротенький пост размышление…

 

 

 

Однажды мы заходим в святая святых вебмастера и наблюдаем следующую картину: (к слову, это предупреждение относится Яндексом к фатальным ошибкам)

 

 

 

фатальные ошибки в вебмастере Яндекс

 

 

 

Если кликнуть по восклицательному значку, то нас перебросит на страничку с более подробными описаниями проблемы и пр.

 

 

Впрочем, вот симпатичные фразеологизмы, сформулированные «веб мастером Я. в помощь «наказанному владельцу сайта»:

 

Сайт может угрожать безопасности пользователя, или на нём были обнаружены нарушения правил поисковой системы. Наличие этой проблемы негативно сказывается на положении сайта в результатах поиска.

 

 

Позиции сайта в результатах поиска понижены

Сайт не соответствует основным принципам (ссылка подсказки //yandex.ru/support/webmaster/yandex-indexing/webmaster-advice.xml), по которым наши алгоритмы оценивают его качество: содержит бесполезный контент, чрезмерное количество рекламы, поисковый спам и т. п.

 

Обычно ограничения снимаются в течение месяца после устранения нарушения.

 

//yandex.ru/support/webmaster-troubleshooting/lowqualitysite.xml

 

 

 

И ещё одно пояснение владельцу сайта, в котором говорится, что на всё про всё (т.е на исправление вебмастером ошибок, и переиндексацию сайта роботом) дан месяц до следующего нажатия на кнопку.

 

Следующая возможность отправить сигнал об исправлении появится через 29 дней

 

 

кворк или не кворк вот вопрос

 

 

Что получается? …если мы, скажем, исправили свои ошибки, которые, к слову сказать, многим владельцам не ясны, у нас есть возможность отправить запрос на перерассмотрение нашего сайта на ошибки.

В течение месяца, ПС обещается разрешить проблему и устранить предупреждения!! если ошибки устранены.

 

 

 

Мне подумалось вот о чём: (конечно же, это сугубо личное мнение)

 

Картина такова: есть сайт. На сайте обнаружены грубые ошибки (которые констатируются Я. как фатальные — в русском языке, это понятие попросту значит — кирдык)). А слово «кирдык» все знают что такое — конец! Естественно, начинающий админ горько переживает! А, главное, не знает как решить эти задачи ошибок: с чем я вынужден согласиться — подобные пояснения, крайнее свинство со стороны ПС.

Я не знаю! кто составлял такие пояснения. На мой взгляд, должны быть хотя бы более менее ясные указания на ошибки. Далее…

 

 

 

 

Особенно забавляет вот что: предположим, сайт кем-то изначально создавался как ГС! — для продажи ссылок, спама и прочей фигни… Авторы сего сайта это прекрасно понимают и им откровенно по болту все эти предупреждения в вебмастере.

Но вот когда такие ласковые напоминания об ошибках приходят добропорядочному новичку (и пусть он не всё ещё понимает в веб разработках… путь совершает какие-то ошибки: он ведь на то и новичок) — тогда подобные предупреждения звучат как-то не по-человечески!

Владелец сайта очень переживает… нервничает… а некоторые (есть и такие) в итоге бросают ведение блогов/сайтов…

 

 

Хочется задать сакраментальный вопрос: с кем останется ПС?? …хотя, вопрос мой, конечно, так себе…

 

Ну, ладно…

 

 

 

 

Теперь, со своей стороны, заступлюсь и за поисковые системы, ибо — те всего-то машины; а этакие неосторожные по отношению к психике ближнего формулировки составляют люди:

 

 

 

к оглавлению $

или веб мастер Яндекс прав, указывая на ошибки?

 

 

 

 

В сети интернет миллиарды сайтов… колоссальное количество!

 

Давайте зададимся таким вопросом: вот как, скажите, градировать… разделять машинам (ПС роботам) наши сайты на «хорошие» и «плохие»?

Правильно! весьма сложный вопрос. К тому же, мы по сути находимся пока ещё у истоков развития индустрии интернета! Что там времени-то прошло от великого начала…

 

Машины при всей своей «памяти» пока ещё не обладают разумом. И нам с вами, новичкам, думается, стоит это понимать.

 

И, как это ни прискорбно понимать новичку, порою (я бы даже сказал — зачастую) сам автор сайта виноват в наложении подобных санкций, предупреждений.

 

 

Если указки ПС типа: заспамленности, опасности для пользователей можно отнести к разряду древней софистики… то бесполезность контента имеет место быть!!

 

Заспамленность и, в какой-то мере, опасность видны визуально, и не требуют для выявления каких-то особых знаний… Прилежный админ может всё это запросто исправить.

 

…тогда как многие из владельцев сайтов ни в какую не хотят понять, что перекопирование материала к себе на сайт с чужих ресурсов (частично, или полностью) расценивается поисковиками как воровство.!.

 

 

к тому же: многие seoшники утверждают, будто б можно своровать у самого себя и получить за энто по шапке сайта: именно поэтому и закрывают от индексации всякие странички категорий или тегов от поисковиков, тем самым исключая дублирование контента.

 

 

Я лично, к этим убеждениям — дублирования самого себя в пределах домена)) — отношусь достаточно прохладно, ибо считать машины тупее себя, не этично) Но вполне допускаю, что в программах ПС присутствует алгоритм «воровства», копипасты… а в том числе повторение текстов, привязанных к домену.

 

 

дублирование контента

 

 

Смею предположить, что именно вот к этой копипасте как раз и придираются поисковые машины (как бороться с дублями страниц, описано в статьях, пример кода и ссылки ниже).

 

И напоминаю, алгоритмы для ПС пишут люди!

 

 

 

Я видел много сайтов изнутри, и видел, как администратор пытается развить свой ресурс посредством банального перекопирования материала с чужой площадки… Я не хочу сказать, что этакие желания всегда движимы какими-то злостными побуждениями… нет! …скорее… частенько — наивностью… от халвы: т.е халявы))

Не забывайте об этом.

 

Следует всегда помнить о том, что поисковой робот не обладает и каплей разума! и скорее отнесёт невинное перикопирование к воровству, нежели… ну, вы понимаете…

 

 

 

 

Как эпилог:

 

 

Печатать на своём сайте можно всё, что угодно, но только тогда, когда он обретёт кое-какой вес в сети среди себе подобных… А пока наш с вами ресурс молод, всё-таки следует придерживаться определённых правил интернета в целом, пусть не всегда ясных и понятных, но это — правила, как ни крути:

 

 

1 — если копируете известный материал к себе на сайт, то:

 

а) предайте ему максимальную уникальность, или

 

б) закройте от индексации страничку с таким контентом.

 

 

…если приводите в тексте какую-то чужую объёмную цитату (ну или даже из своей какой-то опубликованной ранее статьи) от греха — закройте её в теги цитирования <blockquote>текст</blockquote>

 

 

 

ошибки в вебмастере Яндекс

 

 

 

 

к оглавлению $

закрываем от индексации странички с не уникальным контентом

 

 

 

 

Закрыть странички от индексации просто, я об этом говорил множество раз…

 

подробнее описано, например, здесь (там далее по ссылкам). Или в этой статье рассказано об условных тегах (как раз на основе них и отрабатывается код ниже).

 

 

/** закроем от индексации странички или записи **/
function my_meta_catss_robots () {
if (is_category() or is_page('77') or is_single('77') )
{
echo "".'<meta name="robots" content="noindex,follow" />'."\n";
} }
add_action('wp_head', 'my_meta_catss_robots');
/** закроем от индексации странички или записи **/

 

 

В коде я дал примеры «закрытия рубрик» is_category, страничек сайта is_page и записей is_single — где просто (в скобках) указываете ID записи, страницы — у меня 77 …и пр…

 

 

Таким образом, после прописки показанного выше кода к себе на сервер, например, в файл функций functions.php активного шаблона, — в шапке сайта (в мета), если откроете исходный код Ctrl+U, будет автоматически сгенерирован метатег под кодовым понятием robots, а именно вот такая штука:

 

 

<meta name="robots" content="noindex,follow" />

 

 

…где noindex обозначает неиндексирование поисковым роботом контента (что нам и требуется). а follow — разрешает проход роботу по документу: робот будет видеть ссылки и переходить на полезные открытые документы: т.е страничка будет не бесполезна… в отличие от того, если её прикрыть напрочь ! типа: noindex,nofollow.

 

 

Рекомендую пользоваться именно этим способом закрытия страниц, но не банально в файле robots.txt.

А когда закрываете описанным выше способом — непременно — снимите ограничения в robots, коли таковые были прописаны!

 

 

 

 

Короче: на мой взгляд, зачастую все эти предупреждения вебмастера Яндекса и пр. — фигня! хотя, конечно, огорчают немного. И стоит немного потрудиться — всё будет здорово!

 

Чего я вам с великим удовольствием и желаю!

 

 

 

Однако !!

 

 

 

вот ещё что:

 

…думаю, вы и без меня знаете — и всё же, считаю долгом напомнить: иногда бывают ситуации, о которых и не подозреваешь!!

вроде бы всё хорошо, контент уникальный… но сайт никак не желает идти вверх к приличной посещаемости… и вдруг — бац!! — предупреждение от вебмастера Яндекса.

Настоятельно рекомендую, даже если у вас новенький домен, в течение нескольких месяцев проверять внешние ссылки (не ссылаются ли на ваш домен ресурсы спамеров: порно и пр. вредности в этом плане)) — всё это может обернуться неожиданными сюрпризами, которые очень и очень негативно скажутся на продвижении сайта: ну, хотя бы здесь тестируйте — //www.linkpad.ru/

 

Не ленитесь — проверяйте историю домена перед тем как запустить проект! Частенько бывает так, что всякие мошенники избавляются от своих отработанных доменов! а мы, ничегошеньки не подозревая, приобретаем…

 

Будьте внимательны к своему избранному адресу сайта (доменному имени) — ибо частенько бывает так, что, к примеру, Яндекс веб мастер обвиняет в заспамленности вашего ресурса. В подобных случаях оч. трудно доказать, что ты не свинья!!

 

Интересуйтесь подробнее жизнью своего сайта в интернете)) — ведь проще !! не доводить сайт/блог до состояния критических ошибок, нежели потом решать их!

 

 

 

 

Удачи!..

 

 


...А мне остаётся только раскланяться... и пожелать полезной работы в сети

 

 

Делитесь своими соображениями в комментариях…

 


На этом занавес представления опускается…
…на рампы пыль печальная ложится…


подписка feedburner МИГ подписки - ВРЕМЯ знаний!!

 

 


Благодарности)) и вопросы в комментариях - помогу… в чём дюжу
А также Вы можете просто:
Нажатия на кнопочки определяют Ваше высокое гражданское сознание
ещё статьи по теме:

меточная навигация:


Комментарии © 5 к статье: Санкции вебмастера Яндекс (фатальные ошибки) — предупреждения или что это?

  1. Здравствуйте Михаил. А если я закрываю страницы от индексирования при помощи плагина All in One Seo — это годится или нет? чтобы вот эти вот коды не прописывать где-то в файлах вручную?

    например, уменя есть 2 неуникальные страницы: «Пользовательское соглашение» и «Политика конфиденциальности» при создании этих страниц (и записей на них) есть возможность галку поставить в поле под текстом, которая приказывает плагину закрыть тегами эти страницами, чтобы робот туда не ходил. И я этим воспользовалась. Теперь не знаю, всё ли я сделала или надо еще где-то что-то прописать руками?

    Ответить - Елена

    • Здравствуйте Елена!
      Ну, если проставили в соответствующих боксах All in One… галочки noindex/follow — то всё нормально! ничего больше делать в этом плане не нужно, окромя:
      …если закрывали эти странички в robots.txt, то — откройте!

      Ответить - Михаил

  2. а есть ли у вас статьи по поводу ускорения сайта? не вижу в тегах справа почему-то. если есть, скажите где искать, пожалуйста.
    пытаюсь ускорить сайт. сервис Гугл соообщает, что над мобильной версией еще надо поработать, ато у моего 86 из 100

    Ответить - Елена

    • Пару-тройку статей писал на эту тему… а вот тегами пока не группировал (спасибо, за идею).
      Начните с этойУскоряем сайт: основные кэш и gzip правила .htaccess… а там по ссылкам…
      Позже что-нибудь сгруппирую. Хотя вопрос ускорения — очень сложный вопрос во всех отношениях: эликсира в оном конкретном посте найти сложно в принципе.

      Ответить - Михаил

      • спасибо Михаил за ссылку. пойду изучать)

        Ответить - Елена

Поделитесь соображениями: Ваши мысли очень важны! $ правила комментирования ©

Внимание! Обязательные поля помечены *

 для диалога необходимо принять правила конфиденциальности и пользовательского соглашения *
Яндекс.Метрика