владелец сайта предпочел скрыть описание страницы что делать
Владелец сайта предпочел скрыть описание страницы WordPress
2016-09-05 / Вр:10:03 / просмотров: 8354
Один из заказчиков обратился ко мне за помощью. Заметил он, что после установки и настройки WordPress через некоторое время в поиске Яндекс он увидел текст «Владелец сайта предпочел скрыть описание страницы»:
Птичку с пункта « Видимость для поисковых систем » я убрал. Подождал недельку. В поиске Яндекс и в Гугле сайт стал отображаться:
Я, конечно, могу ошибаться в том, что проблема была именно из-за отмеченного пункта « Видимость для поисковых систем ». Поэтому прошу всех, у кого из вас по непонятным причинам в поиске Яндекса все еще виден текст «Владелец сайта предпочел скрыть описание страницы», и вы используете WordPress, воспользуйтесь моим советом и отпишитесь в комментариях, помог ли он или нет.
Жду комментариев!
5 ошибок оптимизации, которые держат ваш сайт на второй странице
Автор Вячеслав Питель · 10:47 18.04.2018 0
Закрытые от индексации css и js
Я думаю, все мы получали от Google в search concole вот такие замечательные письма про то, что нам необходимо открыть для индексации наши таблицы стилей и java-script.
Давайте разберемся, как это может навредить нашему сайту и почему поисковые системы настаивают на этом и особенно google.
То есть я считаю, что мы должны соблюдать правила, о которых нас просят поисковые системы. Это не так сложно и, наверно, нас просят не зря.
На самом деле, есть несколько причин, почему нельзя скрывать наши таблицы стилей и скрипты. Прежде всего поисковые системы хотят полностью понимать весь контент, который есть на нашем сайте, а также пытаются оценить его юзабилити (удобство для пользователей).
А для этого они должны понимать все активные элементы, которые присутствуют на нашем сайте.
Второй момент. Поисковые системы все больше анализируют мобильные версии и адаптивный дизайн, что часто основывается только на css и джаваскрипте.
И если мы закрываем эти файлы от индексации, поисковая система просто нормально не сможет понять наш адаптивный дизайн.
И еще один момент, о котором так часто говорят. За много лет, особенно те люди, которые работали под поисковую систему Яндекс, привыкли использовать javascript для некоторых манипуляций.
Закрытие ссылок, закрытие контента, многие использовали какие-то более сложные шаблоны, которые позволяли заблокировать или каким-то образом скрыть от поискового бота огромные массивы данных.
И на самом деле теперь этот путь нам тоже отрезали. На самом деле, это было понятно давно и к этому были давно предпосылки. Ведь любое закрытие контента согласно правилам поисковых систем является манипулятивным методом оптимизации.
Конечно, тогда все спорили, что это не так, но теперь мы понимаем, что этого делать не стоило.
Что делать и как исправлять? Во-первых, стоит ли исправлять? Некоторые считают, что ничего страшного в этом нет. Но обязательно стоит. Потому что google обещал понижать позиции, либо как минимум пессимизировать контент, придавать ему не такие высокие оценки, если этот контент обрабатывается какими-то скриптами или имеет какое-то оформление, которое не совсем понятно для поисковой системы. Поэтому открывать эти файлы нам стопроцентно нужно. О правильном оформлении текстов, статей и вообще контента читайте в этой статье.
Как правильно это сделать? Прежде всего, посмотрите в search console и файле robots.txt. Google search console дает нам два замечательных инструмента. Первый инструмент называется «заблокированные ресурсы».
Там приводится список всех css java script html страниц, которые заблокированы нашими директивами в файле robots.txt.
Если вы используете два этих способа, то у вас просто не возникнет никаких проблем с индексацией таблиц, стилей или java скриптов.
Те, кто еще не перешел при оптимизации на эти инструменты, думаю оценят их функционал и оценят насколько это удобно.
Использование раскладных, скрытых текстов
Вторая проблема, по сути, вытекает из первой. Мы открываем те файлы, которые скрывали все наши сеошные секреты. Ну не все, конечно, из нас использовали какие-то такие тактики, все больше специалистов переходят на белые тактики seo и контент-маркетинга. Но многие специалисты используют до сих пор сеошные тексты, сокрытие ссылок, хитрые методы перелинковки.
Если же в этом контенте идет еще переполнение ключевыми словами, то это может быть воспринято поисковой системой как поисковый спам.
Поэтому настоятельно рекомендую вам, если с вашим сайтом что-то не так, какая-то из ваших страниц не продвигается, обратите внимание, может быть, вы используете какой-то полускрытый контент.
Проверьте свои сайты по второму пункту. К сожалению, на сайтах услуг во многих коммерческих топах до сих пор можно найти вот такие штуки, которые в скором времени начнут приносить ощутимый минус для этого сайта.
Использование нетематических текстов
Проблема в том, что даже оптимизированный вхождением ключевых слов seo-текст, если он не относится к определенной тематике, никогда не принесет вам позиции.
Очень много коммерческих посадочных страниц попадают под категорию вот таких вот оптимизированных некоммерческих текстов. Причина этому то, что копирайтеры, которые пишут нам тексты по 2 доллара за 1000 символов, не всегда разбираются в тех темах, в которых мы работаем или в которых работают наши клиенты.
Хотят сейчас, конечно, копирайтинг растет, все больше компаний имеют свои какие-то отделы копирайтинга, но все равно это далеко не профессиональные материалы и их сложно назвать тематическими.
Как поисковая система технически определяет тематику текста? На самом деле это очень просто понять. Текст раскладывается на частотную таблицу, то есть на набор слов и эта частотная таблица сравнивается с типичным набором тематических слов в каждой тематике. Подробнее о частотных таблицах и принципах индексации тут.
Есть набор слов, скажем так, который характеризует эту тематику. Наш текст сравнивается с этим набором слов и если у нас со словом «наполеон» часто встречается слово «торт», то, наверно, это рецепты. А если там встречается часто слово «наполеон» и встречается слово «история» или «Франция», то это текст по истории Франции. Почитайте статью «Что такое релевантность страницы или сайта», там все это лучше расписано.
Вот очень часто у нас люди пишут текст как бы про товар, но поскольку не разбираются в этом товаре, пишут что-то отстраненное. И это приводит к не тематическим оптимизированным текстам и такие тексты в ближайшее время не смогут занять какую-то нормальную позицию в поиске.
— Инструменты проверки тематических текстов
Проверить тексты на тематичность помогут два инструмента.
Он чуть заставит вас поработать вручную, но он очень удобный.
Это инструмент, который позволяет взять несколько сайтов из топа, собрать их в один список и загнать в этот инструмент и он вам покажет те слова, которые встречаются на всех этих страницах.
То есть соберет по сути вот этот набор, потенциально тематическую частотную таблицу, которую потом вы должны использовать для создания тематических текстов. По сути, полностью автоматический инструмент решения этой проблемы.
Использование не уникальных текстов
Большой процент не уникального контента на сайте гарантированно приведет к снижению позиции. Например, недавно у меня отклеились в Яндексе зеркала, которые сразу же были проиндексированы и позиции основного зеркала упали.
Проблема даже не в том, что сами seo-шники публикуют этот контент, проблема в том, что многие сеошники и администраторы не контролируют те процессы, которые производит клиент, владелец сайта.
Есть владельцы сайтов (не специалисты), которые самостоятельно пытаются продвигать свой ресурс. Я обращаюсь, прежде всего, к вам. Если вы заказали дорогостоящую seo оптимизацию, если вы вкладываете деньги в продвижение своего сайта, перед тем, как вносить какие-то коррективы в свой сайт, пожалуйста, проконсультируйтесь со специалистом.
Иногда вы вредите своему ресурсу и напрочь перерезаете все те труды, которые делает seo-специалист. Например, такой антикейс. Сайт только появился, конкурентная тематика, хорошая коммерческая оптимизация, хорошие продающие тексты и он естественным образом зашел почти по всем коммерческим запросам сразу в топ-10. Так часто бывает. Да, если хороший сайт, особенно какой-то более-менее известной компании, не надо много времени, для того чтобы он заполучил хорошие позиции.
Если мы во время разработки сделали хорошую оптимизацию, внедрили все правки он сразу зайдет в ТОП, так как я считаю, что трастовый сайт это новый молодой сайт, а дальнейшие действия с ним, только понижают его трастовость, если это ошибки оптимизации, либо оставляют траст без изменений, если оптимизация делается правильно.
Но буквально через неделю владельцы этого сайта выложили 100 неуникальных материалов. Как следствие, буквально в течение недели все позиции ушли из первой десятки на вторую страницу.
Решение этой проблемы было очень простым, все эти не уникальные материалы были удалены и в течение опять же двух недель все вернулось.
Пожалуйста, не портите свою же работу по каким-то небольшим не досмотрам. Вы сами себя топите. А тем, кто ворует тексты могу сказать, что это не принесет вам никакой пользе и даже навредит.
Не оптимизированные анкоры внутренних ссылок
И пятый пункт, который тоже достаточно очевиден и описан достаточно подробно в руководстве по оптимизации для начинающих от google. Это оптимизация анкорных текстов.
Но, увлекаясь модными тактиками контент-маркетинга, линкбилдинга и прочими, безусловно, очень полезными вещами, часто люди забывают о каких-то примитивных вещах технической оптимизации.
И одна из таких примитивных вещей это оптимизация анкорных текстов внутренних ссылок. Прежде всего, я говорю не про агрессивные методы линковки, типа сквозной перелинковки или чего-то подобного.
Я говорю по оптимизацию элементов навигации, пунктов меню, название статей, кнопок, которые ведут на товары или статьи. Ведь релевантность в самом классическом поисковом движке имеет как минимум три составляющие:
Если вы не используете, не оптимизируете анкорные тексты внутренних ссылок, вы, как минимум, исключаете достаточно ощутимый набор сигналов из поискового алгоритма и сами же занижаете свои позиции.
И такая ситуация как раз может задерживать ваш сайт на второй странице результатов поиска, обратите на это внимание.
— Инструменты анализа ссылок
Какие инструменты вам в этом пригодятся. На самом деле все тоже относительно просто.
Прежде всего, рекомендую Netpeak Spider позволит вам рассчитать вес каждой отдельной странички по старой-доброй формуле пейджранк.
Проверьте свой сайт, очень часто вы удивитесь, если вы заглянете на эту страничку, потому что здесь в этом отчете вы можете увидеть какие страницы, по сути, являются основными, если анализировать структуру вашего сайта непредвзято.
Если, допустим, вы видите, что по значимости страниц на этом сайте первые места занимает страница входа в админку или какая-то служебная (не используемая, неиндексируемая) страница, это не очень хорошо.
Мы собираем огромное количество ссылочного веса на этой страничке и никак это не используем. Обязательно загляните сюда, вы очень удивитесь.
Если вы продвигаете основные запросы на главную страницу, предположим, если у вас какой-то сайт-услуга, очень часто бывает, что главная страница находится далеко не в начале этого списка. Или ваши продвигаемые разделы находятся далеко за 20 позицией.
Все мы боимся признавать свои ошибки. Безусловно, эти пять причин не единственная проблема, почему ваш сайт может быть на второй странице результатов поиска, но на самом деле, если вы возьмете и сделаете из этой презентации маленький чек-листы, прогоните свой сайт, я готов поспорить, что как минимум 25% владельцев сайта исправят хотя бы одну из этих ошибок.
Потому что эти ошибки встречаются намного чаще, чем вам кажется. Именно поэтому я решил вам о них сегодня рассказать.