Главная Контакты В избранное
  • Опрос пользователей

    Оцените работу движка [?]


    Популярное

    Заведи свой сайт





    Новости партнеров

    Facebook расширил функционал для администраторов групп
    Для администраторов Facebook откроет раздел Group Insights с аналитикой о количестве публикаций, пиках активности подписчиков и участниках сообщества. Также соцсеть поможет фильтровать вступление в ...
    На Украине частично восстановили доступ к сервисам «Яндекс»
    Абоненты крупнейших мобильных операторов Украины получили возможность вновь пользоваться некоторыми сервисами компании "Яндекс". Об этом сообщает украинское агентство УНИАН.
    WikiLeaks опубликовал секретные документы ЦРУ «Жестокий кенгуру»
    Портал WikiLeaks опубликовал новую порцию конфиденциальных документов ЦРУ, продолжающую серию публикаций под общим названием Vault 7. Об этом сообщается на странице организации в Twitter.
    ФНС назвала сайт, приведший Google к блокировке
    Ранее глава Роскомнадзора Александр Жаров рассказал "Ведомостям", что блокировка Google была не случайна. По его словам, у поисковика стоял редирект с сайта букмекерской компании. В самой ...
    Facebook защитил фотографии пользователей от скачивания посторонними
    Воспользовавшись услугой, пользователи защищают свой аккаунт от скачиваний и копирований главной фотографии профиля. Кроме того, посторонние не могут сделать и скриншот снимка.
  • Как ускорить результат от SEO

    АвторАвтор: Admin  Опубликовано: 28-10-2013, 10:26  Комментариев: (0)

    Сроки достижения результатов от поискового продвижения – неизменно больной вопрос как для SEO-специалистов, так и для клиентов. Поскольку очень многое здесь зависит от капризов поисковой системы, то ряд факторов в любом случае остается вне зоны влияния оптимизатора. В таких условиях у него зачастую появляется соблазн попробовать усилить свое воздействие на то, что ему подвластно.

    Разберемся, с чем можно работать, чтобы приблизить желанные позиции, а что лучше не пытаться каким бы то ни было образом подгонять.

     

     

    Что можно ускорить

    1. Индексация

    Если речь идет о молодом ресурсе, о котором поисковые системы пока не знают, в первую очередь нужно “привести” на него робота. Если же сайт уже проиндексирован, но редко обновляется на момент начала продвижения, стоит позаботиться о том, чтобы все выкладываемые доработки и контент на нем индексировались как можно быстрее.

    В качестве традиционного и наиболее “официального” средства повышения скорости индексации сайта обычно рассматриваются так называемые аддурилки. Это сервисы, которые позиционируются поисковыми системами как инструменты для оповещения робота о том, что нужно проиндексировать новый контент в сети (http://webmaster.yandex.ru/addurl.xml — аддурилка Яндекса; https://www.google.com/webmasters/tools/submit-url — аддурилка Google).

    Логика работы аддурилок проста: веб-мастер добавляет URL, по которому расположен требующий индексации контент. После этого в течение какого-то времени (от нескольких дней до нескольких недель), если не будет технических недоработок, мешающих индексации, сайт с высокой долей вероятности будет частично либо полностью в индексе.

    Тем не менее на сегодняшний день аддурилки используются SEO-специалистами уже, скорее, по привычке, чем из-за их реальной пользы. Пренебрегать ими не стоит, но надеяться только на этот метод ускорения индексации нельзя. Даже поисковые системы хоть и рекомендуют этот метод, но прямым текстом говорят, что стопроцентной надежностью он не отличается.

    Более надежный способ привлечения поискового робота – это ссылки c тех ресурсов, которые регулярно обновляются и, соответственно, часто посещаются роботом в поисках нового контента. Как показывает практика, наиболее высока вероятность индексации тех страниц, на которые ссылаются твиты с часто обновляемых аккаунтов. Ссылки из других социальных сетей (“ВКонтакте”, Facebook и т. д.), как правило, менее эффективны.

    Однако, даже если робот придет на сайт и будет регулярно заглядывать на него впредь, это не дает гарантии того, что он будет своевременно индексировать необходимую информацию –  вновь созданные страницы и изменения на продвигаемых. Чтобы в базу поисковой системы корректно и своевременно попадали все нужные SEO-специалисту страницы, нужно создать их обновляемый перечень, которым робот будет пользоваться каждый раз при просмотре ресурса, – карту сайта в формате XML.

    Однажды созданная и настроенная карта будет обновляться автоматически всякий раз, когда на сайте будут появляться новые страницы, а значит, вероятность того, что робот пропустит их во время индексации, становится минимальной.

    Чтобы поисковой системе не пришлось искать нужный файл, карту сайта желательно указать в панели инструментов для веб-мастера, которая есть и в Яндексе и в Google. Адрес указывается в полном виде (http://website.ru/sitemap.xml).

    В панели Яндекс.Вебмастера нужный раздел находится в меню “Настройка индексирования”, пункт “Файлы Sitemap”. В инструментах для веб-мастера Google этот же пункт с аналогичным названием расположен в меню “Конфигурация сайта”.

    2. Наполнение сайта

    Уже ни для кого не секрет, что поисковые системы любят “живые” сайты, на которых регулярно появляется новый контент – причем здесь имеется в виду не только создание новых страниц, но и актуализация уже существующих.

    В отношении Яндекса работа с контентом особенно важна с той точки зрения, что она позволяет привлечь на сайт так называемого быстробота – робота-паука, который проверяет часто обновляемые ресурсы. Его действие направлено на то, чтобы любой новый или обновленный контент с сайта попадал в базу поисковой системы очень быстро, как правило, в течение нескольких часов или даже минут. Таким образом, если ресурс оказался в поле зрения этого робота, можно в максимально сжатые сроки “скармливать” ему контент и параллельно отслеживать, нет ли помех для индексации страниц.

    Изначально быстробот был придуман поисковой системой, чтобы своевременно добавлять в результаты поиска свежие материалы: новости, записи в блогах и т.п. Чтобы он заинтересовался ресурсом, последний должен соответствовать как минимум двум критериям: регулярное поступление свежего контента и его уникальность.

    Под регулярностью понимается обновление содержимого 1—2 раза в день. Чтобы узнать, работает ли быстробот с сайтом, достаточно на следующий день после создания новой страницы с текстом проверить его наличие в индексе. Если поисковик будет находить выложенный текст на продвигаемом ресурсе до апдейта, значит, быстробот уже признал ресурс регулярно обновляемым.

    По этой причине не рекомендуется выкладывать на сайт большое количество нового контента одновременно, если это не жизненно необходимые страницы (к примеру, разделы нового каталога интернет-магазина), а статьи или новости, то их лучше загружать постепенно.

    Уникальность контента – обязательное условие. Если текст хотя бы частично будет представлять собой копию с другого сайта, он может быть признан как не представляющий ценности, и, следовательно, его быстрое попадание в выдачу не будет определено поисковой системой как необходимость.

    Наполнение сайта новыми страницами поспособствует и другой стороне продвижения: чем больше ценных для пользователя страниц, тем больше к нему доверия со стороны поисковой системы, а значит, тем выше вероятность попадания его в ТОП. Новые разделы полезны и тем, что они могут придавать вес продвигаемым страницам, но только в том случае, если с них будут проставлены ссылки с подходящими анкорами.

    Что лучше не пытаться ускорять

    Во всем остальном, в особенности для начинающих SEO-специалистов, действует незыблемое правило: “Тише едешь – дальше будешь”. Поисковые системы уже не первый год разрабатывают методы защиты от чрезмерно активных попыток повлиять на результаты поисковой выдачи, и сегодня в их арсенале имеется немалое количество приемов противодействия. В первую очередь речь идет о всевозможных фильтрах, которые могут быть наложены на продвигаемый сайт или отдельные страницы. Попасть под фильтр несложно, а вот чтобы выйти из-под него, требуются значительные усилия – от длительной переписки с техподдержкой поисковой системы и вплоть до смены домена.

    1. Оптимизация текстов

    Наличие в текстах продвигаемых страниц ключевых слов и оптимизация заголовков – едва ли не основополагающие факторы при ранжировании. Самое сложное – соблюсти оптимальную плотность ключевых слов в тексте в целом и в его отдельных частях. Важно также в погоне за вхождениями не уничтожить информативность и удобочитаемость. Чтобы соответствовать этим требованиям, нужно, во-первых, тщательно проанализировать страницы, которые уже находятся в ТОПе по нужным запросам, а во-вторых, найти грамотного исполнителя, способного написать адекватный и полезный для посетителей сайта контент.

    Понятно, что чем быстрее тексты будут написаны и выложены, тем раньше они проиндексируются, а значит, страницы, где они размещены, быстрее начнут свой путь в ТОП. Однако это не подразумевает того, что нужно включать в текст запросы по принципу “чтобы наверняка” и/или отдавать его написание туда, где с ним справятся быстрее всего, – первому откликнувшемуся автору на текстовой бирже.

    Переоптимизированный или написанный “не для людей” текст – верный путь к попаданию под фильтр. Признак его наложения – резкое падение позиций по тем запросам, которые слишком часто или неестественно использовались в текстах. Причем под этот фильтр могут попасть как отдельные страницы/запросы, так и сайт в целом.

    При наложении подобных санкций единственный путь к исправлению ситуации – переписывание текстов. Как правило, если скорректированный контент получился качественным с точки зрения поисковой системы, позиции начнут восстанавливаться через 1—2 апдейта.

    2. Наращивание ссылочной массы

    Ссылочная масса – второй ключевой фактор, который влияет на позиции сайта в выдаче. Чем она больше и качественнее, тем выше вероятность того, что продвигаемые страницы займут место в ТОПе и смогут там удержаться. Однако и здесь нужна крайняя осторожность: попасть под фильтры за недобросовестное ссылочное продвижение едва ли не проще, чем в случае с текстами.

    Чтобы ссылочный бюджет расходовался с пользой, необходимо, с одной стороны, тщательно проверять качество закупаемых ссылок, а с другой – распланировать их появление так, чтобы оно выглядело естественным с точки зрения поисковой системы.

    При этом важно следить, чтобы число ссылок не превышало разумных пределов. Эти пределы рассчитываются индивидуально, исходя из того, как наращивалась (и наращивалась ли в принципе) ссылочная масса до начала продвижения. Если поисковая система обнаружит, что на никому не известном ранее сайте начали в большом количестве появляться ссылки, тем более если у них будет не все гладко с анкорами или с донорами, санкции не заставят себя ждать.

    В зависимости от запущенности ситуации, некачественные или слишком быстро/неравномерно закупаемые ссылки могут либо существенно снизить свое положительное влияние на позиции, либо вообще не учитываться поисковой системой при ранжировании, либо – при худшем раскладе – они могут стать причиной значительного проседания позиций по ВЧ и СЧ запросам.

    Единственная мера, которая оказывается эффективной в такой ситуации, – тотальная чистка всех ссылок и пересмотр стратегии их проставления.

    В заключение стоит еще раз сакцентировать внимание на том, что постепенный и стабильный рост всегда предпочтительнее его резкой смены и падения позиций. Равномерность и последовательность поискового продвижения позволят сэкономить бюджет, время SEO-специалиста и нервы клиента.

    Желаю удачи!

     

    Иван Тюхов,
    независимый эксперт в сфере
    интернет-маркетинга

    Уважаемый посетитель, Вы зашли на сайт как незарегистрированный пользователь. Мы рекомендуем Вам зарегистрироваться либо войти на сайт под своим именем.

    Информация

    Посетители, находящиеся в группе Гости, не могут оставлять комментарии к данной публикации.
  •  
Яндекс.Метрика