Всякий раз, когда разговор специалистов в области SEO и интернет маркетинга заходит о технологии Ajax, то наиболее распространенной реакцией считаются глубокие вздохи и ухмылки на лице. Несмотря на то, что поисковые системы стали лучше индексировать такой тип контента, мы до сих пор не можем с полной уверенностью полагаться, что информация будет правильно распознаваться. Это не означает, что вы не можете использовать Ajax для SEO, вам попросту необходимо сделать несколько дополнительных настроек, чтобы убедиться, что весь контент остается видимым для поисковых пауков и обычных пользователей.

В первую очередь, нам нужно убедиться, что статическая страница и URL существует для каждого конечного результата контента. Давайте представим, что вы ведете собственный туристический блог, и у вас присутствует страница с картой, где люди могут найти рестораны, отели, развлечения и другую информацию в этой области. Пользователи могут включать и выключать фильтры, рассматривать отмеченные места и получать подробную информацию о каждом из них. Это вполне логично, что такая карта будет выполнена с помощью Ajax и JavaScript, по аналогии с картами Google, в которых встроена информация о том, или ином заведении. Однако, “утаивание” информации с помощью технологии Ajax не поможет вам с органическим поисковым трафиком.

Вам необходимо создать характерные, уникальные URL’ы для каждого из представленных мест на карте. Эти URL’ы должны обеспечивать необходимую информацию, которая может быть прочитана и извлечена всеми поисковыми ботами, а не только экспериментальными Ajax-пауками от Google. Таким образом, вы обеспечиваете себе трафик с Yahoo, Bing, Facebook, Twitter, Stumleupon и даже с таких сервисов как Blekko и Wolfram Alpha. Полагаясь лишь на одну из поисковых систем, которая, по вашему мнению, должна обеспечивать большой поток трафика, является опасной стратегией.

После проделанной работы вы должны убедиться, что все адреса выглядят дружелюбно и понятно в глазах поисковых систем: короткие с 3-5 ключевыми словами без дополнительных параметров. Так же, в некоторых случаях можно воспользоваться помощью атрибута rel=”canonical”.

Все становится более запутанным, когда дело доходит до входящих ссылок, почты, линков социальных сетей. Просматривая статическую версию контента или с помощью Ajax, в любом случае вам необходимо обеспечить наличие кнопок “ссылка на эту страницу”, “поделиться” или “отправить на электронную почту”, которые должны ссылаться на статический URL.

Когда пользователи запрашивают эти страницы или приходят через поисковые системы к статичным страницам, вам необходимо решить, как подавать контент. Если агент пользователя способен работать с Ajax/JavaScript, то не стесняйтесь это делать именно в таком виде. Если это поисковый бот или пользователи не способные прочитать Ajax (например, при использовании Ipad или мобильных устройств), тогда убедитесь, что им будет представлена HTML версия.

На первый взгляд это может показаться двойной работой, но на самом деле, при правильном использовании Ajax все совершенно не так. Вы берете одну и ту же информацию из одной базы данных – единственное различие – это способ исполнения задачи. В случае использования Flash может возникнуть намного больше проблем и тогда это значительнее будет похоже на двойную работу. По этой причине я не советую использовать данный метод.

Это хорошая идея брать информацию из одной базы данных, таким образом вы гарантируете отсутствие ситуаций “плохой маскировки”. Технически, клоакинг выдает различную информацию для пользователей и поисковиков. В случае, если контент один и тот же и вы используете этот метод осуществления доставки информации, то с точки зрения поисковой оптимизации ничего плохого в этом нет. Тем более в случае использования канонических тэгов, которые подталкивают поисковых пауков к нужным URL’ам.

Как только вы разобрались со всеми статистическими адресами, вам необходимо определить метод просмотра и доступа поисковых систем к контенту. Вы можете использовать HTML или XML карты сайта, но в идеале вам нужно установить определенные пути следования пауков. Разве только в случае, если на вашем сайте располагается не так много страниц (не больше нескольких сотен), я бы порекомендовал сначала провести небольшое тестирование, разделенное на несколько фаз. Просматривайте сайт на наличие битых ссылок с помощью Xenu link sleuth или website auditor. Так же вы можете мониторить ситуацию с помощью таких серверов, как change detection или Google alerts. Вам необходимо знать, что некоторые страницы “сломались”, “сошли с рельс” в течение первых 24 часов, а не 30 дней, когда 70% вашего контента выпали из индекса.

В завершении хотелось бы поговорить о дубликатах внутреннего контента. Даже если поисковый бот найдет и прочитает ваш контент в Ajax, то это не всегда означает, что вам это действительно нужно. Использование rel=”canonical” на статических страницах хорошо, но я бы еще запретил индексирования страниц Ajax, чтобы не вызывать появления дубликатов контента. Если вы оставите все как есть, то у вас возможно возникнут проблемы… иногда эти проблемы серьезные и очень дорогие…

Что же мы узнали из этого поста:

- Ajax не является чем-то зловещим, просто для реализации данной технологии необходим комплексный подход, поэтому подходите к этому вопросу со всей серьезностью

- Создайте уникальные статистические URL’ы, которые доступны со страниц Ajax

- Определяйте агенты пользователей, чтобы представить необходимую версию контента

- Используйте поисковых симуляторов, чтобы убедиться в правильном выполнении установок

- Используйте сервисы по обнаружению проблем, связанных с индексированием, чтобы страницы корректно попадали в поисковую выдачу.

Сегодня на десерт: видео с семинара, где Иван Севостьянов рассказал про поведенческие факторы. Как их можно использовать для seo