оптимизация сайтов

Правильная настройка robots.txt

Опубликовано iqseo - вт, 05/09/2017 - 16:17
  1. Отдельные user-agent для основых поисковых систем
  2. Отдельные user-agent для роботов обрабатывающих картинки
  3. Отдельные user-agent для рекламных роботов
  4. Закрываем служебные страницы, дубли, поиск, теги, пагинацию
  5. Закрываем ненужные страницы "о сайте", "рекламодателям"

Пример правильного robots.txt

User-agent: Yandex
Disallow: /admin
Allow: /images/
Sitemap: sitemap.xml
Host: ifriends.ru

User-agent: Googlebot
Disallow: /admin
Allow: /images/
Sitemap: sitemap.xml

Убираем дубли страниц в Drupal 7

Опубликовано iqseo - ср, 19/03/2014 - 04:05

Дубли страниц на сайте - это плохо. Дубли страниц на сайте, когда вы продвигаетесь в высококонкурентной тематике - это очень плохо.

Drupal, к сожалению, грешен тем, что дублей плодит много, но это легко исправить.

Как правильно пользоваться wordstat

Опубликовано iqseo - сб, 03/12/2011 - 07:33

Не смотря на то, что подбор запросов является фундаментом "оптимизации и продвижения сайтов", очень многие вебмастера до сих пор не знают, как их подбирать правильно.

Правильное оформление статей на сайте

Опубликовано iqseo - ср, 19/10/2011 - 23:30

Если вы ведете блог, то, возможно, вам знакомо чувство, когда взлелеянную, родившуюся в тяжелом труде статью никто не читает. И вы не можете понять причины. Кажется, и тема выбрана правильно. И стиль подобран адекватно. И слова использованы именно те, которые нужно! Статья написана интересно, и, бесспорно, должна быть полезной значительной части вашей ключевой аудитории…