SEO: ПРОСТЫЕ ПРАВИЛА
Картина мира у веб-разработчика и SEO-оптимизатора часто не совпадает. Алгоритмы поисковых систем постоянно меняются, поэтому нужно учитывать технические факторы, влияющие на индексацию. Поговорим о них ниже.
URL (Uniform Resource Locator) - способ определения местонахождения файла в Интернете, иначе говоря, ссылка на сайт, файл, сервис, изображение и пр. Он должен быть максимально понятным для русскоязычного пользователя по каждой странице сайта. Например, perekrestok.ru/catalog
❌ Дубли страниц. Часто встречаются в интернет-магазинах, усложняют работу поискового робота и, как следствие, негативно влияют на ранжирование.
❌ Зеркало сайта - точная копия основного сайта, размещённая по другом адресу. Крайне негативно воспринимаются поисковыми системами. Если по каким-то причинам зеркало было создано автоматически вам необходимо немедленно от него избавиться.
Robots.txt - текстовой файл в корне сайта. Создаётся для ценных указаний поисковым системам. Записи должны начинаться с директивы User-agent (даёт доступ роботу) и содержать внутри неё хотя бы ещё одну директиву Allow (разрешить) или Disallow (запретить индексацию в целом или конкретной страницы). Квантор «*» (любая последовательность символов) используется для пути до необходимой страницы/каталога или всего пути. Конец пути до каталога закрывается «/».
Sitemap - XML-файлы с информацией для поисковых систем о страницах веб-сайта, которые подлежат индексации. Протокол помогает поисковикам быстрее ориентироваться по страницам с точки зрения местонахождения, частоты обновления и приоритета.
Надеемся, что вам было полезно! Подписывайтесь на этот канал и не забывайте навещать нас на www.maxistudio.pro