Особенности и этапы внутренней оптимизации сайта

Содержание

Внутренняя оптимизация сайта

Задачи и этапы внутренней оптимизации сайта

Внутренняя SEO оптимизация страниц сайта — это несколько этапов работы, в результате которой ресурс становится технически соответствующим требованиям поисковиков. Принцип отслеживания и ранжирования поисковых систем состоит не только в отслеживании новых страниц. Роботы, следящие за сетью, руководствуются сложной системой взаимосвязанных критериев, по которым могут поднять или заметно опустить сайт в выдаче.

Ранжирование веб-страниц — динамический процесс отслеживания и определения места сайта в поисковой выдаче. Он организован на базе искусственного интеллекта, который учитывает несколько сотен параметров и определяет, в какой позиции относительно других ресурсов окажется новая страница.

Суть и смысл оптимизации сайта по внутренним критериям

SEO оптимизация страниц — обязательное условие для выведения сайта на первые позиции по результатам индексации. Внутренняя оптимизация охватывает более широкий круг задач и параметров. Не уделяя внимания ее особенностям, игнорируя эту область, вы не получите качественной выдачи, ваш сайт останется числе аутсайдеров. Если его задача — продавать, то она не будет выполнена. Если ресурс информационный, то он останется без читателей, которые будут перехвачены более качественными страницами.

Комплекс задач внутренней оптимизации — это приведение всех страниц и элементов CRM сайта в состояние, при котором поисковая система найдет как можно меньше недостатков и выведет публикации на первые места. При игнорировании этих условий сайт окажется далеко от первой десятки, а в некоторых случаях будет заблокирован как некорректный, нарушающий правила поиска.

Что такое сайт изнутри

Для понимания сути и смысла оптимизации стоит кратко ознакомиться с принципом взаимодействия сайта и поисковой системы. С технической точки зрения сайт в интернете — это набор веб-страниц, размещенных на сервере. Каждая страница имеет свой сетевой адрес и представляет собой статический набор элементов — текста, изображений, функциональных “кнопок”.

Объединяет страницы “движок” сайта или CRM, система управления и взаимодействия. Она располагает набором ссылок (гиперссылок) между страницами, которые позволяют объединить их в единую систему, передаваемую на веб-браузер пользователя.

Принцип работы поисковых систем

Поиск в интернете работает по смысловому признаку. Пользователь формирует запросы, поисковик анализирует их, сопоставляет с данными индекса и выдает результат — страницы, соответствующие запросу. С появлением алгоритмов искусственного интеллекта (ИИ) это инструмент стал сложнее, поскольку роботы поисковой системы теперь реагируют не только на запрос, но и на его смысл в окружении, то, что называется семантикой. Если раньше поисковик охотно реагировал на запрос вида “купить дрова москва машина дешево”, то теперь такое ключевое сочетание он посчитает некорректным.

Индексация — это выявление поисковым роботом новой страницы и включение ее в общий реестр, содержащий сотни миллионов других страниц.

Важно! — робот видит отдельные страницы, которые появляются при каждой новой публикации, и в итоге формируется оценка всего сайта как структурированной системы. Соотношение видимых и невидимых, качественных и не очень страниц по множеству параметров и становится основой для ранжирования.

Оптимизация семантики сайта

Для поисковой оптимизации важен конкретный (фокусный) смысл главных запросов, имеющих определенное семантическое окружение. Как выявить эти запросы и слова (словосочетания), входящие в окружение? Для решения задачи существует методика анализа конкурентных сайтов и создания семантического ядра.

Семантическим ядром сайта называют отобранные по частоте упоминания, выдачи и использования фокусные запросы, определенные для каждой страницы с учетом их конкурентности и релевантности — соответствию главной теме ресурса.

Современные методы оптимизации, учитывающие анализ контента ИИ, построены на связке фокусного запроса и его семантического окружения. Для создания семантического ядра необходимо:

  • определить тематику сайта и выявить наиболее популярные страницы, отвечающие на тот же фокусный запрос;
  • отследить частоту упоминаний запросов у конкурентов;
  • определить количество страниц с тем же запросом;
  • разделить запросы по частоте, чтобы понять, какие из них окажутся наиболее подходящими для каждой из страниц сайта.

В семантическом ядре работает принцип “один фокусный запрос — одна страница сайта”. По итогам исследования сайтов-конкурентов создается семантическое ядро с запросами и окружением.

Методики продвижения и их связь с семантикой

В последние несколько лет появилась методика продвижения сайтов LSI — latent semantic indexing, «скрытое семантическое индексирование» или «индексация скрытого смысла». Она учитывает слова, по смыслу связанные с темой, раскрывающие ее на втором уровне. Имеет смысл включить в семантику и эти слова, за счет которых можно формировать длинные низкочастотные ключи и использовать их в дополнение к высококонкурентным запросам.

Подбор ключевых фраз и статистика

Провести подсчеты, используя только поисковую строку, конечно, можно, но они будут грубыми и малорезультативными. Вероятность попасть в нужные запросы окажется минимальной, и продвижение страниц в поиске будет больше похожим на лотерею.

Для сбора статистики проводится процедура парсинга — так специалисты называют сканирование специальными программами сайтов конкурентов. Процесс автоматизирован, в зависимости от инструмента можно подобрать глубину сканирования. К программам такого типа относится широко известный КейКоллектор, работающий в онлайне Гугл-планировщик, сервис Яндекса “Вордстат”. Существует понятие кластеризации — разделения ресурсов на статистические кластеры по семантике. Итог схож с парсингом, но информация получается более структурированной.

Валидность кода сайта

Оптимизация страниц сайта с технической точки зрения зависит от состояния кода, которым они записаны. Существует два основных шифра, кода, которым “написан сайт” — это гиперстекстовая разметка HTML и таблица стилей CSS. Ошибки в них недопустимы, так как последствия могут быть от условно легких до критических. World Wide Web Consortium — общественная организация, контролирующая интернет, установила стандарты этого кода. Понятие валидности кода раскрывается как его соответствие стандартам, что не только учитывается поисковыми системами, но и имеет смысл с точки зрения качества сайта для пользователя:

  • кроссбраузерность — страницы будут корректно отображаться на всех браузерах и компьютерах;
  • поисковые роботы будут правильно видеть и прочитывать контент, что скажется на ранжировании;
  • отсутствие периодически появляющихся ошибок, особенно на старых версиях браузеров;
  • корректное отображение страниц на мобильных устройствах — очень важный сейчас критерий.

Для проверки валидности кода можно прибегнуть к специальным инструментам. Существуют так называемые программы-валидаторы, подсвечивающие ошибки, например, для проверки HTML — validator.w3.org; для проверки CSS — jigsaw.w3.org.

Контент сайта — принципы оптимизации содержания страниц

Сайт создается ради размещения информации. Контент или содержимое — это то, что определяет его ценность и полезность, а потому находится в центре внимания.

Поисковые системы среди множества показателей учитывают “авторитетность и полезность для посетителя”, и это критерии можно отчасти сделать объективными, если использовать вторичные признаки. Например, оценить уровень полезности можно по времени пребывания посетителя на странице, глубине прокрутки текстовой части, перемещению курсора. При этом само содержимое страницы должно иметь определенную структуру, удобную для восприятия читателем. Сайт “простыня” неудобен, посетитель быстро его покинет.

Структурирование контента заголовками

Формат структуры текстового контента имеет прямое сходство с информационными материалами для научных работ. Текст разбивается на логические блоки, обозначенные заголовками разного уровня. В коде заголовок имеет обозначение h1 … h6, что указывает на его смысловой и структурный уровень.

  • заголовок первого уровня — главный структурный элемент страницы, указывающий пользователю на ее основной смысл;
  • заголовок второго уровня раскрывает смысл текстового блока, состоящего из нескольких абзацев;
  • заголовки третьего и последующего уровней разделяют смысловые отрывки внутри блока второго уровня, они могут рассматриваться как уточняющие, допускается их использование для одного абзаца текста, описания одного объекта.

Как правило, дальше заголовков h3 контент не структурируется. Излишек подзаголовков рассеивает внимание читателя, делает текст фрагментированным и пестрящим деталями.

Форматирование списками и абзацами

Важными элементами текстового контента являются абзац и список. Первый содержит от двух до пяти предложений, связанных общей мыслью. Второй позволяет структурировать перечисление признаков или предметов, разделить их визуально и по законченности смысла.

Наиболее корректной формой отображения считается маркированный список, в котором элементы разделяются “точкой с запятой”. Упорядоченное последовательное перечисление этапов оформляется нумерованным списком — каждый элемент завершается точкой, каждый пункт может содержать от одного до трех коротких предложений. Списки имеют текстовое окружение — от начала и конца фрагмента второго уровня их принято отделять примерно 300 знаками текста, однако, правило не работает для заголовков h3 и далее, где список может использоваться самостоятельно.

В коде HTML для всех элементов есть свои обозначения. Самый простой пример можно привести, используя фрагмент этого текста.

HTML код

Здесь видны теги, указывающие на заголовок второго уровня, границы абзаца, элементы маркированного списка. Для преобразования текста в валидный оптимизированный код был использован специальный конвертер, доступный в интернете.

Метатэги сайта и поисковая выдача

Позиции сайта в поисковой выдаче зависят от корректности заполнения технических полей при редактировании страницы. При отображении результатов поиска пользователь видит так называемый сниппет — краткий заголовок, содержание название сайта и формулировку темы публикации. Отображается и краткое описание публикации. Для того, чтобы эти элементы появились в выдаче и были учтены поисковой системой, предусмотрены метатеги title и description. Их можно увидеть и на странице публикации — для этого существует сочетание клавиш Ctrl+U, по которому браузер открывает вам страницу в коде.

Оптимизаторы дают много рекомендаций по заполнению метатегов, единого мнения нет, но можно выделить несколько правил.

  1. Рекомендуемая длина title и description составляет соответственно 70 и 150-200 знаков без пробелов.
  2. В поле title необходимо вписать фокусное ключевое словосочетания для данной страницы, по возможности не изменяя его, но делая читаемым.
  3. В поле description вписывается краткое тематическое описание материала с видоизмененной ключевой фразой. Желательно разбить описание на два предложения.
  4. Метатэг “кейвордс”, ранее широко применявшийся оптимизаторами, считается утратившим актуальность. В некоторых административных панелях сайтов его заменили на поле “фокусное ключевое слово” с возможностью добавления второстепенных ключей.

При заполнении метатегов можно использовать фрагменты текста публикации непосредственно с этой страницы. Важно проследить за тем, чтобы отрывки были уникальны относительно сайтов-конкурентов и соответствовали (были релевантны) тематике страницы. Результат правильного заполнения метатегов — это и возможность роста позиций, и качественное отображение сайта в выдаче, при котором пользователю видно краткое описание и заголовок.

Оптимизация контента по уникальности и поведенческому фактору пользователя

Полностью описывать все тонкости, касающиеся контента, в одном обзоре не имеет смысла. Стоит упомянуть о требовании уникальности контента, необходимости грамотного построения фраз и предложений, читаемости. Все это сказывается на длительности присутствия пользователя, которую учитывает поисковик, рассматривая ее как критерий оценки заинтересованности.

Для оптимизатора это поведенческий фактор — набор признаков и критериев, отражающих особенности поведения пользователя, влияющие на качество контента и сайта в целом.

Директивы поисковикам в файле robots.txt

К задачам внутренней оптимизации сайта относится и приведение в должный вид служебных элементов. Среди них особо выделяется небольшой, не привлекающий к себе внимания файл robots.txt. Он содержит набор инструкций для робота поисковой системы, который следует этим указаниями при сканировании страниц.

Директивы, прописанные в файле “роботс”, крайне важны для оптимизации, так как они позволяют скрыть некоторые страницы от сканирования, запретить индексировать дублированный контент, служебные страницы. В файл могут быть вписаны дополнительные условия:

  • указание адреса “зеркала” сайта — ресурса с аналогичным контентом, но другим адресом;
  • отсылка к карте сайта, которая повышает качество юзабилити — комплекса удобств для пользователя;
  • запрет или разрешение на индексацию определенными поисковиками;
  • запрет на индексацию данных пользователей — очень важный момент, если учесть, сколько скандалов возникает из-за появления в выдаче конфиденциальной информации.

Файл “роботс” представляет собой элемент системы общения с поисковыми сканерами, набор допустимых запретов, разрешений и уведомлений для них. Синтаксис его имеет решающее значение для правильной реакции со стороны поисковиков. Например, разрешение на сканирование выглядит как User-agent: * Disallow:.

Возникает естественный вопрос: как работать с этими командами без специальных знаний. Генерировать код для файла можно в сетевых сервисах Pr-Cy Robots, Seolib Robots. В структуре сайта файл robots.txt занимает место в корневой доменной папке — именно она содержит имя сайта на определенном хостинге. Далее возникает ветвление, поскольку разные панели администрирования могут содержать директории с разными названиями. Здесь лучше следовать инструкциям к конкретной системе.

Конфигурация сервера для сайта в файле .htaccess

Конфигурационный файл, позволяющий задать настройки сервера находится в корневой папке (каталоге) и называется .htaccess. Иногда в подкаталогах корневой директории располагаются дополнительные файлы с таким же названием — они работают в узких рамках настроек для данной папки.

Любые изменения в настройках этого файла чреваты серьезными последствиями, поэтому к его содержимому следует относиться с особым вниманием. Встречаются сайты, в которых можно найти htaccess.txt, который начинает работать только после переименования в .htaccess. Важно — если воспользоваться такой возможностью, то первоначальный работающий конфигурационный файл лучше переименовать, чтобы избежать двойных инструкций серверу.

Проверить, работает ли файл в данный момент можно, изменив его содержимое в текстовом редакторе, предварительно сделав резервную копию. После замены на измененный файл сайт должен перестать работать, а сервер начать выдавать ошибку 500 Internal Server Error. Удалив изменения в файле, вы вернете сайт к нормальной работе.

Рекомендуем с большой осторожностью вносить любые изменения в файл .htaccess, так как вы можете своими руками вывести сайт из работоспособного состояния.

Отработка ЧПУ сайта — понятные URLы

Удобство пользователя остается важным критерием при планировании оптимизации сайта. С этой точки зрения важны так называемые “человекопонятные урлы” или ЧПУ, он же SEF (search engine friendly). Имеется в виду написание URL в виде, доступном для запоминания, прочтения и воспроизведения пользователем. Это не критический признак, но его необходимо учитывать при оптимизации.

Приведем пример.
http://vash-sajt.com/?p=200 — проблематично для чтения и интуитивного понимания.
http://vash-sajt.com/privet — читается и запоминается.

Переходить к системе адресации ЧПУ следует с момента создания сайта, чтобы не терять позиции индексации и впоследствии не переделывать все адреса страниц и разделов. В некоторых панелях управления эта возможность заложена сразу, иногда может потребоваться установка плагина как в WordPress — “Rus-To-Lat”.

Если этого не происходит, можно воспользоваться сервисами для транслита кириллицы в латиницу (например http://seolinks.webhb.ru/) и менять адрес вручную, прописывая его во время подготовки публикации. Не стоит полагаться на свое понимание транслитерации, так как поисковые машины имеют свой набор инструкций по расшифровке таких адресов.

Ссылки — перелинковка, цикличность, валидность

Ссылочная система сайта дает возможность использовать ссылки на внешние ресурсы, давать ссылки на собственные страницы (перелинковка), генерировать ссылки на сайт со сторонних ресурсов. Ссылаясь на чужой сайт, вы рискуете понизить собственный вес, если речь не идет о переходе на “Википедию” или аналогичные публичные или коммерческие сайты. Поэтому рекомендуется перекрывать такие переходы директивой rel=”nofollow”.

Внутренняя перелинковка для оптимизации

Метод перелинковки страниц хорошо зарекомендовал себя как инструмент оптимизации. Суть его в том, чтобы пользователь, попавший на одну страницу, мог воспользоваться ссылкой и сразу перейти на другую страницу по смыслу, логической связи или расширения информации. Рекомендуется делать ссылки, используя видоизмененные ключевые запросы на другие страницы, выделяя их цветом. Давать конкретные рекомендации по перелинковке крайне сложно,это повод для написания отдельного большого материала.

Циклические и битые ссылки

Внимательно изучите контент со ссылками — если страница ссылается сама на себя, это нужно устранить. Кроме того, использование популярных запросов в анкоре ссылки может дать эффект “каннибализации” страниц сайта. Один и тот же запрос будет обрабатываться на релевантной странице и на ссылающейся, что некорректно с точки зрения поиска.

При удалении страниц, некорректном написании текста ссылок, наведении порядка с изменением адресов на сайте может возникнуть некоторое количество никуда не ведущих ссылок. Их называют “битые ссылки”. Эти элементы могут значительно понизить ранжирование сайта. Поэтому, проводя любые мероприятия, стоит удостовериться в том, что ваши действие не приведут к появлению таких переадресаций. Найти их на сайте можно с помощью инструментов XENU и Page Weight.

Скорость загрузки сайта, хэширование и страница 404

Скорость загрузки сайта имеет значение с точки зрения поведенческого фактора, который мы уже упоминали. Чем медленнее грузится страница в браузере пользователя, тем больше вероятность, что он ее закроет. И это скажется на статистике ранжирования. Поэтому владелец сайта должен озаботиться факторами, воздействующим на этот параметр:

  • подобрать хостинг с высокой отзывчивостью и отдачей контента;
  • оптимизировать изображения по размеру и весу, найти баланс между разрешением и скоростью загрузки;
  • по возможности минимизировать или вовсе исключить использование скриптов;
  • оптимизировать встроенные и сторонние плагины.

Проверка и оптимизация скорости загрузки выполняется с помощью ряда инструментов — Google PageSpeed Insights; Pingdom Website Speed Test; GTmetrix. Уделите внимание хэшированию — это возможность “подавать” контент сайта порциями, разбивая его на удобные для поддержания скорости части. Помимо повышения скорости загрузки следует определить страницы, которые будут выдавать код ошибки 404, и создать для них “заглушку” — страницу, которая позволяет временно закрыть раздел или публикацию.

Итоги внутренней оптимизации

Внутренняя оптимизация сайта — это обязательная работа, которая начинается с момента создания ресурса. Ее результат сказывается на поисковой выдаче, посещаемости и авторитетности, возможности информировать или продавать, привлекать внимание к размещенной рекламе. Часть задач внутренней оптимизации мы рассмотрим в другом материале, где речь пойдет о возможности увеличить посещаемость сайта.

Если вы нашли ошибку, пожалуйста, выделите фрагмент текста и нажмите Ctrl+Enter.

Понравилась статья? Сохраните ее в своих соцсетях: