Технічне SEO: технічний аспект оптимізації сайту

  1. 1. Кабінети вебмайстрів та лічильники
  2. 2. Robots.txt
  3. 3. Sitemap (карта сайта)
  4. 4. Биті посилання
  5. 5. Виключення дублів
  6. 6. Налаштування ЧПУ
  7. 7. Основне дзеркало
  8. 8. SSL сертифікат
  9. 9. Семантична розмітка Schema.org
  10. 10. Відповідь сервера
  11. 11. Швидкість завантаження
  12. підсумок

Фундаментом будь-якого сайту є його технічна сторона

Фундаментом будь-якого сайту є його технічна сторона. Крім широкого і приємного функціоналу, гарної обгортки і юзабіліті для просування дуже важлива технічна оптимізація, яка дозволить роботам пошукових систем швидко і правильно індексувати вміст ресурсу. Давайте визначимо основні моменти, які слід врахувати для технічної оптимізації сайту.

1. Кабінети вебмайстрів та лічильники

Кабінети вебмайстрів та лічильники

Починаючи роботу над просуванням свого ресурсу, потрібно зареєструвати його в кабінетах вебмайстрів. Це найкращий сигнал для пошукових систем, і незабаром роботи почнуть відвідувати сайт.

Однак, недостатньо просто додати домен, кабінети необхідно правильно налаштувати. Наприклад, в Яндекс.Вебмастере не буде зайвим:

  • додавання карти сайту sitemap.xml в відповідний розділ;
  • вказівка ​​регіональності;
  • перевірка robots.txt на правильність складання.

Крім іншого, вебмастера розташовують масою корисних інструментів:

  • різними валідаторами для перевірки коректності складання тих чи інших документів (карти сайту, мікророзмітки і т.д.)
  • можливість відстежувати статистику по запитам (покази, кліки, CTR і т.д.)
  • перегляд статистики індексування сторінок (що потрапило в пошук, а що ні, і з яких причин)

Для отримання більш повної і детальної інформації про відвідуваність і поведінці користувачів на вашому сайті зареєструйте і встановіть лічильники відвідуваності. Лічильник - це прекрасний інструмент, який допоможе розібратися, як і в якому напрямку рухатися, працюючи над популярністю ресурсу.

2. Robots.txt

txt

Текстовий файл robots.txt повинен бути присутнім у кожного сайту і бути доступним за адресою example.ru/robots.txt. Це перший файл, до якого звертаються роботи при відвідуванні сайту і в якому зберігаються інструкції для них.

Простими словами, robots.txt - звід рекомендацій, які вказують, що можна індексувати, а що не можна (але не факт, що роботи будуть дотримуватися їх строго).

Залежно від того, на якій системі управління працює ваш сайт, формуються ці самі правила. Давайте коротко визначимо, що повинно бути в даному файлі:

  1. Повинні бути вказані правила для різних роботів (User-agent: Yandex, User-agent: GoogleBot і т.д.), тому що правила і директиви для кожного з них можуть відрізнятися.
  2. Закрито від індексації всі системні ресурси (шаблони, виконавчі файли і т.д.).
  3. Закрито всі, то що не повинно бути присутнім в пошуку (сторінки реєстрації / авторизації, результати фільтрації / пошуку і т.д.).
  4. Вказана директива Host для робота Yandex.
  5. Вказана карта (и) сайту sitemap.xml.
  6. Для робота GoogleBot повинні бути відкриті файли, що впливають на відображення сайту (js, css, зображення, шрифти).

3. Sitemap (карта сайта)

Карта сайту - один основних способів поліпшення навігації по сайту як для пошукових роботів, так і для користувачів.

Для роботів карта сайту генерується в форматі xml і повинна містити всі посилання, які будуть індексуватися і брати участь у видачі.

Для роботів карта сайту генерується в форматі xml і повинна містити всі посилання, які будуть індексуватися і брати участь у видачі

Для багатьох популярних CMS існують спеціальні плагіни, що дозволяють створювати і налаштовувати карту (наприклад Google XML Sitemaps для WordPress або XMap для Joomla). Якщо сформувати карту за допомогою доповнень немає можливості, то тут допоможуть різні онлайн-генератори, наприклад MySitemapGenerator, або ж настільні додатки, наприклад ComparseR, Sitemap Generator.

Не буде зайвим додавання карти сайту в форматі html (звичайна сторінка зі списком розділів і посилань). Вона полегшить навігацію як для відвідувачів, так і для роботів. Не варто робити її дуже об'ємною, наприклад, для інтернет-магазину досить буде зробити ієрархію з основних розділів і категорій.

4. Биті посилання

Битий посилання - це посилання, що веде на неіснуючу сторінку (документ, зображення, інший сайт).

Велика кількість таких посилань негативно позначається на ставленні користувачів до вашого ресурсу, адже мало кому сподобається бачити повідомлення про помилку замість цікавить матеріалу.

Велика кількість таких посилань негативно позначається на ставленні користувачів до вашого ресурсу, адже мало кому сподобається бачити повідомлення про помилку замість цікавить матеріалу

Пошукові системи теж здатні зробити якісь негативні висновки про ресурс з надмірною кількістю таких посилань, наприклад, що контент не актуальне, сайт не оновлюється (за ним просто не стежать) і т.д.

Не лінуйтеся регулярно перевіряти свій ресурс на наявність битих посилань. Скористайтеся досить зручним сервісом для пошуку .

5. Виключення дублів

Дублі сторінок - це доступність одного і того ж матеріалу за кількома адресами.

Наявність дубльованого контенту призводить до наступних проблем:

  1. ПС можуть неправильно визначити основну (релевантну) сторінку, що може вплинути на позиції сайту. Пошукові роботи можуть склеїти адреси, вибравши пріоритетним сторінкою найменш бажану.
  2. Дублі створюють додаткове навантаження при обході сайту роботом, в наслідок чого збільшується час на індексацію.
  3. Збільшується навантаження на сервер.

Мабуть, це одна з основних труднощів технічної оптимізації сайту. Якщо немає можливості усунути дублі технічно, потрібно скористатися канонічної посиланням з атрибутом rel = canonical тега link.

Припустимо, що матеріал доступний за двома адресами:

www.site.ru/page

www.site.ru/page111

Кращим буде перший варіант, а канонічний тег буде виглядати так:

<Link rel = "canonical" href = "www.site.ru/page" />

Він повинен бути присутнім в коді обох сторінок між тегами <head> і </ head>.

Якщо і це не вдається зробити, має сенс закрити дублі в robots.txt або налаштувати 301 редирект.

6. Налаштування ЧПУ

Семантичний URL, або людино-зрозумілий урл (ЧПУ), або SEO-Friendly URL - все це назви URL-шляху, що складається з зрозумілих і найбільш бажаних слів як для користувача, так і для ПС.

Правильно налаштовані ЧПУ на сайті дозволяють не тільки визначати вміст сторінки (здогадатися з назви, що знаходиться в документі), але і покращують індексацію за рахунок використання ключових слів.

Перед тим, як почати формувати адреси, доведеться визначитися, під яку з пошукових систем ви будете підлаштовуватися. Для Яндекс рекомендуємо транслітерацію, для Google - прямий переклад. Наприклад, є сторінка «Про компанії»:

  • Так ЧПУ буде виглядати для Яндекс: example.ru/o-kompanii
  • А так для Google: example.ru/about-company або просто example.ru/about

Кілька порад по налаштуванню ЧПУ:

  • адреса повинна бути простим і коротким
  • адреса повинна відповідати вмісту сторінки (в ідеалі використовувати назву документа)
  • позбудьтеся від розширення (php, html, htm і т.д.)
  • для поділу використовуйте дефіс (-), а не символ підкреслення (_)
  • намагайтеся усувати використання ідентифікаторів (idXXX і т.д.)

7. Основне дзеркало

Майже у кожного домена є синоніми, за якими доступний ресурс. Це може бути найпоширеніша пара example.ru і www.example.ru, або ж прикріплений до основної версії домен на кирилиці, домен третього рівня і т.д. А якщо встановлений SSL сертифікат, то і зовсім кількість дзеркал може зростати до чотирьох:

  • http://example.ru
  • http://www.example.ru
  • https://example.ru
  • https://www.example.ru

Якщо всі ці версії будуть доступні, то рано чи пізно пошуковики їх склеять, визнавши основним дзеркалом один з варіантів, тому дуже важливо подбати про це заздалегідь:

  • слід вибрати головним дзеркалом самий кращий варіант (після підключення SSL: https://example.ru)
  • прописати директиву Host у файлі robots.txt для Yandex бота
  • налаштувати 301 редирект з усіх неосновних дзеркал на основне (для всіх сторінок)
  • додати головне дзеркало в вебмастера і працювати тільки з ним

8. SSL сертифікат

Давно не таємниця той факт, що наявність SSL сертифікату сприятливо впливає на ставлення не тільки пошукових систем до сайту, але і звичайних відвідувачів. Адже навіть найпростіший (безкоштовний) сертифікат дає гарантію автентичності домену і забезпечує безпеку переданої інформації (шифрує дані).

Не полінуйтеся підключити такий сертифікат для вашого сайту.

9. Семантична розмітка Schema.org

Семантична розмітка (мікророзмітки) даних Schema.org - це використання спеціальних html атрибутів і їх властивостей для окремих частин контенту, які дозволяють поліпшити зовнішній вигляд сніпетів в пошуковій видачі.

Правильна верстка з такою розміткою дозволить перетворити в пошуковій видачі, наприклад:

Товари

Статті і навігаційну ланцюжок

рецепти

Семантика також дозволить вивести контакти, відгуки про організацію та багато іншого.

10. Відповідь сервера

Коли користувач відкриває сторінку в браузері (або робот починає її сканувати), сервер, на якому знаходиться сайт, віддає у відповідь на цей запит код статусу HTTP, тобто надає інформацію про ваш сайт і запитуваної сторінці.

наприклад,

200 - зі сторінкою все в порядку

404 - неіснуюча сторінка

503 - сервер тимчасово недоступний

Буває, код статусу віддається невірний. Наприклад, сторінка робоча, а статус-код 404, або навпаки, неіснуючі сторінки віддають код 200. Це потрібно обов'язково відстежити і провести коректне налаштування статус-кодів у файлі .htaccess.

Особливо важливо налаштувати 404 помилку. Якщо сторінка існує, а сервер при її запиті повідомляє про 404 помилку, сторінка не буде проіндексована пошуковими системами.

Перевірити коди статусів можна за допомогою відповідного інструменту в Яндекс.Вебмастере або додатки «Firebug» для браузера Mozilla Firefox.

11. Швидкість завантаження

Швидкість роботи ресурсу, завантаження сторінок, виконання скриптів і т.д. - один з ключових показників технічної оптимізації. Навряд чи користувачу буде приємно чекати довгого відповіді сервера, відтворення сторінки, або відправки даних через якусь форму - він просто піде, і, як правило, не повернеться.

На цей момент активно звертають увагу і пошуковики. Адже те, що не подобається користувачеві - не повинно подобатися і ПС.

Щоб оцінити і виявити фактори, які гальмують роботу ресурсу, можна скористатися інструментом Google PageSpeed ​​Insights . Результатом будуть два відносних показника з рекомендаціями необхідних робіт для підняття швидкості:

  • Для мобільних пристроїв:

    Для мобільних пристроїв:

  • Для комп'ютерів:

    Для комп'ютерів:

Варто врахувати, що виконання всіх рекомендацій додасть ще одну позитивну оцінку, яка буде врахована при ранжируванні, однак, не факт, що швидкість сайту стане ідеально високою.

підсумок

Все це тільки основні моменти, які слід врахувати для технічної оптимізації сайту. Пам'ятайте, грамотне SEO, а зокрема технічна оптимізація - це результат великого обсягу робіт, які в сумі дають хороший ефект, і досить часто нехтування хоча б одним з параметрів може все праці «звести нанівець». Якщо хочете перевірити, чи все у вас в порядку з технічної оптимізацією сайту, то SEO-аудит вам на допомогу. Якщо хочете, щоб не тільки перевірили, а й правильно все налаштували, то вам необхідно Комплексне просування «під ключ» . Успіхів!