Важливі аспекти внутрішньої seo оптимізації сайту.

  1. Створення HTML карти Sitemap
  2. Створення XML-карти
  3. Створення файлу Robots. txt
  4. Посилання ЧПУ (Человекопонятние URL)

зміст   1 зміст

1. Створення HTML карти Sitemap

2. Створення XML карти

3. Створення файлу Robots.txt

4. Посилання ЧПУ (Человекопонятние URL)

Незважаючи на те, що стаття називається внутрішня seo оптимізація для професіоналів, мені все-таки хотілося б, що б більшість з вас виявилися новачками, так як всі ті правила оптимізації, про які піде мова нижче, бажано дотримуватися вже на початковому етапі ведення свого сайту або блогу. Отже, поїхали!

Для початку хотілося б відзначити, що seo просування може зайняти тривалий час, тому, якщо мова йде про бізнес, то краще використовувати всі методи, в тому числі і платні ( Digital агентство інтернет маркетингу ).

Створення HTML карти Sitemap

HTML карта сайту, в першу чергу, потрібна для зручності ваших відвідувачів. Вона буде автоматично поповняться новими публікаціями, тобто прописувати в неї щось в ручну не потрібно.

Я не мав досвіду роботи з Joomla і DLE, тому розповім про установку HTML карти тільки для тих, у кого стоїть движок WordPress. Робиться це за допомогою простого плагіна WP DS Blog Map. Знайти та завантажити його можна безпосередньо у вашій адмін-панелі WordPress в розділі плагіни (додати новий).

Після установки плагіна і його активації, переходимо у вкладку «настройки», розташованої в лівому меню вашого WordPress, і знаходимо там встановлений плагін. Потім необхідно створити нову сторінку і назвати її наприклад «Карта сайту» або «Все статті». Після чого зайти на сторінку для її редагування і вписати в неї так звані шорт-коди, які ви знайдете в налаштуваннях плагіна WP DS Blog Map.

HTML карта Sitemap служить в якості головного каталогу, максимально полегшуючи пошук інформації для ваших відвідувачів, особливо якщо у вас велика кількість матеріалів. До того ж наявність HTML карти це великий плюс для пошукових роботів, які зможуть краще індексувати ваш сайт.

Створення XML-карти

XML карта потрібна для пошукових роботів, щоб покращити індексацію сайту на максимум. І навіть якщо ваші матеріали непогано індексуються, все одно не варто їй нехтувати. Внутрішня оптимізація без створення XML-карти буде неповною.

Для створення XML карти ми знову скористаємося спеціальним плагіном під назвою Google XML Sitemaps. І не варто лякатися, що в назві написано Google, так як створена карта буде універсальна для всіх пошукових систем.

Отже, для скачування, цей плагін ви вийдёте в адмін-панелі свого WordPress в розділі плагіни (додати новий). Після установки і активації даного плагіна необхідно його трохи налаштувати. Міняти все, в принципі не обов'язково, а налаштуйте його так, як показано на скріншоті нижче.

Після всіх налаштувань, бажано буде повідомити про появу XML-карти пошукові системи. Зробити це можна через сервіс Яндекс.Вебмастер і інструменти для веб-майстрів від Гугла.

У Яндексе.Вебмастер необхідно спочатку вибрати сайт, а потім в налаштуваннях індексування, вибравши пункт «Файли Sitemap», прописати адресу XML-карти і натиснути кнопку додати.

Вебмастер необхідно спочатку вибрати сайт, а потім в налаштуваннях індексування, вибравши пункт «Файли Sitemap», прописати адресу XML-карти і натиснути кнопку додати

Для Гугла це робиться аналогічним чином. Заходимо в інструменти для веб-майстрів і в лівому меню вибираємо пункт сканування (файли Sitemap). Потім прописуємо вашу карту і додаємо, попередньо натиснувши на кнопку перевірити.

Потім прописуємо вашу карту і додаємо, попередньо натиснувши на кнопку перевірити

До речі ваша створена XML-карта буде знаходитися за адресою http: // ваш сайт. / Sitemap.xml.

Створення файлу Robots. txt

Якщо у вас ще немає файлу Robots.txt, то його обов'язково потрібно створити. За допомогою цього файли ви можете заборонити пошуковим роботом індексувати ті чи інші матеріали. Справа в тому, що якщо пошуковому роботу не забороняти індексувати певні сторінки, то він буде виводити в індекс весь вміст вашого сайту.

Створюється файл Robots.txt в звичайному текстовому редакторі, після чого цей файл потрібно буде закачати в кореневу папку.

Виключати з індексу потрібно файли движка, а також дубльовані сторінки, які так не люблять пошукові системи. Що б не вдаватися в усі подробиці того, що означає той чи інший елемент у файлі Robots.txt і як його потрібно прописувати, я надам вже готовий і правильний Robots.txt, який зображений нижче

User-agent: * Disallow: / cgi-bin Disallow: / wp-admin Disallow: / wp-includes Disallow: / wp-content / plugins Disallow: / wp-content / cache Disallow: / wp-content / themes Disallow: / trackback Disallow: * / trackback Disallow: * / * / trackback User-agent: Yandex Disallow: / cgi-bin Disallow: / wp-admin Disallow: / wp-includes Disallow: / wp-content / plugins Disallow: / wp-content / cache Disallow: / wp-content / themes Host: businessandmoney.ru User-agent: Googlebot-Image Allow: / wp-content / uploads / User-agent: YandexImages Allow: / wp-content / uploads / Sitemap: http: / /businessandmoney.ru/sitemap.xml

Тільки в розділі Host впишіть свій сайт без https: // і www. І так само пропишіть свій Sitemap, так як зазначено в прикладі.

Після того, як ви розмістите Robots.txt в кореневому каталозі вашого сайту, при наступному обході пошуковий робот його виявить і врахує все те, що в ньому прописано. Тому створення файлу Robots.txt необхідно для заборони непотрібного сміття від індексації.

Посилання ЧПУ (Человекопонятние URL)

Внутрішня оптимізація буде не повноцінною, якщо ви не надасте своїх сторінок Человекопонятние URL адреси.

Справа в тому, що стандартно в WordPress можна встановити тільки певні види URL адрес, які нас не задовольнять. А посилання будуть виглядати так:

http: // ваш сайт /? p = 123

http: // ваш сайт / 2015/04 / sample-post /

Такий вид посилань негативно відбитися на просуванні вашого сайту. А краще якщо URL адреси будуть мати такий вигляд:

http: // ваш сайт / zarabotok-v-internete.html

Що б надати посиланнях зрозумілий вид, для початку увійдіть в адмін-панель вашого WordPress і в налаштуваннях виберіть пункт постійні посилання. Потім встановіть галочку на пункті довільно і впишіть в поле так (/%postname%.html), як показано на скріншоті нижче

Але на цьому ще не все, тому що наші URL адреси будуть містити в собі російські літери, тому в браузерах і в пошуковій видачі такі посилання будуть не коректно відображатися, а точніше так:

http: // ваш сайт /% D0% B7% D0% B0% D0% BF% D1% 83% .html

Тобто нам потрібно перевести російські букви на англійський лад, що б наприклад посилання з URL адресою

http: // site.ru/ адреса страніци.html

прийняла такий вигляд

http: // site.ru/ adres stranicy.html

Зробити таку маніпуляцію можливо за допомогою плагіна для WordpRess, який називається RusToLat. Він не вимагає налаштувань, тому після скачування і активації відразу почне працювати, а URL адреси нових сторінок будуть автоматично видозмінюватися.

І ще важливий момент! Якщо у вас на сайті вже розміщено статті, то для того, що б їх URL адреси теж взяли ЧПУ формат, потрібно зайти в кожну статтю і Переопубліковать її (перезберегти). Для цього може знадобитися якийсь час, але зробити це необхідно, інакше старі матеріали так і матимуть колишній URL вид.

Внутрішня оптимізація грає важливу роль при просуванні сайту, тому не полінуйтеся виконати всі вищеописані пункти! Удачі вам!