Важныя аспекты ўнутранай seo аптымізацыі сайта.

  1. Стварэнне HTML карты Sitemap
  2. Стварэнне XML -карты
  3. Стварэнне файла Robots. txt
  4. Спасылкі ЧПУ (человекопонятные URL)

змест   1 змест

1. Стварэнне HTML карты Sitemap

2. Стварэнне XML карты

3. Стварэнне файла Robots.txt

4. Спасылкі ЧПУ (человекопонятные URL)

Нягледзячы на ​​тое, што артыкул называецца ўнутраная seo аптымізацыя для прафесіяналаў, мне ўсё ж такі хацелася б, што б большасць з вас апынуліся навічкамі, так як усе тыя правілы аптымізацыі, пра якія пойдзе гаворка ніжэй, пажадана выконваць ўжо на пачатковым этапе вядзення свайго сайта або блога. Такім чынам, паехалі!

Для пачатку хацелася б адзначыць, што seo прасоўванне можа заняць працяглы час, таму, калі гаворка ідзе пра бізнэс, то лепш выкарыстаць усе метады, у тым ліку і платныя ( Digital агенцтва інтэрнэт маркетынгу ).

Стварэнне HTML карты Sitemap

HTML карта сайта, у першую чаргу, патрэбна для зручнасці вашых наведвальнікаў. Яна будзе аўтаматычна папоўняцца новымі публікацыямі, г.зн. прапісваць у яе нешта ў ручную ня трэба.

Я не меў досведу працы з Joomla і DLE, таму распавяду пра ўсталёўку HTML карты толькі для тых, у каго варта рухавічок WordPress. Робіцца гэта з дапамогай простага плагіна WP DS Blog Map. Знайсці і спампаваць яго можна непасрэдна ў вашай адмін-панеле WordPress ў раздзеле ўбудовы (дадаць новы).

Пасля ўстаноўкі плагіна і яго актывацыі, пераходзім ва ўкладку «налады», размешчанай у левым меню вашага WordPress, і знаходзім там усталяваны убудова. Потым неабходна стварыць новую старонку і назваць яе напрыклад «Карта сайта» або «Усе артыкулы». Пасля чаго зайсці на старонку для яе рэдагавання і ўпісаць у яе так званыя шорт-коды, якія вы знойдзеце ў наладах ўбудовы WP DS Blog Map.

HTML карта Sitemap служыць у якасці галоўнага каталога, максімальна палягчаючы пошук інфармацыі для вашых наведвальнікаў, асабліва калі ў вас вялікая колькасць матэрыялаў. Да таго ж наяўнасць HTML карты гэта вялікі плюс для пошукавых робатаў, якія змогуць лепш індэксаваць ваш сайт.

Стварэнне XML -карты

XML карта патрэбна для пошукавых робатаў, каб палепшыць індэксацыю сайта на максімум. І нават калі вашы матэрыялы нядрэнна індэксуюцца, усё роўна не варта ёй грэбаваць. Ўнутраная аптымізацыя без стварэння XML-карты будзе не поўнай.

Для стварэння XML карты мы зноў скарыстаемся спецыяльным убудовай пад назвай Google XML Sitemaps. І не варта палохацца, што ў назве напісана Google, так як створаная карта будзе ўніверсальная для ўсіх пошукавых сістэм.

Такім чынам, для запампоўкі, гэты убудова вы выйдёте ў адмін-панеле свайго WordPress ў раздзеле ўбудовы (дадаць новы). Пасля ўстаноўкі і актывацыі дадзенага плагіна неабходна яго крыху наладзіць. Мяняць усё, у прынцыпе не абавязкова, а наладзьце яго так, як паказана на скрыншоце ніжэй.

Пасля ўсіх налад, пажадана будзе паведаміць аб з'яўленні XML-карты пошукавыя сістэмы. Зрабіць гэта можна праз сэрвіс Яндэкс.Вэбмайстар і прылады для вэбмайстроў ад Гугла.

У Яндексе.Вебмастер неабходна спачатку выбраць сайт, а потым у наладах індэксавання, выбраўшы пункт «Файлы Sitemap», прапісаць адрас XML-карты і націснуць кнопку дадаць.

Вебмастер неабходна спачатку выбраць сайт, а потым у наладах індэксавання, выбраўшы пункт «Файлы Sitemap», прапісаць адрас XML-карты і націснуць кнопку дадаць

Для Гугла гэта робіцца аналагічным чынам. Заходзім у інструменты для вэбмайстроў і ў левым меню выбіраем пункт сканаванне (файлы Sitemap). Затым прапісваем вашу карту і дадаем, папярэдне націснуўшы на кнопку праверыць.

Затым прапісваем вашу карту і дадаем, папярэдне націснуўшы на кнопку праверыць

Дарэчы ваша створаная XML-карта будзе знаходзіцца па адрасе http: // ваш сайт. / Sitemap.xml.

Стварэнне файла Robots. txt

Калі ў вас яшчэ няма файла Robots.txt, то яго абавязкова трэба стварыць. З дапамогай гэтага файлы вы можаце забараніць пошукавым робатам індэксаваць тыя ці іншыя матэрыялы. Справа ў тым, што калі пошукаваму робату не забараняць індэксаваць пэўныя старонкі, то ён будзе выводзіць у індэкс ўсё змесціва вашага сайта.

Ствараецца файл Robots.txt ў звычайным тэкставым рэдактары, пасля чаго гэты файл трэба будзе запампаваць ў каранёвай каталог.

Выключаць з індэкса трэба файлы рухавічка, а таксама дубляваныя старонкі, якія так не любяць пошукавыя сістэмы. Што б не ўдавацца ва ўсе падрабязнасці таго, што азначае той ці іншы элемент у файле Robots.txt і як яго трэба прапісваць, я падам ужо гатовы і правільны Robots.txt, які намаляваны ніжэй

User-agent: * Disallow: / cgi-bin Disallow: / wp-admin Disallow: / wp-includes Disallow: / wp-content / plugins Disallow: / wp-content / cache Disallow: / wp-content / themes Disallow: / trackback Disallow: * / trackback Disallow: * / * / trackback User-agent: Yandex Disallow: / cgi-bin Disallow: / wp-admin Disallow: / wp-includes Disallow: / wp-content / plugins Disallow: / wp-content / cache Disallow: / wp-content / themes Host: businessandmoney.ru User-agent: Googlebot-Image Allow: / wp-content / uploads / User-agent: YandexImages Allow: / wp-content / uploads / Sitemap: http: / /businessandmoney.ru/sitemap.xml

Толькі ў раздзеле Host ўпішыце свой сайт без https: // і www. І гэтак жа прапішіце свой Sitemap, так як паказана ў прыкладзе.

Пасля таго, як вы размясціце Robots.txt ў каранёвым каталогу вашага сайта, пры наступным абыходзе пошукавы робат яго выявіць і ўлічыць усё тое, што ў ім прапісана. Таму стварэнне файла Robots.txt неабходна для забароны непатрэбнага смецця ад індэксацыі.

Спасылкі ЧПУ (человекопонятные URL)

Ўнутраная аптымізацыя будзе не паўнавартаснай, калі вы не надасце сваім старонках человекопонятные URL адрасы.

Справа ў тым, што стандартна ў WordPress можна ўсталяваць толькі пэўныя віды URL адрасоў, якія нас не задаволяць. А спасылкі будуць выглядаць так:

http: // ваш сайт /? p = 123

http: // ваш сайт / 2015/04 / sample-post /

Такі выгляд спасылак адмоўна адбіцца на прасоўванні вашага сайта. А лепш калі URL адрасы будуць мець такі выгляд:

http: // ваш сайт / zarabotok-v-internete.html

Што б надаць спасылках зразумелы выгляд, для пачатку ўвайдзіце ў адмін-панэль вашага WordPress і ў наладах выберыце пункт пастаянныя спасылкі. Затым ўсталюйце галачку на пункце адвольна і ўпішыце ў поле так (/%postname%.html), як паказана на скрыншоце ніжэй

Але на гэтым яшчэ не ўсё, так як нашы URL адрасы будуць утрымліваць у сабе рускія літары, таму ў браўзэрах і ў пошукавай выдачы такія спасылкі будуць не карэктна адлюстроўвацца, а дакладней так:

http: // ваш сайт /% D0% B7% D0% B0% D0% BF% D1% 83% .html

Г.зн. нам трэба перавесці рускія літары на ангельскую лад, што б напрыклад спасылка з URL адрасам

http: // site.ru/ адрас страницы.html

прыняла наступны выгляд

http: // site.ru/ adres stranicy.html

Зрабіць такую маніпуляцыю магчыма з дапамогай плагіна для WordpRess, які называецца RusToLat. Ён не патрабуе налад, таму пасля запампоўкі і актывацыі адразу пачне працаваць, а URL адрасы новых старонак будуць аўтаматычна відазмяняцца.

І яшчэ важны момант! Калі ў вас на сайце ўжо размешчаны артыкулы, то для таго, што б іх URL адрасы таксама прынялі ЧПУ фармат, трэба зайсці ў кожны артыкул і переопубликовать яе (пересохранить). Для гэтага можа спатрэбіцца нейкі час, але зрабіць гэта неабходна, інакш старыя матэрыялы так і будуць мець ранейшы URL выгляд.

Ўнутраная аптымізацыя гуляе важную ролю пры прасоўванні сайта, таму не залянуецеся выканаць усе вышэйапісаныя пункты! Ўдачы вам!