Тэхнічнае SEO: тэхнічны аспект аптымізацыі сайта

  1. 1. Кабінеты вэбмайстроў і лічыльнікі
  2. 2. Robots.txt
  3. 3. Sitemap (карта сайта)
  4. 4. бітыя спасылкі
  5. 5. Выключэнне дубляў
  6. 6. Настройка ЧПУ
  7. 7. Асноўнае люстэрка
  8. 8. SSL сертыфікат
  9. 9. Семантычная разметка Schema.org
  10. 10. Адказ сервера
  11. 11. Хуткасць загрузкі
  12. вынік

Падмуркам любога сайта з'яўляецца яго тэхнічны бок

Падмуркам любога сайта з'яўляецца яго тэхнічны бок. Акрамя шырокага і прыемнага функцыяналу, прыгожай абгорткі і юзабіліці для прасоўвання вельмі важная тэхнічная аптымізацыя, якая дазволіць робатам пошукавых сістэм хутка і правільна індэксаваць змесціва рэсурсу. Давайце вызначым асноўныя моманты, якія варта ўлічыць для тэхнічнай аптымізацыі сайта.

1. Кабінеты вэбмайстроў і лічыльнікі

Кабінеты вэбмайстроў і лічыльнікі

Пачынаючы працу над прасоўваннем свайго рэсурсу, трэба зарэгістраваць яго ў кабінетах вэбмайстроў. Гэта самы лепшы сігнал для пошукавых сістэм, і неўзабаве робаты пачнуць наведваць сайт.

Аднак, недастаткова проста дадаць дамен, кабінеты неабходна правільна наладзіць. Напрыклад, у Яндэкс.Вэбмайстар не будзе лішнім:

  • даданне карты сайта sitemap.xml ў адпаведны раздзел;
  • указанне рэгіянальную;
  • праверка robots.txt на правільнасць складання.

Апроч іншага, вэбмайстра размяшчаюць масай карысных інструментаў:

  • рознымі валідатары для праверкі карэктнасці складання тых ці іншых дакументаў (карты сайта, микроразметки і г.д.)
  • магчымасць адсочваць статыстыку па запытах (паказы, зграі, CTR і г.д.)
  • прагляд статыстыкі індэксавання старонак (што патрапіла ў пошук, а што не, і з якіх прычынаў)

Для атрымання больш поўнай і падрабязнай інфармацыі аб наведвальнасці і паводзінах карыстальнікаў на вашым сайце зарэгіструйце і ўсталюйце лічыльнікі наведвальнасці. Лічыльнік - гэта выдатны інструмент, які дапаможа разабрацца, як і ў якім кірунку рухацца, працуючы над папулярнасцю рэсурсу.

2. Robots.txt

txt

Тэкставы файл robots.txt павінен прысутнічаць у кожнага сайта і быць даступны па адрасе example.ru/robots.txt. Гэта першы файл, да якога звяртаюцца робаты пры наведванні сайта і ў якім захоўваюцца інструкцыі для іх.

Простымі словамі, robots.txt - звод рэкамендацый, якія паказваюць, што можна індэксаваць, а што нельга (але не факт, што робаты будуць прытрымлівацца ім строга).

У залежнасці ад таго, на якой сістэме кіравання працуе ваш сайт, фармуюцца гэтыя самыя правілы. Давайце коратка вызначым, што павінна быць у дадзеным файле:

  1. Павінны быць пазначаны правілы для розных робатаў (User-agent: Yandex, User-agent: GoogleBot і г.д.), бо правілы і дырэктывы для кожнага з іх могуць адрознівацца.
  2. Зачыненыя ад індэксацыі усе сістэмныя рэсурсы (шаблоны, выканаўчыя файлы і г.д.).
  3. Зачынена ўсё, тое што не павінна прысутнічаць у пошуку (старонкі рэгістрацыі / аўтарызацыі, вынікі фільтрацыі / пошуку і г.д.).
  4. Паказаная дырэктыва Host для робата Yandex.
  5. Указана карта (ы) сайта sitemap.xml.
  6. Для робата GoogleBot павінны быць адчыненыя файлы, якія ўплываюць на адлюстраванне сайта (js, css, малюнка, шрыфты).

3. Sitemap (карта сайта)

Карта сайта - адзін асноўных спосабаў паляпшэння навігацыі па сайце як для пошукавых робатаў, так і для карыстальнікаў.

Для робатаў карта сайта генеруецца ў фармаце xml і павінна ўтрымліваць ўсе спасылкі, якія будуць індэксавацца і ўдзельнічаць у выдачы.

Для робатаў карта сайта генеруецца ў фармаце xml і павінна ўтрымліваць ўсе спасылкі, якія будуць індэксавацца і ўдзельнічаць у выдачы

Для многіх папулярных CMS існуюць спецыяльныя убудовы, якія дазваляюць ствараць і наладжваць карту (напрыклад Google XML Sitemaps для WordPress або XMap для Joomla). Калі сфармаваць карту пры дапамозе дапаўненняў няма магчымасці, то тут дапамогуць розныя анлайн-генератары, напрыклад MySitemapGenerator, ці ж настольныя прыкладанні, напрыклад ComparseR, Sitemap Generator.

Не будзе лішнім даданне карты сайта ў фармаце html (звычайная старонка са спісам раздзелаў і спасылак). Яна палегчыць навігацыю як для наведвальнікаў, так і для робатаў. Не варта рабіць яе занадта аб'ёмнай, напрыклад, для інтэрнэт-крамы досыць будзе зрабіць іерархію з асноўных раздзелаў і катэгорый.

4. бітыя спасылкі

Бітая спасылка - гэта спасылка, якая вядзе на неіснуючую старонку (дакумент, малюнак, іншы сайт).

Вялікая колькасць такіх спасылак адмоўна адбіваецца на стаўленні карыстальнікаў да вашага рэсурсу, бо мала каму спадабаецца бачыць паведамленні пра памылку замест цікавіць матэрыялу.

Вялікая колькасць такіх спасылак адмоўна адбіваецца на стаўленні карыстальнікаў да вашага рэсурсу, бо мала каму спадабаецца бачыць паведамленні пра памылку замест цікавіць матэрыялу

Пошукавыя сістэмы таксама здольныя зрабіць нейкія адмоўныя высновы аб рэсурсе з празмерным колькасцю такіх спасылак, напрыклад, што кантэнт ня актуальны, сайт не абнаўляецца (за ім папросту не сочаць) і г.д.

Не лянуйцеся рэгулярна правяраць свой рэсурс на наяўнасць бітых спасылак. Скарыстайцеся даволі зручным сэрвісам для пошуку .

5. Выключэнне дубляў

Дублі старонак - гэта даступнасць аднаго і таго ж матэрыялу па некалькіх адрасах.

Наяўнасць дубляваць кантэнту прыводзіць да наступных праблемах:

  1. ПС могуць няправільна вызначыць асноўную (рэлевантную) старонку, што можа паўплываць на пазіцыі сайта. Пошукавыя робаты могуць склеіць адрасы, выбраўшы прыярытэтнай старонкай найменш пажаданую.
  2. Дублі ствараюць дадатковую нагрузку падчас абходу сайта робатам, у следства чаго павялічваецца час на індэксацыю.
  3. Павялічваецца нагрузка на сервер.

Мабыць, гэта адна з асноўных цяжкасцяў тэхнічнай аптымізацыі сайта. Калі няма магчымасьці скасаваць дублі тэхнічна, трэба скарыстацца кананічнай спасылкай з атрыбутам rel = canonical тэга link.

Выкажам здагадку, што матэрыял даступны па двух адрасах:

www.site.ru/page

www.site.ru/page111

Пераважным будзе першы варыянт, а кананічны тэг будзе выглядаць так:

<Link rel = "canonical" href = "www.site.ru/page" />

Ён павінен прысутнічаць у кодзе абедзвюх старонак паміж тэгамі <head> і </ head>.

Калі і гэта не ўдаецца зрабіць, мае сэнс зачыніць дублі ў robots.txt або наладзіць 301 рэдырэкт.

6. Настройка ЧПУ

Семантычны URL, або чалавека-зразумелы урл (ЧПУ), або SEO-Friendly URL - усё гэта назвы URL-шляху, які складаецца з зразумелых і найбольш пераважных слоў як для карыстальніка, так і для ПС.

Правільна настроеныя ЧПУ на сайце дазваляюць не толькі вызначаць змесціва старонкі (здагадацца па назве, што знаходзіцца ў дакуменце), але і паляпшаюць індэксацыю за кошт выкарыстання ключавых слоў.

Перад тым, як пачаць фармаваць адрасы, прыйдзецца вызначыцца, пад якую з пошукавых сістэм вы будзеце падладжвацца. Для Яндэкс рэкамендуем транслітарацыю, для Google - прамы пераклад. Напрыклад, ёсць старонка «Аб кампаніі»:

  • Так ЧПУ будзе выглядаць для Яндэкс: example.ru/o-kompanii
  • А так для Google: example.ru/about-company ці проста example.ru/about

Некалькі саветаў па наладзе ЧПУ:

  • адрас павінен быць простым і кароткім
  • адрас павінен адпавядаць змесціва старонкі (у ідэале выкарыстоўваць назву дакумента)
  • пазбаўцеся ад пашырэння (php, html, htm і г.д.)
  • для падзелу выкарыстоўвайце злучок (-), а не сімвал падкрэслення (_)
  • старайцеся ўстараняць выкарыстанне ідэнтыфікатараў (idXXX і г.д.)

7. Асноўнае люстэрка

Амаль у кожнага дамена ёсць сінонімы, па якіх даступны рэсурс. Гэта можа быць самая распаўсюджаная пара example.ru і www.example.ru, ці ж прымацаваны да асноўнай версіі дамен на кірыліцы, дамен трэцяга ўзроўня і г.д. А калі ўсталяваны SSL сертыфікат, то і зусім колькасць люстэркаў можа ўзрастаць да чатырох:

  • http://example.ru
  • http://www.example.ru
  • https://example.ru
  • https://www.example.ru

Калі ўсе гэтыя версіі будуць даступныя, то рана ці позна пашукавікі іх склеіць, прызнаўшы асноўным люстэркам адзін з варыянтаў, таму вельмі важна паклапаціцца пра гэта загадзя:

  • варта абраць галоўным люстэркам самы лепшы варыянт (пасля падключэння SSL: https://example.ru)
  • прапісаць дырэктыву Host ў файле robots.txt для Yandex бота
  • наладзіць 301 рэдырэкт з усіх неасноўных люстэркаў на асноўнае (для ўсіх старонак)
  • дадаць галоўнае люстэрка ў вэбмайстра і працаваць толькі з ім

8. SSL сертыфікат

Даўно не з'яўляецца таямніцай той факт, што наяўнасць SSL сертыфіката спрыяльна ўплывае на стаўленне не толькі пошукавых сістэм да сайта, але і звычайных наведвальнікаў. Бо нават самы просты (бясплатны) сертыфікат дае гарантыю сапраўднасці дамена і забяспечвае бяспеку перадаванай інфармацыі (шыфруе дадзеныя).

Не залянуецеся падключыць такі сертыфікат для вашага сайта.

9. Семантычная разметка Schema.org

Семантычная разметка (микроразметка) дадзеных Schema.org - гэта выкарыстанне спецыяльных html атрыбутаў і іх уласцівасцяў для асобных частак кантэнту, якія дазваляюць палепшыць знешні выгляд сниппетов ў пошукавай выдачы.

Правільная вёрстка з такой разметкай дазволіць змяніць у пошукавай выдачы, напрыклад:

тавары

Артыкулы і навігацыйную ланцужок

рэцэпты

Семантыка таксама дасць магчымасць вывесці кантакты, водгукі аб арганізацыі і многае іншае.

10. Адказ сервера

Калі карыстальнік адкрывае старонку ў браўзэры (або робат пачынае яе сканаваць), сервер, на якім знаходзіцца сайт, аддае ў адказ на гэты запыт код статусу HTTP, то ёсць дае інфармацыю аб вашым сайце і запытваемага старонцы.

напрыклад,

200 - са старонкай усё ў парадку

404 - неіснуючая старонка

503 - сервер часова недаступны

Бывае, код статусу аддаецца няправільны. Напрыклад, старонка рабочая, а статус-код 404, ці наадварот, неіснуючыя старонкі аддаюць код 200. Гэта трэба абавязкова адсачыць і правесці карэктную наладу статус-кодаў у файле .htaccess.

Асабліва важна наладзіць 404 памылку. Калі старонка існуе, а сервер пры яе запыце паведамляе аб 404 памылцы, старонка не будзе праіндэксавана пошукавікамі.

Праверыць коды статусаў можна з дапамогай адпаведнага інструмента у Яндэкс.Вэбмайстар або прыкладання «Firebug» для браўзэра Mozilla Firefox.

11. Хуткасць загрузкі

Хуткасць працы рэсурсу, загрузкі старонак, выканання скрыптоў і г.д. - адзін з ключавых паказчыкаў тэхнічнай аптымізацыі. Наўрад ці карыстачу будзе прыемна чакаць доўгага адказу сервера, адмалёўкі старонкі, або адпраўкі дадзеных праз якую-небудзь форму - ён проста сыдзе, і, як правіла, не вернецца.

На гэты момант актыўна звяртаюць увагу і пашукавікі. Бо тое, што не падабаецца карыстачу - не павінна падабацца і ПС.

Каб ацаніць і выявіць фактары, якія тармозяць працу рэсурсу, можна скарыстацца прыладай Google PageSpeed ​​Insights . Вынікам будуць два адносных паказчыка з рэкамендацыямі неабходных работ для ўзняцця хуткасці:

  • Для мабільных прылад:

    Для мабільных прылад:

  • Для кампутараў:

    Для кампутараў:

Варта ўлічыць, што выкананне ўсіх рэкамендацый дадасць яшчэ адну станоўчую ацэнку, якая будзе ўлічаная пры ранжыраванні, аднак, не факт, што хуткасць сайта стане ідэальна высокай.

вынік

Усё гэта толькі асноўныя моманты, якія варта ўлічыць для тэхнічнай аптымізацыі сайта. Памятаеце, пісьменнае SEO, а ў прыватнасці тэхнічная аптымізацыя - гэта вынік вялікага аб'ёму работ, якія ў суме даюць добры эфект, і даволі часта грэбаванне хоць бы адным з параметраў можа ўсю працу «звесці на няма». Калі хочаце праверыць, ці ўсё ў вас у парадку з тэхнічнага аптымізацыяй сайта, то SEO-аўдыт вам у дапамогу. Калі хочаце, каб не толькі праверылі, але і правільна ўсё наладзілі, то вам неабходна Комплекснае прасоўванне «пад ключ» . Ўдачы!