Techniczne SEO: techniczny aspekt optymalizacji strony internetowej

  1. 1. Szafy webmasterzy i liczniki
  2. 2. Robots.txt
  3. 3. Mapa witryny (mapa witryny)
  4. 4. Złe linki
  5. 5. Wykluczenie duplikatów
  6. 6. Ustawienie CNC
  7. 7. Główne lustro
  8. 8. Certyfikat SSL
  9. 9. Znaczniki semantyczne Schema.org
  10. 10. Odpowiedź serwera
  11. 11. Szybkość pobierania
  12. Wynik

Podstawą każdej strony jest jej strona techniczna

Podstawą każdej strony jest jej strona techniczna. Oprócz szerokiej i przyjemnej funkcjonalności, piękna opakowanie i użyteczność w promocji to bardzo ważna optymalizacja techniczna, która pozwoli robotom wyszukiwarek szybko i poprawnie indeksować zawartość zasobu. Zdefiniujmy główne punkty, które należy wziąć pod uwagę przy technicznej optymalizacji witryny.

1. Szafy webmasterzy i liczniki

Szafy webmasterzy i liczniki

Rozpoczynając pracę nad promowaniem swojego zasobu, musisz zarejestrować go w biurach webmasterów. To najlepszy sygnał dla wyszukiwarek i wkrótce roboty zaczną odwiedzać witrynę.

Jednak dodanie domeny nie wystarczy, biura muszą być odpowiednio skonfigurowane. Na przykład w Yandex.Webmaster nie będzie zbędne:

  • dodanie mapy witryny sitemap.xml do odpowiedniej sekcji;
  • wskazanie regionalności;
  • Sprawdź robots.txt w celu poprawnej kompilacji.

Webmasterzy mają między innymi wiele przydatnych narzędzi:

  • różne walidatory do weryfikacji poprawności przygotowania niektórych dokumentów (mapy witryn, mikromarkowanie itp.)
  • możliwość śledzenia statystyk dotyczących żądań (wyświetleń, kliknięć, CTR itp.)
  • przeglądanie statystyk indeksowania stron (co dostało się do wyszukiwania, a co nie, iz jakich powodów)

Aby uzyskać pełniejsze i bardziej szczegółowe informacje o ruchu i zachowaniach użytkowników w Twojej witrynie, zarejestruj się i zainstaluj liczniki obecności. Licznik jest doskonałym narzędziem, które pomoże Ci dowiedzieć się, jak i w jakim kierunku iść, pracując nad popularnością zasobu.

2. Robots.txt

txt

Plik tekstowy robots.txt musi być obecny w każdej witrynie i być dostępny pod adresem example.ru/robots.txt . Jest to pierwszy plik, do którego roboty uzyskują dostęp, gdy odwiedzają witrynę i który przechowuje dla nich instrukcje.

Mówiąc prościej, robots.txt to zestaw zaleceń, które wskazują, co może być indeksowane, a co nie (ale nie fakt, że roboty będą ich ściśle przestrzegać).

W zależności od tego, na jakim systemie kontroli działa Twoja strona, te reguły są tworzone. Opiszmy krótko, co powinno znajdować się w tym pliku:

  1. Należy określić reguły dla różnych robotów (User-agent: Yandex, User-agent: GoogleBot itp.), Ponieważ zasady i dyrektywy dla każdego z nich mogą się różnić.
  2. Wszystkie zasoby systemowe (szablony, pliki wykonawcze itp.) Są zamknięte przed indeksowaniem.
  3. Wszystko jest zamknięte, co nie powinno być obecne w wyszukiwaniu (strony rejestracji / autoryzacji, filtrowanie / wyniki wyszukiwania itp.).
  4. Określono dyrektywę hosta dla robota Yandex.
  5. Określona mapa witryny sitemap.xml.
  6. W przypadku GoogleBota pliki wpływające na wyświetlanie witryny (js, css, obrazy, czcionki) muszą być otwarte.

3. Mapa witryny (mapa witryny)

Mapa witryny - jeden z głównych sposobów ulepszenia nawigacji w witrynie dla wyszukiwarek, a także dla użytkowników.

W przypadku robotów mapa witryny jest generowana w formacie xml i musi zawierać wszystkie linki, które będą indeksowane i biorą udział w problemie.

W przypadku robotów mapa witryny jest generowana w formacie xml i musi zawierać wszystkie linki, które będą indeksowane i biorą udział w problemie

Dla wielu popularnych CMS istnieją specjalne wtyczki, które umożliwiają tworzenie i dostosowywanie mapy (na przykład mapy Google XML dla WordPress lub XMap dla Joomla). Jeśli nie możesz utworzyć mapy z dodatkami, pomoże ci to wiele generatorów online, takich jak MySitemapGenerator lub aplikacje desktopowe, takie jak ComparseR, Sitemap Generator.

Dodanie mapy witryny w formacie html (zwykła strona z listą sekcji i linków) nie będzie zbyteczne. Ułatwi nawigację zarówno odwiedzającym, jak i robotom. Nie powinieneś nadawać jej zbyt dużej objętości, na przykład w sklepie internetowym wystarczy stworzyć hierarchię głównych sekcji i kategorii.

4. Złe linki

Zepsuty link to link prowadzący do nieistniejącej strony (dokumentu, obrazu, innej witryny).

Duża liczba takich linków wpływa negatywnie na stosunek użytkowników do zasobu, ponieważ bardzo niewiele osób chce zobaczyć komunikaty o błędach zamiast interesującego materiału.

Duża liczba takich linków wpływa negatywnie na stosunek użytkowników do zasobu, ponieważ bardzo niewiele osób chce zobaczyć komunikaty o błędach zamiast interesującego materiału

Wyszukiwarki są również w stanie wyciągnąć pewne negatywne wnioski na temat zasobu z nadmierną liczbą takich linków, na przykład, że treść nie jest aktualna, witryna nie jest aktualizowana (po prostu nie jest monitorowana) itp.

Nie bądź leniwy, aby regularnie sprawdzać zasoby pod kątem obecności uszkodzonych linków. Użyj dość wygodnego usługa wyszukiwania .

5. Wykluczenie duplikatów

Zduplikowane strony to dostępność tego samego materiału pod kilkoma adresami.

Obecność zduplikowanych treści prowadzi do następujących problemów:

  1. PS może nieprawidłowo zidentyfikować główną (odpowiednią) stronę, co może wpłynąć na pozycję witryny. Roboty wyszukujące mogą przyklejać adresy, wybierając najmniej pożądaną stronę priorytetu.
  2. Podwójne obciążenia powodują dodatkowe obciążenie podczas indeksowania witryny przez robota, w wyniku czego zwiększa się czas indeksowania.
  3. Zwiększa obciążenie serwera.

Być może jest to jedna z głównych trudności technicznych optymalizacji witryny. Jeśli technicznie wyeliminowanie duplikatów nie jest możliwe, należy użyć łącza kanonicznego z atrybutem rel = canonical znacznika łącza.

Załóżmy, że materiał jest dostępny pod dwoma adresami:

www.site.ru/page

www.site.ru/page111

Pierwsza opcja będzie lepsza, a znacznik kanoniczny będzie wyglądał tak:

‹Link rel =" canonical "href =" www.site.ru/page "/›

Musi być obecny w kodzie obu stron pomiędzy tagami ‹head› i ‹/ head›.

Jeśli nie można tego zrobić, warto zamknąć duplikaty w pliku robots.txt lub skonfigurować przekierowanie 301.

6. Ustawienie CNC

Semantyczny adres URL lub zrozumiały dla człowieka adres URL (CNC) lub przyjazny dla SEO adres URL - to wszystkie nazwy ścieżki URL składającej się ze zrozumiałych i najbardziej preferowanych słów zarówno dla użytkownika, jak i PS.

Odpowiednio skonfigurowany CNC na stronie pozwala nie tylko określić zawartość strony (zgadnij, podając nazwę tego, co znajduje się w dokumencie), ale także poprawić indeksowanie za pomocą słów kluczowych.

Zanim zaczniesz generować adresy, musisz zdecydować, do której wyszukiwarki się dostosujesz. W przypadku Yandex zalecamy transliterację dla Google - bezpośrednie tłumaczenie. Na przykład istnieje strona „O firmie”:

  • Tak więc CNC będzie szukać Yandex: example.ru/o-kompanii
  • A dla Google: example.ru/about-company lub tylko example.ru/about

Kilka wskazówek dotyczących konfiguracji CNC:

  • adres powinien być prosty i krótki
  • adres powinien być zgodny z treścią strony (najlepiej użyć nazwy dokumentu)
  • pozbyć się rozszerzenia (php, html, htm itp.)
  • użyj łącznika (-) zamiast podkreślenia (_), aby oddzielić
  • spróbuj wyeliminować użycie identyfikatorów (idXXX itp.)

7. Główne lustro

Prawie każda domena ma synonimy, dla których dostępny jest zasób. Może to być najczęściej spotykana para example.ru i www.example.ru lub domena cyrylicy, domena trzeciego poziomu itp. Dołączona do głównej wersji. A jeśli zainstalowany jest certyfikat SSL, liczba serwerów lustrzanych może wzrosnąć do czterech:

  • http://example.ru
  • http://www.example.ru
  • https://example.ru
  • https://www.example.ru

Jeśli wszystkie te wersje są dostępne, prędzej czy później wyszukiwarki będą je sklejać, rozpoznając jedną z opcji jako główne zwierciadło , dlatego bardzo ważne jest, aby zadbać o to z wyprzedzeniem:

  • wybierz najbardziej preferowaną opcję z głównego serwera lustrzanego (po połączeniu SSL: https://example.ru )
  • napisz dyrektywę Host w robots.txt dla bota Yandex
  • Skonfiguruj przekierowania 301 ze wszystkich mniejszych serwerów lustrzanych do podstawowego (dla wszystkich stron)
  • dodaj główne lustro do webmasterów i pracuj tylko z nim

8. Certyfikat SSL

Od dawna nie jest tajemnicą, że obecność certyfikatu SSL korzystnie wpływa na nastawienie nie tylko wyszukiwarek do witryny, ale także zwykłych użytkowników. Wszakże nawet najprostszy (darmowy) certyfikat gwarantuje autentyczność domeny i zapewnia bezpieczeństwo przesyłanych informacji (szyfruje dane).

Nie bądź leniwy, aby podłączyć taki certyfikat do swojej witryny.

9. Znaczniki semantyczne Schema.org

Znaczniki semantyczne (mikromarkowanie) danych Schema.org to użycie specjalnych atrybutów HTML i ich właściwości dla poszczególnych części treści, które pozwalają poprawić wygląd fragmentów w wynikach wyszukiwania.

Odpowiedni układ z takim znacznikiem pozwoli przekształcić wyniki wyszukiwania, na przykład:

Towary

Artykuły i łańcuch nawigacji

Przepisy

Semantyka umożliwi również wyświetlanie kontaktów, informacji zwrotnych na temat organizacji i nie tylko.

10. Odpowiedź serwera

Gdy użytkownik otwiera stronę w przeglądarce (lub robot zaczyna ją skanować), serwer obsługujący witrynę zwraca kod stanu HTTP w odpowiedzi na to żądanie, czyli dostarcza informacje o Twojej witrynie i żądanej stronie.

Na przykład

200 - wszystko jest w porządku ze stroną

404 - nieistniejąca strona

503 - serwer jest tymczasowo niedostępny

Zdarza się, że kod statusu jest nieprawidłowy. Na przykład strona działa, a kod stanu to 404 lub odwrotnie, nieistniejące strony dają kod 200. Konieczne jest wyśledzenie i poprawne skonfigurowanie kodów statusu w pliku .htaccess.

Szczególnie ważne jest skonfigurowanie błędu 404. Jeśli strona istnieje i serwer zgłasza błąd 404 na żądanie, strona nie będzie indeksowana przez wyszukiwarki.

Możesz sprawdzić kody statusu za pomocą odpowiednie narzędzie w Yandex.Webmaster lub aplikacji Firebug dla przeglądarki Mozilla Firefox.

11. Szybkość pobierania

Szybkość zasobu, ładowanie stron, wykonywanie skryptów itp. - jeden z kluczowych wskaźników optymalizacji technicznej. Jest mało prawdopodobne, że użytkownik będzie zadowolony z oczekiwania na długą odpowiedź z serwera, renderowania strony lub wysyłania danych za pośrednictwem jakiejś formy - po prostu odejdzie i, co do zasady, nie wróci.

W tym momencie wyszukiwarki również aktywnie zwracają uwagę. W końcu to, czego użytkownik nie lubi, nie powinno podobać się PS.

Aby ocenić i zidentyfikować czynniki, które hamują pracę zasobu, możesz użyć narzędzia Google PageSpeed ​​Insights . Rezultatem będą dwa wskaźniki względne z zaleceniami niezbędnej pracy w celu zwiększenia prędkości:

  • Dla urządzeń mobilnych:

    Dla urządzeń mobilnych:

  • W przypadku komputerów:

    W przypadku komputerów:

Warto wziąć pod uwagę, że wdrożenie wszystkich zaleceń doda kolejną pozytywną ocenę, która zostanie wzięta pod uwagę podczas rankingu, jednak nie jest faktem, że szybkość witryny będzie idealnie wysoka.

Wynik

Wszystko to są tylko główne punkty, które należy wziąć pod uwagę przy technicznej optymalizacji strony. Pamiętaj, że kompetentny SEO, aw szczególności optymalizacja techniczna, jest wynikiem dużej ilości pracy, która razem ma dobry efekt, a często zaniedbanie co najmniej jednego z parametrów może „negować” wszystkie prace. Jeśli chcesz sprawdzić, czy wszystko jest w porządku z techniczną optymalizacją strony, pomoże Ci audyt SEO. Jeśli chcesz nie tylko sprawdzić, ale także ustawić wszystko poprawnie, musisz Kompleksowa promocja „pod klucz” . Powodzenia!