Просування сайтів в пошуку: нестандартні методи просування для всіх типів сайтів - Netpeak Blog

  1. 1. Розширення структури за рахунок користувацького пошуку
  2. 2. Створення механізму тегірованія сторінок сайту
  3. 3. Механізм виправлення помилок в тегах
  4. 4. Підготовка бази знань для журналістів інтернет-видання
  5. 5. Показ спеціальних пропозицій в заповненій або незаповненою кошику
  6. 6. Використання Google Doodles для збору трафіку
  7. 7. Парсинг соціальних мереж для постінгу пропозицій товарів або послуг
  8. висновки

Для кожного типу сайту у нас є окремий чек-лист з пошукової оптимізації з обов'язковим списком дій і універсіальнимі пропозиціями щодо збільшення продажів. На жаль, для багатьох процес просування на цьому завершується, так як команда клієнта впроваджує зміни далеко не так швидко, як це варто робити . Але є 10% компаній, які справляються з завданнями супершвидко і продовжують працювати з нами заради креативу, нестандартних ідей і пропозицій по залученню трафіку.

У цьому пості і коментарях під ним я хочу зібрати саме такі ідеї оригінального SEO.

1. Розширення структури за рахунок користувацького пошуку

Ідея підходить для інтернет-магазинів і Класифайди.

Уявіть: є тисячі запитів з пошуку, на основі яких необхідно створити цільові сторінки з прив'язкою до відповідної релевантної категорії або параметру категорії. Це може бути база вашого внутрішнього пошуку або дані з Google Analytics. З кожного такого запиту можна створити оптимізовану сторінку з релевантним контентом.

Важливо використовувати саме запити з пошуку - це те, що шукають люди на сайті.

1. Беремо запити і:

  • виконуємо стандартну чистку : Сміття, дублі, помилки;
  • залишаємо сленгові запити, це додатковий трафік;
  • опрацьовуємо відмінки і граматичне число - приводимо до єдиного вигляду.

2. Автоматично обробляємо всі цільові запити, створюємо сторінки під кожен з них і прив'язуємо до категорій на сайті.

Гаразд, не всі так просто. За лаштунками багато годин роботи і нервів. Але залишимо за межами цієї статті технічну складність реалізації інструменту для автоматичної обробки запитів. Я просто опишу пункти, на які варто звернути увагу:

Адмін. Потрібна админка для модерації запитів. Будь автоматичний інструмент буде допускати помилки, треба їх правити. В адмінку можна додати інструменти аналітики: число запитів, дати, інформацію про категорії, кількості показів та інше.

Оптимізація. Все по чек-листу: человекопонятний URL, шаблон title / description / h1, настройки індексації (є контент - index, немає - noindex), канонікали, пагінація, окрема карта сайту і так далі. Запускаємо нові сторінки в перелинковку, але з розумом.

Можливі проблеми:

  • Дублі. Через особливості мови і вольності написання запитів в пошуку можуть бути пройшли модерацію сторінки з однаковим змістом. Дублі з основними сторінками. Якщо відповідь на запит користувача - сторінка категорії, виводити треба її, а не створювати окрему сторінку.
  • Помилки в прив'язці до категорій. Тут автоматизація теж може дати збій.
  • Модерація. Важливо не пропустити всякий треш на кшталт «адалта». А він буде.

Результат: збільшення кількості посадочних сторінок під низькочастотні запити. При кращому сценарії можливий повне охоплення тематики.

Динаміка трафіку в одному з проектів через півтора місяці після впровадження:

Динаміка трафіку в одному з проектів через півтора місяці після впровадження:

2. Створення механізму тегірованія сторінок сайту

Це з базових речей для інтернет-магазинів, Класифайди, тематичних проектів. Хтось робить це завжди і відразу. Але все ж цієї тактики місце в даному списку. За базу беремо семантику. Все, що не входить в стандартні категорії, додаємо в теги. Основне техзавдання дуже схоже на попередній пункт. Тільки створення тегів ми не передаємо в руки користувачів, а автоматизуємо процес по максимуму. Створюємо скрипт, який сам створює, розподіляє і видаляє теги зі сторінок в залежності від додавання або видалення тегів з адмінки. При додаванні нового контенту цей же скрипт здійснює підбір релевантних тегів з існуючих.

Складнощі будуть в розподілі контенту за тегами і тегів по контенту. Тут потрібен чіткий контроль. Плюс залишаються ті ж питання з дублями, що і в першому пункті.

В результаті отримуємо збільшення кількості посадочних сторінок під низькочастотні запити.

Динаміка трафіку в одному з проектів, в якому ми впровадили цей механізм:

Динаміка трафіку в одному з проектів, в якому ми впровадили цей механізм:

3. Механізм виправлення помилок в тегах

Впровадили попередні пункти? Ось вам третя ідея навздогін. Всі ці теги і сторінки користувацького пошуку не повинні містити помилок.

Для одного проекту міжнародного фотобанку ми зробили кластерізатор, за допомогою якого можна з безлічі запитів отримати список фраз без помилок разом з пов'язаними з даними фразами списками запитів з помилками. Тобто ми отримуємо список запитів без помилок, а до кожного запиту - список його копій з помилками. Потім склеюємо їх (301 редирект).

Не читайте статтю про те, як працює цей механізм , Все одно не зрозумієте;)

В результаті на сайті абсолютно немає проблем з дублюванням через граматичних помилок.

4. Підготовка бази знань для журналістів інтернет-видання

Для одного інтернет-видання ми підготували базу знань для журналістів. Це дуже простий крок, який вже почав приносити результат. У виданні багато журналістів раніше писали тільки для газет, досвіду в інтернет-журналістики у них мало. Як наслідок - неефективна робота і менше трафіку в порівнянні з конкурентами.

У базі знань зазначено, звідки можна брати ідеї для статей, як підбирати семантичне ядро, як формувати заголовки і текст, як підбирати теги до статей і так далі. За деякими пунктами записали скрінкасти для кращого засвоєння матеріалу.

Зараз журналісти ще впроваджують наші мануали. Але вже стали краще писати заголовки, проставляти посилання на релевантний контент в статтях.

5. Показ спеціальних пропозицій в заповненій або незаповненою кошику

Сторінка кошика - особливе місце. Тут людина послаблює свій захист «нічого не хочу, мені нічого не потрібно». Тому ми атакуємо.

Показуючи тематичні акційні пропозиції в заповненій кошику і ходові товари в порожній кошику, можна серйозно підняти середній чек.

У порожній кошику показуємо конкретні товари: найвищий показник продажів, самі чіпляють. Якщо людина ще не вибрав нічого, то є шанс його так зачепити. У заповненій кошику показуємо акції, знижки, бонуси, «до кінця періоду безкоштовної доставки залишилося» і так далі.

Важливо не злякати відвідувача. Пропозиція повинна бути акуратним і не заважати тому, хто чітко знає, навіщо він прийшов на сайт. Можна впровадити можливість додавати товар до замовлення, не йдучи зі сторінки кошика. Це ідеальний варіант.

6. Використання Google Doodles для збору трафіку

Гарна ідея для новинних сайтів і тематичних проектів. Створюємо Крут статтю під свято, щоб з'явитися у відповідь на питання про це свято. Природно, з використанням максимально якісної оптимізації. Прискорюємо індексацію статті усіма можливими способами.

Заздалегідь це робити немає сенсу. У топ вийдуть тільки новини. А для новин важлива свіжість. Так що в пост повинен бути опублікований в день появи Doodle.

В одному з проектів ми отримали додаткові 12 000 користувачів з пошуку і + 50% трафіку на сайт. За один день.

7. Парсинг соціальних мереж для постінгу пропозицій товарів або послуг

Парсинг соціальних мереж допомагає зі збором цільових постів для інтернет-магазинів і SAAS-сервісів. Це можуть бути питання: що / де / як купити / продати, куди сходити, де поїсти. Відгуки про те, як люди зробили щось з перерахованого. Відповідаємо на пости з посиланням (або без) на наш сайт.

Важливо обробляти найсвіжіші пости: один-два дня, і все застаріло.

В одному з проектів для парсинга ми створили симбіоз готових рішень і ручних доробок на основі таблиць Google і Google Apps Script. Але існує і багато готових рішень.

Що робити далі? Можна вручну розміщувати відповіді і коментарі, а можна створити бота, але в такому случе потрібно зробити генератор, який буде виглядати природно. Ми віддавали реузультати парсинга до відділу лінкбілдінга, і вони вже займалися подальшою роботою.

У нашому проекті за одну ітерацію було поставлено 30 посилань в Twitter, стільки ж отримали переходів. В результаті - шість асоційованих конверсій і плюс в кількість посилань.

До речі, ще більше трафіку дає парсинг цільових постів від лідерів думок .

висновки

  1. Охоплюємо низькочастотні запити за допомогою розширення структури за рахунок користувацького пошуку.
  2. Продовжуємо охоплювати низькочастотні запити, впроваджуючи механізм тегірованія сторінок сайту.
  3. Вирішуємо питання з дублюванням і граматичними помилками, впроваджуючи механізм виправлення помилок в тегах.
  4. Оптимізуємо новинний проект, підготувавши базу знань з пошукової оптимізації для журналістів.
  5. Збільшуємо середній чек, показуючи спеціальні пропозиції в заповненій або незаповненою кошику.
  6. Використовуємо Doodles для залучення додаткового трафіку в новинне видання.
  7. Парс соціальні мережі для збору свіжих цільових постів і пропонуємо релевантні товари і послуги.

Хочете розширити список? Діліться своїми знахідками в коментарях.

Що робити далі?
Хочете розширити список?