# MDenseña - Как использовать SEO Spider Tool Screaming Frog - MD Digital Marketing Blog

  1. Стенограмма видео
  2. Настройки Screaming Frog:
  3. Лоскутный анализ

В рейтинге инструментов, которые я использую чаще всего для работы с нашими клиентами, Screaming Frog SEO Spider занимает первое место.

Мы знаем, что у Google очень сложный алгоритм, который основывается на различных факторах позиционирования на странице и на странице.

Screaming Frog позволяет вам «имитировать» то, как робот Google видит факторы на странице, и иметь представление о том, что получает ваш сканер, чтобы определить точки улучшения в метатегах Заголовок, Описания, Каноникалы, Заголовки H1 / H2, Индекс мета-роботов / без индекса, URL, дубликаты страниц, коды конверсии, альтернативный текст в изображениях, скорость загрузки и многое другое. Для этого вы вводите исходную веб-страницу (обычно это основной домен нашего сайта), и оттуда программное обеспечение начинает рекурсивно сканировать все внутренние страницы, обнаруженные по каждой найденной гиперссылке.

Стенограмма видео

В этом видео мы собираемся поговорить о Screaming Frog SEO Spider, программе, которую я использую для сканирования всех внутренних URL-адресов веб-сайта и проведения быстрого SEO-аудита.

Программа доступна для Windows, Mac и Linux. Он сделан в JAVA, поэтому он мультиплатформенный. Он имеет бесплатную версию, которая ограничивается сканированием до 500 внутренних URL-адресов веб-сайта.

Лицензия выходит за 99 фунтов, и я очень рекомендую это, потому что это очень полезно.

Настройки Screaming Frog:

В «Пауке» активны все опции для полного анализа сайта (мы не ставим никаких ограничений).

В «Исключить» мы можем удалить раздел, чтобы ускорить процесс сканирования или, если мы хотим проанализировать конкретную часть. В моем случае я собираюсь удалить блог, чтобы сделать его быстрее.

В «Скорость» вы можете настроить скорость с количеством потоков, которые вы будете держать открытыми одновременно. Я обычно оставляю пять, мне иногда нравится, когда я действительно тороплюсь поставить больше, но вы должны быть осторожны, чтобы иногда серверы блокировали IP после одновременного выполнения большого количества запросов. Если сервер это позволяет, увеличение количества потоков увеличивает скорость.

Другим интересным вариантом является выбор другого агента пользователя, например, когда мы хотим отсканировать сайт в мобильной версии, настроив «Googlebot-Mobile», мы можем увидеть, как робот Google будет видеть мобильную версию сайта.

Мы также можем настроить определенный блок кода, который мы хотим охватить, если он существует на веб-сайте, я использую его больше всего для поиска в Google Analytics UA-XXXXXXX-X, чтобы отфильтровать, на каких страницах реализован код отслеживания (и в каких нет).

Мы анализируем, чтобы объяснить закрылки программы.

(Пока работает паук)

В нижнем разделе показано, сколько URL-адресов анализируется одновременно, а в правом нижнем углу - сколько еще предстоит проанализировать. Справа от «Очистить» показывает общий анализируемый процент.

Поскольку я удалил блог, он будет довольно быстрым, но это во многом зависит от количества URL-адресов, которые есть на сайте. Опять же, если у нас больше 500 (это было всего 499), но оно не будет отображать больше 500, если у нас не настроена лицензия.

Лоскутный анализ

Во внутренней вкладке он оставляет нам информацию обо всем, что было отсканировано, показывает не только HTML, но также JavaScript, CSS, изображения, PDF и т. Д.

В частности, я использую внутренние и внешние закрылки для фильтрации, если у нас есть какая-то ошибка 404 какого-либо сайта, страницы или ресурса, который загружается неправильно. В этом случае это все хорошо, и внешние тоже (кроме двух, которые дали Connection отказался). Вы можете дать Re-Spider для повторного сканирования.

Клавиша URI, которую я использую, чтобы увидеть, какие страницы дублируются. Каждый раз, когда Screaming Frog сканирует исходный код страницы, он возвращает HASH, который однозначно идентифицирует содержимое. Буквенно-цифровой код рассчитывается на основе всего HTML-кода этой конкретной веб-страницы. Это означает, что если две страницы имеют одинаковый хэш, они являются дублирующимися страницами, которые с разными URL-адресами имеют одинаковое содержимое. Их можно быстро отфильтровать и экспортировать для отправки программисту или изменить какой-либо параметр, чтобы они перестали быть репликами.

Тогда у нас есть лацкан с заголовками страниц, описаниями, H1 и H2. На этих закрылках я проверяю что-то похожее в каждой из колонок; Это, в принципе, Названия, сделанные во всех разделах.

Фильтрация с помощью «Отсутствует» сообщает нам, какие страницы отсутствуют. Это также относится к описаниям страниц.

То же самое для ключевых слов Meta, они больше не используются для SEO (сам Bing), но это полезно для извлечения информации: если она отсутствует, если настроено много (при оптимизации - заполнение ключевых слов); мы также можем увидеть, являются ли они дубликатами или они имеют длину более 56 символов. Возможно, они сокращаются Google в поисковой выдаче.

Вы можете быстро проанализировать все заголовки html-страниц в Интернете и, в случае обнаружения дубликатов или, если они отсутствуют, вы можете экспортировать их и передать их программисту для их исправления.

Тот же анализ применяется к мета-описаниям.

В изображениях мы можем отфильтровать файлы размером более 100 Кб, чтобы оптимизировать их и повысить скорость загрузки. У них очень длинный альтернативный текст, более 100 символов. Это может произойти с тем, кто попытался оптимизировать изображения и поставить ключевые слова для других, понимая, что это улучшает позиционирование.

Наиболее используемый фильтр - это тот, который позволяет увидеть, для каких изображений не настроен альтернативный текст, что-то общее.

На вкладке «Директивы» я хотел бы узнать, какие URL имеют свою каноническую метку, чтобы узнать, является ли она правильной, а какие были канонизированы, чтобы убедиться, что URL, помеченный как истинный, является правильным.

Затем мы можем исследовать страницы, которые не индексируются, если мы не хотим индексировать какую-либо конкретную страницу или если есть ошибка, при которой мета-роботы не индексируют, и на самом деле мы хотим проиндексировать ее.

На вкладке «Пользовательские» есть настраиваемые фильтры, которые мы настраиваем для фильтрации кода конверсии adwords или аналитики, пикселя конверсии facebook или любого конкретного кода, который является уникальным и который мы хотим увидеть, присутствует ли он на всех веб-страницах.

Еще один интересный вариант - создание файлов Sitemap: быстро, всего за пару кликов, мы можем подготовить его для загрузки на FTP.

Конечно, есть больше функций, которые ускользают от меня, я в основном хотел показать, что я использую нормально, программа очень полная, и если вы найдете что-нибудь интересное, что я не назвал, я хотел бы знать.

Автор: Хуан Игнасио Ретта

SEO аналитик цифрового маркетинга MD

# MDenseña - Screaming Frog SEO Spider Tool

Оцените этот пост

Последние сообщения от Manuel Tacconi ( увидеть все )

Последние новости:
10 лучших игр и игрушек для детей 2-5 лет в самолете или поезде – чем занять ребенка в дороге?

Малыш уже достиг возраста 2 месяцев, а ведь так недавно он был совсем еще беспомощным. Теперь вы замечаете,

Еще совсем недавно появившись на свет, ребеночек трех месяцев стремительно растет и развивается. Родители

                                     В этот период развитию ребенка будет способствовать

Малыш 4-7 месяцев от роду обычно уже активно стремится сидеть, либо уже сидит. Пусть даже просто на коленях

Проводя раскопки в местах древнейших поселений людей, археологи часто находят детские игрушки: погремушки,

  Хотя малыш еще совсем недавно появился на свет, игрушки для месячного ребенка нужны, ведь развитием

25 лучших развивающих игр для новорожденных – развивающие занятия с рождения до полугода Большое заблуждение

» Ребенку 6 месяцев Какие игрушки нужны детям в 6 месяцев Погремушки, мячики, резиновые

Дети в этом возрасте все активнее познают окружающий мир, все больше вещей они умеют делать самостоятельно