Netpeak Spider: обзор программы для сканирования сайта

Обновлено: 11.12.2018

Netpeak Spider - десктопная программа для сканирования сайта и проведения его технического SEO анализа. Программа проходит по каждой странице вашего сайта собирая данные о них.

Инструмент позволяет:

  • Проверять более 50 основных SEO параметров
  • Определять ошибки внутренней оптимизации
  • Анализировать входящие/исходящие внутренние ссылки
  • Находить битые ссылки, дубликаты контента
  • Анализировать мета данные (title, description), заголовки h1, h2 и т.д.
  • Проверять Robots.txt, Meta Robots, X-Robots-Tag, Canonical
  • Рассчитывать внутренний вес страниц (PageRank)

И все это дело можно проанализировать в самой программе или экспортировать в таблицы Excel и играться со значениями уже там.

Сайт программы: https://netpeaksoftware.com/ru/spider

Стоимость: программа работает по подписке от 9.8$ в мес.

Бесплатный период: 14 дней

Промокод на скидку 10%: internetmajor

Чтобы установить программу скачайте на сайте Netpeak Launcher, а в нем уже нажмите установить Netpeak Spider.

Анализ сайта в Netpeak Spider

Чтобы проанализировать сайт указываем в программе его URL, выбираем на боковой панели все необходимые для анализа параметры и нажимаем старт. Кстати, параметры можно выбирать по одному из предустановленных шаблонов, либо же создавать свои собственные для использования в других проектах.

netpeak spider старт

После завершения процесса, на панели вы получаете красивый отчет о проделанной работе.

netpeak spider отчет

Отчет индексация

Все данные кликабельные, например мы можем нажать на неиндексируемый кусок в диаграмме на Дашборде и увидеть все страницы, которые закрыты у вас от индексации и уже принять решение что с ними делать.

netpeak spider вкладка не проиндексированные страницы

Здесь показываются именно страницы, которые закрыты в robots.txt, Meta Robots, X-Robots-Tag, или отдают код ответа отличающийся от 200. То есть программа проверяет сайт на уровне доступности кода, а не на предмет индексации в поисковой системы. Часто бывает такое, что страницы закрыты в Robots.txt, но находятся в индексе, поэтому рекомендую проверить закрытые страницы на индексацию, напрямую через поисковые системы.

Если вы в этой вкладке видите нужные вам страницы, то следует их открыть для индексации.

Если спустится ниже диаграммы, то можно увидеть другую диаграмму, где у нас уже показываются подробные причины не индексируемости.

netpeak spider причины не индексации

Причины по которым программа посчитала, что ваш контент не индексируется могут быть следующие:

  1. В вашей CMS стоит настройка приватности
  2. Ваши страницы заблокированы в Robots.txt
  3. Страницы закрыты тегом robots
  4. Ресурс закрыт в htaccess.
  5. Закрытие на уровне заголовков X-robots-tag
  6. Ошибка ответа сервера

После открытия нужных страниц для индексации, вам может понадобиться ускорить попадания их в индекс, читайте нашу статью как это можно сделать с помощью всевозможных способов.

Отчет ошибки

В диаграмме "критичность ошибок", проблемы разделены по важности, что очень удобно. Так же более подробно о каких ошибках идет речь, можно увидеть в правой части программы.

netpeak spider отчет ошибки

Здесь мы можем посмотреть и битые ссылки, и висячие узлы, ошибки ответа сервера, дубли title, h1 и т.д. То есть здесь представлен весь внутренний SEO анализ. На каждую вкладку мы можем отдельно перейти и посмотреть все URL, которые относятся к этой ошибке.

Если вы не очень хорошо знакомы с SEO, то в программе предусмотрен и этот момент. Каждая ошибка расшифровывается. Жалко только, что не пишет, что делать с этой ошибкой, но скорее всего этого не реализовали, так как сайты и ситуации у всех разные, соответственно и ошибки могут исправляться по разному.

netpeak spidet подсказки

Отчет время ответа сервера

Очень наглядный и полезный отчет, который можно получить не для всего сайта, а для каждой страницы отдельно и уже на основе данных проработать скорость каждой страницы и ответа сервера.

netpeak spider ответ сервера

Отчет структура сайта

Еще один очень полезный отчет, позволяющий полностью увидеть уровень вложенности статей и структуру своего сайта. И уже дорабатывать статьи с высоким уровнем вложенности.

netpeak spider отчет структура сайта

Отчет по URL

На вкладке “Все результаты” можно вывести отчет просто всех URL своего сайта и посмотреть параметры каждой страницы: код ответа сервера, title, h1, кол-во контента на странице, сколько изображений на странице, входящие, исходящие ссылки и многое другое. Все это можно экспортировать в Excel и уже работать с этим там.

Самое интересное в этом отчете - это распределение внутреннего PageRank. На основе которого можно проработать свою внутреннюю перелинковку.

netpeak spider page rank

Сегментация

В программе можно выводить определенные рубрики или задавать свои сегменты. Например вывести только страницы с такой то ошибкой или определенным кодом ответа сервера. В общем фильтрация очень гибкая можно задавать множество условий "И", "ИЛИ". В общем крутить отчеты как душе угодно.

netpeak spider сегментация

Виртуальный Robots.txt

Еще прикольная фишка, это создание виртуального robots.txt. Например вы создаете новый сайт или тестируете на старом сайте robots.txt, вам не обязательного его создавать на своем сайте, вы можете это сделать с помощью виртуального robots.txt, заполнить его, просканировать сайт и только потом когда будете удовлетворены отчетом, залить этот robots.txt себе на сайт.

Мой отзыв о программе

Я всегда проводил аудит сайта в аналогичной зарубежной программе Screaming Frog SEO Spider, но честно скажу, Netpeak Spider меня удивил и мне понравился больше. В основном из за понятного интерфейса, более интересных отчетов и данных, которых нет у программ конкурентов. Резюмируем.

Плюсы

  • Удобное юзабилити программы
  • Красивая визуализация данных и понятные отчеты
  • Быстрый парсинг
  • Русский язык
  • Расчет внутреннего PageRank
  • Подсветки проблемных URL
  • Ошибки разбиты на категории
  • Гибкая сегментация
  • Виртуальный robots.txt
  • Подсказки для новичков

Минусы

Пожалуй единственный минус - это цена. Но политику подписки можно понять - программа постоянно развивается и требует ресурсов, с такой формой оплаты можно быть уверенным что софт будет развиваться.

Александр Овсянников
Занимаюсь продвижением и заработком на сайтах с 2009 года.
Добавить комментарий