1. Новые покупки

    19.10.2018: Мастер группа по настройке рекламы на Амазон - ACoS.PRO

    18.10.2018: Турбо Запуск Товарного Бизнеса за 1 День пакет Red Dimond максимальный!

    17.10.2018: Как стать видеоблоггером - от автора Дневник Хача - Практический курс по запуску блога на YouTube

    17.10.2018: Автоматизированный бот Telegram

    16.10.2018: [HTML5] Gum - конструктор лендингов + 210 элементов и 25 готовых шаблонов

    14.10.2018: [ЧК-FREE] Греби тонны трафика из вк [ОЧЕНЬ ЛЕГКО И БЫСТРО]

    14.10.2018: Массовая рассылка писем - до 10тыс/день (скрипт + сервис)

    14.10.2018: [Виталий Шелест] - Профессиональный e-mail маркетинг 2018

    12.10.2018: FBCONF - Все о бизнесе в Facebook и Instagram (2018)

    11.10.2018: LPACK: создаём лендинги западного уровня при помощи шаблонов + как на этом заработать + 550 шаблонов

    11.10.2018: Как сделать 1 000 000 рублей за 6 месяцев торговли на форекс.Реальные стратегии.

    10.10.2018: Бестопливная электростанция.

    09.10.2018: Амазон-1000 (третий марафон) - AmazonSales КУРС О РАБОТЕ С ПАРТНЕРКОЙ АМАЗОН

    08.10.2018: Оптовый бизнес с нуля за 21 день без вложений

    07.10.2018: InstaTool Pro 1.6.9.7

    06.10.2018: Марафон "Спарта" октябрь 2017 - [Роман Пузат]

    05.10.2018: [Артур Гранд и Виталий Гандзий] - Профессия мастер РСЯ

    05.10.2018: Создаем оригинальные видеоролики для постов, продвижения товаров/услуг, трафика

    04.10.2018: 1000 шаблонов Landing page, и 200 эксклюзивных.

    04.10.2018: Льём трафик из ВК (Схема + Кейсы)

    04.10.2018: Научу грести трафик. Только успевай сервера покупать!

    04.10.2018: Instagram + буржунет. Тотальное палево фишек, софт и кейсы (видеокурс)

    04.10.2018: Как запустить массовые продажи физических товаров в крупных городах

    04.10.2018: Покупаем Турбо пакеты на Авито со скидкой до 80% + Приват фишки, Бонусы [Zennoposter], Турбо Продажи

    04.10.2018: PRO Прибыльный интернет-магазин

Скрыть объявление

Схемы заработка

Складчины

Инфопродукты

Скрыть объявление
На сайте доступно более 50.000 инфопродуктов, схем заработка и складчин

Netpeak Spider

Тема в разделе "Программы/Скрипты/Базы", создана пользователем poohhf, 12 фев 2014.

  1. poohhf

    poohhf Гость

    [​IMG]
    Программа «Netpeak Spider» — уникальный инструмент, предназначенный для сканирования и анализа сайта с помощью собственного робота.

    • сканирование сайтов и выгрузка основных SEO-параметров страниц с помощью собственного робота;
    • поиск ошибок, битых ссылок, неправильных редиректов, дубликатов title, description, keywords и т.д.;
    • анализ входящих и исходящих внутренних ссылок для каждой страницы сайта;
    • расчёт внутреннего PageRank;
    • гибкие настройки сканирования и экспорт данных в формате Excel;
    • всё это бесплатно!
    Цитата

    Netpeak Spider предназначен для сканирования сайтов и выгрузки основных SEO-параметров страниц с помощью собственного робота. В программе имеется уникальная возможность расчёта внутреннего PageRank и PageRank без учёта сквозных ссылок, а также экспорта полученных результатов в Excel.

    Гибкие настройки сканирования позволяют включать/отключать:

    • учёт параметризованных и якорных ссылок, изображений и js-файлов;
    • использование файла robots.txt при сканировании;
    • добавление в таблицу страниц на поддоменах сканируемого сайта.

    Список параметров страниц, анализируемых программой «Netpeak Spider»:

    URL – адрес страницы.
    Глубина – уровень расположения страницы относительно главной.
    LinkCanonical – определяется наличие атрибута rel="canonical" и на какой адрес он указывает.
    Ответ – код состояния HTTP в ответе сервера (200 OK, 301 Moved Permanently, 302 Moved Temporarily, 404 Not Found, 503 Service Unavailable и т.д.).
    Title – тег "title", расположенный в контейнере "head", который определяет заголовок документа.
    Description – содержание мета-тега, отвечающего за краткое описание содержимого веб-страницы.
    Keywords – содержание мета-тега, отвечающего за ключевые слова, встречаемые на веб-странице.
    robots.txt – определяется, разрешена (allowed) или запрещена (disallowed) индексация страницы поисковыми системами в файле robots.txt.
    MetaRobots – определяется наличие мета-тега "robots", а также разрешена (index) или запрещена (noindex) индексация страницы поисковыми системами и разрешён (follow) или запрещён (nofollow) переход по ссылкам на данной странице с его помощью.
    Редиректы – количество перенаправлений со страницы.
    Заголовки (H1) – количество заголовков первого уровня.
    Ссылки с этой страницы – количество исходящих ссылок с данной страницы в пределах всего сайта.
    Ссылки на эту страницу – количество входящих ссылок на данную страницу в пределах всего сайта.
    Внутренние ссылки – количество ссылок с данной страницы на сканируемый сайт.
    Внешние ссылки – количество ссылок с данной страницы на другие сайты.
    PR – расчёт внутреннего показателя PageRank текущей страницы.
    PR (без сквозных ссылок) – расчёт внутреннего показателя PageRank без учёта сквозных ссылок, которые встречаются более чем на 50% страниц сканируемого сайта.
    Дубли по Title – определяются группы страниц с дублирующимся тегом "title".
    Дубли по Description – определяются группы страниц с дублирующимся мета-тегом "description".
    Дубли по Keywords – определяются группы страниц с дублирующимся мета-тегом "keywords".

    Скачать бесплатно тут
    UnHidden Content:
    http://netpeak.ua/downloads/netpeak-spider-setup.exe
     
    #1 poohhf, 12 фев 2014
    Последнее редактирование модератором: 29 янв 2015
    Абрамович нравится это.