Скрипт подбора дропов
Подбираем тематические дропы по ключам и тянем контент с вебархива.
Доброго времени. Анонсирую комплекс для работы с ВэбАрхивом по части поиска контента по запросам.
Помимо очевидной механики, софт дополняется системой для редактора по части планирования сбора статей. Еще одна особенность программы, это проверка занятости найденных доменов и чекер параметров DA / PA / Alexa / SemRush через API seo-rank, за 1к запросов 0.04$
Варианты применения:
Технические данные:
PHP 5.4, MySQL, cURL. Нагрузка минимальная, чекинг одних и тех же доменов в пределах дня не дублируется. Прямой парсинг и посредством прокси (ip:порт). Помощь в установке при надобности. Открытый код, отсутствие лицензирования.
Продажник:
Подбираем тематические дропы по ключам и тянем контент с вебархива.
Доброго времени. Анонсирую комплекс для работы с ВэбАрхивом по части поиска контента по запросам.
Помимо очевидной механики, софт дополняется системой для редактора по части планирования сбора статей. Еще одна особенность программы, это проверка занятости найденных доменов и чекер параметров DA / PA / Alexa / SemRush через API seo-rank, за 1к запросов 0.04$
Варианты применения:
- Наполнение, дополнение контентом сайтов. Это основная задача программы - найти уже отжившие своё сайты, на которых есть релевантный уник контент.
- Поиск авторитетных доменов, на которых ранее размещался контент нужной тематики.
- Экономия при наполнении сайтов под бурж, методика п.1
- Использования контента при размещении на сторонних площадках для экономии средств на написание.
- Видел канал на Дзене, наполняемый за счет таких статей. Много просмотров.
- Поиск статей в бурже для дальнейшего перевода на русский.
- Создаем проект, добавляем первый ключ.
- Парсится архив по ключу, принимается список доменов со сниппетами и заголовками.
- Проверяется ответ от доменов. Работающие домены удаляются, остальные проверяются на занятость (парсинг whois).
- Свободные проверяются на авторитетность (API seo-rank, 4 цента за 1к проверок).
- Открываем поочередно каждый сайт, проверяем на уникальность первые две статьи (первый абзац вставляем в Яндекс, смотрим на уникальность). Если есть уник, жмёт в блоке сайта "в работу".
- Переходим в раздел "в работе", выбираем первый сайт, ищем на нем уник. Найденные статьи добавляем в план (название и урл).
- Сформировав пул ссылок на уник, начинаем копировать руками, после каждой нажимая кнопку "взята" (будет зачёркнута).
- Если у вас есть сотрудники, можно предоставить им доступ к плану проекта, чтобы дёргали материал сами. Опция разграничения прав тоже заложена.
- В финале вы сможете посмотреть все свободные домены в рамках проекта (по всем ключам), отсортировав по нужным параметрам (авторитетность, кол-во ссылок, alexa rank и прочим).
- Если вас интересует только поиск доменов, механика та же: вводим массив ключей, парсим данные, а после переходим сразу к "доменам проекта".
Технические данные:
PHP 5.4, MySQL, cURL. Нагрузка минимальная, чекинг одних и тех же доменов в пределах дня не дублируется. Прямой парсинг и посредством прокси (ip:порт). Помощь в установке при надобности. Открытый код, отсутствие лицензирования.
Продажник:
https://searchengines.guru/showthread.php?t=1011758