1 В избранное 0 Ответвления 0

OSCHINA-MIRROR/crawlab-team-crawlab

Присоединиться к Gitlife
Откройте для себя и примите участие в публичных проектах с открытым исходным кодом с участием более 10 миллионов разработчиков. Приватные репозитории также полностью бесплатны :)
Присоединиться бесплатно
Клонировать/Скачать
Внести вклад в разработку кода
Синхронизировать код
Отмена
Подсказка: Поскольку Git не поддерживает пустые директории, создание директории приведёт к созданию пустого файла .keep.
Loading...
README.md

Фронтенд

Фронтенд-приложение создано на основе Element-Plus, популярного фреймворка пользовательского интерфейса на базе Vue 3. Оно взаимодействует с API, размещённым на главном узле, и косвенно управляет рабочими узлами.

Интеграция с другими фреймворками

Crawlab SDK предоставляет некоторые вспомогательные методы, которые упрощают интеграцию ваших пауков в Crawlab, например сохранение результатов.

Scrapy

В settings.py вашего проекта Scrapy найдите переменную с именем ITEM_PIPELINES (переменная типа dict). Добавьте содержимое ниже.

ITEM_PIPELINES = {
    'crawlab.scrapy.pipelines.CrawlabPipeline': 888,
}

Затем запустите паука Scrapy. После завершения работы вы сможете увидеть результаты сканирования в разделе Задача детализации -> Данные.

Общий паук Python

Добавьте следующее содержимое в файлы пауков, чтобы сохранить результаты.

# импортировать метод сохранения результатов
from crawlab import save_item

# это запись результата, должна быть переменная типа dict
result = {'name': 'crawlab'}

# вызвать метод сохранения результата
save_item(result)

Затем запустите паука. После завершения работы вы сможете увидеть результаты сканирования в разделе Задача детализации -> Данные.

Другие фреймворки / языки

Задача сканирования фактически выполняется через командную строку. Идентификатор задачи будет передан процессу задачи сканирования в виде переменной среды с именем CRAWLAB_TASK_ID. Таким образом, данные можно связать с задачей.

Сравнение с другими фреймворками

Существуют существующие платформы управления пауками. Зачем использовать Crawlab?

Причина в том, что большинство существующих платформ зависят от Scrapyd, который ограничивает выбор только Python и Scrapy. Конечно, Scrapy — отличный фреймворк для веб-сканирования, но он не может делать всё.

Crawlab прост в использовании, достаточно универсален, чтобы адаптировать пауков на любом языке и в любой среде. У него также есть красивый интерфейс фронтенда, позволяющий пользователям гораздо проще управлять пауками.

Фреймворк Технология Плюсы Минусы Статистика Github
Crawlab Golang + Vue Не ограничивается Scrapy, доступен для всех языков программирования и фреймворков. Красивый интерфейс UI. Естественно поддерживает распределённых пауков. Поддерживает управление пауками, управление задачами, задание cron, экспорт результатов, аналитику, уведомления, настраиваемые пауки, онлайн-редактор кода и т. д. Пока не поддерживает управление версиями пауков
ScrapydWeb Python Flask + Vue Красивый интерфейс UI, встроенный анализатор журналов Scrapy, статистика и графики выполнения задач, поддержка управления узлами, задание cron, уведомление по электронной почте, мобильное приложение. Полнофункциональная платформа управления пауками. Не поддерживает пауков кроме Scrapy. Ограниченная производительность из-за бэкенда Python Flask
Gerapy Python Django + Vue Gerapy создан гуру веб-краулеров Germey Cui. Простая установка и развёртывание. Красивый интерфейс UI. Поддержка управления узлами, редактирования кода, настраиваемых правил сканирования и т.д. Опять же не поддерживает пауков кроме Scrapy. Множество ошибок на основе отзывов пользователей в версии v1.0. Надеемся на улучшение в версии v2.0
SpiderKeeper Python Flask Open-source Scrapyhub. Краткий и простой интерфейс UI. Поддерживает задание cron. Возможно, слишком упрощён, не поддерживает разбиение на страницы, не поддерживает управление узлами, не поддерживает пауков кроме Scrapy

Авторы

## Сообщество и спонсорская поддержка

Если вы считаете, что Crawlab может быть полезен в вашей повседневной работе или в компании, пожалуйста, добавьте автора в Wechat с пометкой «Crawlab», чтобы присоединиться к обсуждению. Или отсканируйте QR-код Alipay ниже, чтобы вознаградить нас и помочь улучшить наше командное программное обеспечение или купить кофе.

Комментарии ( 0 )

Вы можете оставить комментарий после Вход в систему

Введение

Distributed web crawler admin platform for spiders management regardless of languages and frameworks. Развернуть Свернуть
BSD-3-Clause
Отмена

Обновления

Пока нет обновлений

Участники

все

Недавние действия

Загрузить больше
Больше нет результатов для загрузки
1
https://api.gitlife.ru/oschina-mirror/crawlab-team-crawlab.git
git@api.gitlife.ru:oschina-mirror/crawlab-team-crawlab.git
oschina-mirror
crawlab-team-crawlab
crawlab-team-crawlab
master