1 В избранное 0 Ответвления 0

OSCHINA-MIRROR/Yang_Feng1-densepose

Присоединиться к Gitlife
Откройте для себя и примите участие в публичных проектах с открытым исходным кодом с участием более 10 миллионов разработчиков. Приватные репозитории также полностью бесплатны :)
Присоединиться бесплатно
Клонировать/Скачать
GETTING_STARTED.md 4.5 КБ
Копировать Редактировать Web IDE Исходные данные Просмотреть построчно История
gitlife-traslator Отправлено 30.11.2024 14:45 0f9b35a

Использование Detectron

В этом документе представлены краткие руководства, охватывающие DensePose для вывода и обучения на наборе данных DensePose-COCO. Этот документ представляет собой модифицированную версию файла detectron/GETTING_STARTED.md.

  • Для получения общей информации о DensePose см. файл [README.md].
  • Инструкции по установке см. в файле [INSTALL.md].

Вывод с использованием предварительно обученных моделей

1. Каталог файлов изображений

Чтобы запустить вывод для изображения (или каталога файлов изображений), можно использовать инструмент infer_simple.py. В этом примере мы используем модель DensePose-RCNN с полным стеком, обученную сквозным образом, с бэкендом ResNet-101-FPN из зоопарка моделей:

python2 tools/infer_simple.py \
    --cfg configs/DensePose_ResNet101_FPN_s1x-e2e.yaml \
    --output-dir DensePoseData/infer_out/ \
    --image-ext jpg \
    --wts https://dl.fbaipublicfiles.com/densepose/DensePose_ResNet101_FPN_s1x-e2e.pkl \
    DensePoseData/demo_data/demo_im.jpg

DensePose должен автоматически загрузить модель из URL, указанного аргументом --wts. Этот инструмент выведет визуализации обнаружений в формате PDF в каталог, указанный аргументом --output-dir. Также он выведет два изображения *_IUV.png и *_INDS.png, которые состоят из каналов I, U, V и сегментированных индексов экземпляров соответственно. Визуализации этих выходных данных см. в записной книжке [notebooks/DensePose-RCNN-Visualize-Results.ipynb].

Тестирование с использованием предварительно обученных моделей Убедитесь, что вы скачали файлы оценки DensePose, как указано в файле [INSTALL.md]. В этом примере показано, как запустить модель DensePose-RCNN, обученную сквозным образом, из зоопарка моделей, используя один GPU для вывода. В этой конфигурации будет выполнен вывод для всех изображений в coco_2014_minival (которые должны быть правильно установлены):

python2 tools/test_net.py \
    --cfg configs/DensePose_ResNet101_FPN_s1x-e2e.yaml \
    TEST.WEIGHTS https://dl.fbaipublicfiles.com/densepose/DensePose_ResNet101_FPN_s1x-e2e.pkl \
    NUM_GPUS 1

Обучение модели

Этот пример показывает, как обучить модель с использованием набора данных DensePose-COCO. Модель будет представлять собой модель DensePose-RCNN, обученную сквозным образом, с бэкэндом ResNet-50-FPN.

python2 tools/train_net.py \
    --cfg configs/DensePose_ResNet50_FPN_single_GPU.yaml \
    OUTPUT_DIR /tmp/detectron-output

Модели, которые мы предоставили в зоопарке моделей, обучаются с использованием 8 графических процессоров. Как и в любых конфигурациях Detectron, мы используем правило линейного масштабирования для корректировки графиков обучения. Пожалуйста, обратитесь к следующей статье: Accurate, Large Minibatch SGD: Training ImageNet in 1 Hour. Мы также предоставляем скорость обучения и количество итераций для различного количества графических процессоров.

Опубликовать ( 0 )

Вы можете оставить комментарий после Вход в систему

1
https://api.gitlife.ru/oschina-mirror/Yang_Feng1-densepose.git
git@api.gitlife.ru:oschina-mirror/Yang_Feng1-densepose.git
oschina-mirror
Yang_Feng1-densepose
Yang_Feng1-densepose
master