Использование Detectron
В этом документе представлены краткие руководства, охватывающие DensePose для вывода и обучения на наборе данных DensePose-COCO.
Этот документ представляет собой модифицированную версию файла detectron/GETTING_STARTED.md
.
README.md
].INSTALL.md
].Вывод с использованием предварительно обученных моделей
Чтобы запустить вывод для изображения (или каталога файлов изображений), можно использовать инструмент infer_simple.py
. В этом примере мы используем модель DensePose-RCNN с полным стеком, обученную сквозным образом, с бэкендом ResNet-101-FPN из зоопарка моделей:
python2 tools/infer_simple.py \
--cfg configs/DensePose_ResNet101_FPN_s1x-e2e.yaml \
--output-dir DensePoseData/infer_out/ \
--image-ext jpg \
--wts https://dl.fbaipublicfiles.com/densepose/DensePose_ResNet101_FPN_s1x-e2e.pkl \
DensePoseData/demo_data/demo_im.jpg
DensePose должен автоматически загрузить модель из URL, указанного аргументом --wts
. Этот инструмент выведет визуализации обнаружений в формате PDF в каталог, указанный аргументом --output-dir
. Также он выведет два изображения *_IUV.png
и *_INDS.png
, которые состоят из каналов I, U, V и сегментированных индексов экземпляров соответственно. Визуализации этих выходных данных см. в записной книжке [notebooks/DensePose-RCNN-Visualize-Results.ipynb
].
Тестирование с использованием предварительно обученных моделей
Убедитесь, что вы скачали файлы оценки DensePose, как указано в файле [INSTALL.md
].
В этом примере показано, как запустить модель DensePose-RCNN, обученную сквозным образом, из зоопарка моделей, используя один GPU для вывода. В этой конфигурации будет выполнен вывод для всех изображений в coco_2014_minival
(которые должны быть правильно установлены):
python2 tools/test_net.py \
--cfg configs/DensePose_ResNet101_FPN_s1x-e2e.yaml \
TEST.WEIGHTS https://dl.fbaipublicfiles.com/densepose/DensePose_ResNet101_FPN_s1x-e2e.pkl \
NUM_GPUS 1
Обучение модели
Этот пример показывает, как обучить модель с использованием набора данных DensePose-COCO. Модель будет представлять собой модель DensePose-RCNN, обученную сквозным образом, с бэкэндом ResNet-50-FPN.
python2 tools/train_net.py \
--cfg configs/DensePose_ResNet50_FPN_single_GPU.yaml \
OUTPUT_DIR /tmp/detectron-output
Модели, которые мы предоставили в зоопарке моделей, обучаются с использованием 8 графических процессоров. Как и в любых конфигурациях Detectron, мы используем правило линейного масштабирования для корректировки графиков обучения. Пожалуйста, обратитесь к следующей статье: Accurate, Large Minibatch SGD: Training ImageNet in 1 Hour. Мы также предоставляем скорость обучения и количество итераций для различного количества графических процессоров.
Вы можете оставить комментарий после Вход в систему
Неприемлемый контент может быть отображен здесь и не будет показан на странице. Вы можете проверить и изменить его с помощью соответствующей функции редактирования.
Если вы подтверждаете, что содержание не содержит непристойной лексики/перенаправления на рекламу/насилия/вульгарной порнографии/нарушений/пиратства/ложного/незначительного или незаконного контента, связанного с национальными законами и предписаниями, вы можете нажать «Отправить» для подачи апелляции, и мы обработаем ее как можно скорее.
Опубликовать ( 0 )