1 В избранное 0 Ответвления 0

OSCHINA-MIRROR/mirrors-AlphaPose

Присоединиться к Gitlife
Откройте для себя и примите участие в публичных проектах с открытым исходным кодом с участием более 10 миллионов разработчиков. Приватные репозитории также полностью бесплатны :)
Присоединиться бесплатно
Клонировать/Скачать
Внести вклад в разработку кода
Синхронизировать код
Отмена
Подсказка: Поскольку Git не поддерживает пустые директории, создание директории приведёт к созданию пустого файла .keep.
Loading...
README.md

Новости!

  • Ноябрь 2022: Опубликована статья о AlphaPose! Подробнее читайте в статье.
  • Сентябрь 2022: Выпущена версия AlphaPose с использованием Jittor! На этапе обучения достигается увеличение скорости на 1,45 раза при использовании backbone'а resnet50.
  • Июль 2022: Выпущена версия v0.6.0 AlphaPose! Поддерживается HybrIK для оценки 3D поз и формы!
  • Январь 2022: Выпущена версия v0.5.0 AlphaPose! Усиленные ключевые точки всего тела (лицо, руки, ноги)! Доступны больше моделей. Подробнее читайте в docs/MODEL_ZOO.md.
  • Август 2020: Выпущена версия v0.4.0 AlphaPose! Улучшенный трекинг! Включены ключевые точки всего тела (лицо, руки, ноги)! Теперь доступна Colab!
  • Декабрь 2019: Выпущена версия v0.3.0 AlphaPose! Более компактная модель, более высокая точность!
  • Апрель 2019: Выпущена версия AlphaPose с использованием MXNet! Она работает со скоростью 23 кадра в секунду на наборе данных COCO.
  • Февраль 2019: Интегрирована система CrowdPose в AlphaPose!
  • Декабрь 2018: Выпущена общедоступная версия PoseFlow! В три раза быстрее и поддерживает визуализацию результатов трекинга поз!
  • Сентябрь 2018: Выпущена версия v0.2.0 AlphaPose! Она работает со скоростью 20 кадров в секунду на наборе данных COCO (в среднем 4,6 человека на изображении) и достигает метрики качества 71 mAP!## AlphaPose AlphaPose — это точная многопользовательская система оценки поз, которая является первой открыто-источниковой системой, достигшей метрики качества 70+ mAP (75 mAP) на наборе данных COCO и 80+ mAP (82,1 mAP) на наборе данных MPII. Для соответствия поз, которые относятся к одному и тому же человеку между кадрами, мы также предоставляем эффективный онлайн-трекер поз Pose Flow. Это первая открыто-источниковая система онлайн-трекера поз, достигшая как метрики качества 60+ mAP (66,5 mAP), так и 50+ MOTA (58,3 MOTA) на наборе данных PoseTrack Challenge. AlphaPose поддерживает как Linux, так и Windows!

COCO 17 ключевых точек

SMPL + трекинг

Результаты

Оценка позы

Результаты на тестовой выборке COCO 2015:

Метод AP @0.5:0.95 AP @0.5 AP @0.75 AP средний AP большой
OpenPose (CMU-Pose) 61.8 84.9 67.5 57.1 68.2
Detectron (Mask R-CNN) 67.0 88.0 73.1 62.2 75.6
AlphaPose 73.3 89.2 79.1 69.0 78.6

Результаты на полной тестовой выборке MPII:

Метод Голова Лопатки Локоть Кисть Бедро Колено Стопа Среднее
OpenPose (CMU-Pose) 91.2 87.6 77.7 66.8 75.4 68.9 61.7 75.6
Newell & Deng 92.1 89.3 78.9 69.8 76.2 71.6 64.7 77.5
AlphaPose 91.3 90.5 84.0 76.4 80.3 79.9 72.4 82.1

Более подробные результаты и модели доступны в docs/MODEL_ZOO.md.

Трекинг позы

Для получения более подробной информации прочитайте trackers/README.md.

CrowdPose

Для получения более подробной информации прочитайте docs/CrowdPose.md.

Установка

Пожалуйста, проверьте docs/INSTALL.md

Модели

Пожалуйста, проверьте docs/MODEL_ZOO.md

Быстрый старт

  • Colab: Мы предоставляем пример Colab для быстрого старта.
  • Интерполяция: Интерполяционный демонстрационный пример
./scripts/inference.sh ${CONFIG} ${CHECKPOINT} ${VIDEO_NAME} # ${OUTPUT_DIR}, необязательный аргумент
```Интерполяция SMPL (скачайте модель SMPL `basicModel_neutral_lbs_10_207_0_v1.0.0.pkl` с [этой страницы](https://smpl.is.tue.mpg.de/) и поместите её в папку `model_files/`).
```bash
./scripts/inference_3d.sh ./configs/smpl/256x192_adam_lr1e-3-res34_smpl_24_3d_base_2x_mix.yaml ${CHECKPOINT} ${VIDEO_NAME} # ${OUTPUT_DIR}, необязательный аргумент

Для использования высокоуровневого API обратитесь к файлу ./scripts/demo_api.py. Для активации отслеживания обратитесь к этому разделу.- Обучение: Обучение модели с нуля

./scripts/train.sh ${CONFIG} ${EXP_ID}
  • Проверка: Проверка вашей модели на MSCOCO val2017
./scripts/validate.sh ${CONFIG} ${CHECKPOINT}

Примеры:

Демо с использованием модели FastPose.

./scripts/inference.sh configs/coco/resnet/256x192_res50_lr1e-3_1x.yaml pretrained_models/fast_res50_256x192.pth ${VIDEO_NAME}
# или
python scripts/demo_inference.py --cfg configs/coco/resnet/256x192_res50_lr1e-3_1x.yaml --checkpoint pretrained_models/fast_res50_256x192.pth --indir examples/demo/
# или если вы хотите использовать yolox-x как детектор
python scripts/demo_inference.py --detector yolox-x --cfg configs/coco/resnet/256x192_res50_lr1e-3_1x.yaml --checkpoint pretrained_models/fast_res50_256x192.pth --indir examples/demo/

Обучение FastPose на наборе данных MSCOCO.

./scripts/train.sh ./configs/coco/resnet/256x192_res50_lr1e-3_1x.yaml exp_fastpose

Более подробные варианты интерполяции и примеры можно найти в GETTING_STARTED.md.

Часто встречающиеся проблемы и вопросы

См. faq.md для часто задаваемых вопросов. Если ваши проблемы не решены или если вы нашли ошибки, не стесняйтесь сообщить об этом на GitHub или отправить pull request!

Вкладчики

AlphaPose основана на работе RMPE (ICCV'17), авторами которой являются Hao-Shu Fang, Shuchin Tsai, Yu-Wing Tai и Tiew Lu, Tiew Lu является соавтором. В настоящее время проект поддерживается Jeff Li*, Hao-Shu Fang*, Haoyi Zhu, Yulian Xiu и Zhao Xu. Основные вкладчики указаны в doc/contributors.md.## TODO

  • Поддержка многокарт (GPU/CPU) для вывода
  • Определение 3D позы
  • Добавление флага отслеживания
  • Версия PyTorch на C++
  • Добавление модели, обученной на смешанной выборке данных (проверьте модельный зоопарк)
  • Поддержка плотных сцен
  • Лёгкая фильтрация маленьких объектов
  • Поддержка Crowdpose
  • Ускорение работы PoseFlow
  • Добавление более мощных/лёгких детекторов (теперь поддерживается YOLOX)
  • Высокоуровневый API (проверьте скрипт demo_api.py)

Мы будем очень признательны, если вы сможете оказать помощь и стать вкладчиком проекта AlphaPose.

Цитирование

Пожалуйста, цитируйте следующие работы в ваших публикациях, если они были полезны для вашего исследования:

@article{alphapose,
  author = {Фанг, Хаошу и Ли, Жэфэнжин и Тан, Гонгьянг и Шу, Чжао и Цзу, Хаойи и Сюй, Юлиянг и Ли, Янглу и Лю, Цзеу},
  journal = {IEEE Transactions on Pattern Analysis and Machine Intelligence},
  title = {AlphaPose: Временная оценка и отслеживание многочеловеческих позовых областей в реальном времени},
  year = {2022}
}

@inproceedings{fang2017rmpe,
  title={{RMPE}: Областная оценка многочеловеческих поз},
  author={Фанг, Хаошу и Сие, Шуцин и Тай, Ю-Уинг и Лю, Цзеу},
  booktitle={ICCV},
  year={2017}
}

@inproceedings{li2019crowdpose,
    title={Crowdpose: Эффективная оценка поз в плотных сценах и новый бенчмарк},
    author={Ли, Жэфэнжин и Ван, Кан и Цзу, Хао и Мао, Йихуань и Фанг, Хаошу и Лю, Цзеу},
    booktitle={Proceedings of the IEEE/CVF conference on computer vision and pattern recognition},
    pages={10863--10872},
    year={2019}
}
```Если вы использовали модуль реконструкции 3D сетки, пожалуйста, также цитируйте:

```latex
@inproceedings{li2021hybrik,
    title={Hybrik: Гибридное аналитическое-нейронное решение обратной кинематики для оценки 3D человеческих поз и формы},
    author={Ли, Жэфэнжин и Шу, Чжао и Чен, Жичун и Бьян, Суюань и Янг, Лишэн и Лю, Цзеу},
    booktitle={Proceedings of the IEEE/CVF Conference on Computer Vision and Pattern Recognition},
    pages={3383--3393},
    year={2021}
}

Если вы использовали модуль отслеживания PoseFlow, пожалуйста, также цитируйте:

@inproceedings{xiu2018poseflow,
  author = {Сюй, Юлиянг и Ли, Жэфэнжин и Ван, Хаоянь и Фанг, Ингхонг и Лю, Цзеу},
  title = {{Pose Flow}: Эффективное онлайн-отслеживание поз},
  booktitle={BMVC},
  year = {2018}
}

Лицензия

AlphaPose доступен бесплатно для некоммерческого использования и может быть redistribute под следующими условиями. Для коммерческих запросов, пожалуйста, отправьте электронное письмо на адрес mvig.alphapose[at]gmail[dot]com и приложите lucewu[[at]sjtu[dot]edu[dot]cn. Мы отправим вам детальное соглашение.

Комментарии ( 0 )

Вы можете оставить комментарий после Вход в систему

Введение

AlphaPose — это точная система оценки поз для нескольких человек. Это первая система, которая достигла более 70 mAP на наборе данных COCO (72,3 mAP, что выше, чем у Mask-RCNN на 8,2 процентных пункта). На MPII... Развернуть Свернуть
Apache-2.0
Отмена

Обновления

Пока нет обновлений

Участники

все

Недавние действия

Загрузить больше
Больше нет результатов для загрузки
1
https://api.gitlife.ru/oschina-mirror/mirrors-AlphaPose.git
git@api.gitlife.ru:oschina-mirror/mirrors-AlphaPose.git
oschina-mirror
mirrors-AlphaPose
mirrors-AlphaPose
master