1 В избранное 0 Ответвления 0

OSCHINA-MIRROR/open-mmlab-mmpose

Присоединиться к Gitlife
Откройте для себя и примите участие в публичных проектах с открытым исходным кодом с участием более 10 миллионов разработчиков. Приватные репозитории также полностью бесплатны :)
Присоединиться бесплатно
Клонировать/Скачать
README_CN.md 34 КБ
Копировать Редактировать Web IDE Исходные данные Просмотреть построчно История
Отправлено 10.03.2025 22:50 1dc2c04
```markdown ```

ВведениеEnglish | Русский

MMPose — это открытый набор инструментов для анализа человеческих поз, основанный на PyTorch, являющийся частью проекта OpenMMLab.

Основной веткой поддерживаются версии PyTorch 1.6 и выше.

https://user-images.githubusercontent.com/15977946/124654387-0fd3c500-ded1-11eb-84f6-24eeddbf4d91.mp4

Основные характеристики
  • Поддержка различных задач анализа человеческих поз

    MMPose поддерживает множество актуальных задач анализа поз, таких как двумерное многоперсонное распознавание поз, двумерное распознавание поз рук, двумерное распознавание ключевых точек лица, полносоставное распознавание поз с 133 ключевыми точками, восстановление трёхмерной формы человека, распознавание ключевых точек одежды, распознавание ключевых точек животных и т.д. Подробнее см. демонстрацию функциональности.

  • Высокое качество и скорость

    MMPose реализует множество передовых моделей анализа поз, используемых в научном сообществе, включая "сверху вниз" и "снизу вверх" алгоритмы. MMPose обеспечивает более высокую точность моделей и скорость обучения по сравнению с другими популярными библиотеками. Подробнее см. тестирование производительности (англ.).

  • Поддержка множества данных

    MMPose поддерживает подготовку и сборку многих популярных наборов данных, таких как COCO, MPII и т.д. Подробнее см. наборы данных.- Модульная архитектура

    MMPose декомпозирует унифицированный подход к анализу поз на отдельные модули, что позволяет пользователям легко создавать свои собственные модели анализа поз путём комбинирования этих модулей.

  • Полностью тестировано и подробно документировано

    MMPose предоставляет детальные руководства, API справочники и всесторонние юнит-тесты для использования сообществом.

Недавние достижения

  • Мы представили YOLOX-Pose, одноэлементную модель многочеловеческого распознавания поз, основанную на YOLOX. Дополнительную информацию можно найти на странице проекта YOLOX-Pose

yolox-pose_intro- Приветствуем вас в проекте MMPose. Здесь вы можете узнать о последних функциях и алгоритмах MMPose и быстро делиться своими идеями и реализациями кода с сообществом. Теперь добавление новых функций в MMPose стало простым и удобным процессом:

  • Предоставляет простой и быстрый способ добавления новых алгоритмов, функций и приложений в MMPose.

  • Более гибкая структура и стиль кода, меньше ограничений и более короткий процесс проверки кода.

  • Использует мощные возможности MMPose через независимые проекты, не привязываясь к конкретной архитектуре кода.

  • Недавно добавленные проекты включают:

  • Начните свой путь как вкладчика кода MMPose с простого примерного проекта, и вместе сделаем MMPose ещё лучше!
    - 2022-04-06: MMPose v1.0.0 был официально выпущен, основные обновления включают:

  • Выпуск модели YOLOX-Pose для одноэлементной многочеловеческой оценки поз на основе YOLOX

  • Разработка MMPose для AIGC на основе RTMPose для создания высококачественных снимков скелета для использования в проектах Pose-guided AIGC

  • Поддержка визуализации скелета в стиле OpenPose

  • Улучшенные и более удобные документация и руководства

Для получения более подробной информации о новых возможностях MMPose v1.0.0, пожалуйста, просмотрите полное сообщение о выпуске.

Установка

Для получения более подробной информации об установке обратитесь к документации по установке.

Руководства

Мы предоставляем серию простых руководств, чтобы помочь новым пользователям MMPose легко начать работу:

  1. Основные методы использования MMPose: - Руководство за 20 минут

  2. Для исследователей и разработчиков, желающих присоединиться к открытому сообществу и внести свой вклад в MMPose: - Участие в проекте

  3. Для часто возникающих вопросов при использовании:

Библиотека моделей

Результаты и настройки всех моделей можно найти в файлах README.md, расположенных в соответствующих директориях конфигураций. Общую информацию также можно получить на странице библиотеки моделей.

Поддерживаемые алгоритмы - [x] [DeepPose](https://mmpose.readthedocs.io/en/latest/model_zoo_papers/algorithms.html#deeppose-cvpr-2014) (CVPR'2014) - [x] [CPM](https://mmpose.readthedocs.io/en/latest/model_zoo_papers/backbones.html#cpm-cvpr-2016) (CVPR'2016) - [x] [Hourglass](https://mmpose.readthedocs.io/en/latest/model_zoo_papers/backbones.html#hourglass-eccv-2016) (ECCV'2016) - [ ] [SimpleBaseline3D](https://mmpose.readthedocs.io/en/latest/model_zoo_papers/algorithms.html#simplebaseline3d-iccv-2017) (ICCV'2017) - [ ] [Associative Embedding](https://mmpose.readthedocs.io/en/latest/model_zoo_papers/algorithms.html#associative-embedding-nips-2017) (NeurIPS'2017) - [x] [SimpleBaseline2D](https://mmpose.readthedocs.io/en/latest/model_zoo_papers/algorithms.html#simplebaseline2d-eccv-2018) (ECCV'2018) - [x] [DSNT](https://mmpose.readthedocs.io/en/latest/model_zoo_papers/algorithms.html#dsnt-2018) (ArXiv'2021) - [x] [HRNet](https://mmpose.readthedocs.io/en/latest/model_zoo_papers/backbones.html#hrnet-cvpr-2019) (CVPR'2019) - [x] [IPR](https://mmpose.readthedocs.io/en/latest/model_zoo_papers/algorithms.html#ipr-eccv-2018) (ECCV'2018) - [ ] [VideoPose3D](https://mmpose.readthedocs.io/en/latest/model_zoo_papers/algorithms.html#videopose3d-cvpr-2019) (CVPR'2019) - [x] [HRNetv2](https://mmpose.readthedocs.io/en/latest/model_zoo_papers/backbones.html#hrnetv2-tpami-2019) (TPAMI'2019) - [x] [MSPN](https://mmpose.readthedocs.io/en/latest/model_zoo_papers/backbones.html#mspn-arxiv-2019) (ArXiv'2019) - [x] [SCNet](https://mmpose.readthedocs.io/en/latest/model_zoo_papers/backbones.html#scnet-cvpr-2020) (CVPR'2020) - [ ] [HigherHRNet](https://mmpose.readthedocs.io/en/latest/model_zoo_papers/backbones.html#higherhrnet-cvpr-2020) (CVPR'2020) - [x] [RSN](https://mmpose.readthedocs.io/en/latest/model_zoo_papers/backbones.html#rsn-eccv-2020) (ECCV'2020) - [ ] [InterNet](https://mmpose.readthedocs.io/en/latest/model_zoo_papers/algorithms.html#internet-eccv-2020) (ECCV'2020) - [ ] [VoxelPose](https://mmpose.readthedocs.io/en/latest/model_zoo_papers/algorithms.html#voxelpose-eccv-2020) (ECCV'2020) - [x] [LiteHRNet](https://mmpose.readthedocs.io/en/latest/model_zoo_papers/backbones.html#litehrnet-cvpr-2021) (CVPR'2021) - [x] [ViPNAS](https://mmpose.readthedocs.io/en/latest/model_zoo_papers/backbones.html#vipnas-cvpr-2021) (CVPR'2021)- [x] [Debias-IPR](https://mmpose.readthedocs.io/en/latest/model_zoo_papers/algorithms.html#debias-ipr) (ICCV'2021) - [x] [SimCC](https://mmpose.readthedocs.io/ru/latest/model_zoo_papers/algorithms.html#simcc-eccv-2022) (ECCV'2022)
Поддерживаемые технологии
Поддерживаемые наборы данных - [x] [AFLW](https://mmpose.readthedocs.io/ru/latest/model_zoo_papers/datasets.html#aflw-iccvw-2011) \[[Главная страница](https://www.tugraz.at/institute/icg/research/team-bischof/lrs/downloads/aflw/)\] (ICCVW'2011) - [x] [sub-JHMDB](https://mmpose.readthedocs.io/ru/latest/model_zoo_papers/datasets.html#jhmdb-iccv-2013) \[[Главная страница](http://jhmdb.is.tue.mpg.de/dataset)\] (ICCV'2013) - [x] [COFW](https://mmpose.readthedocs.io/ru/latest/model_zoo_papers/datasets.html#cofw-iccv-2013) \[[Главная страница](http://www.vision.caltech.edu/xpburgos/ICCV13/)\] (ICCV'2013) - [x] [MPII](https://mmpose.readthedocs.io/ru/latest/model_zoo_papers/datasets.html#mpii-cvpr-2014) \[[Главная страница](http://human-pose.mpi-inf.mpg.de/)\] (CVPR'2014) - [x] [Human3.6M](https://mmpose.readthedocs.io/ru/latest/model_zoo_papers/datasets.html#human3-6m-tpami-2014) \[[Главная страница](http://vision.imar.ro/human3.6m/description.php)\] (TPAMI'2014) - [x] [COCO](https://mmpose.readthedocs.io/ru/latest/model_zoo_papers/datasets.html#coco-eccv-2014) \[[Главная страница](http://cocodataset.org/)\] (ECCV'2014) - [x] [CMU Panoptic](https://mmpose.readthedocs.io/ru/latest/model_zoo_papers/datasets.html#cmu-panoptic-iccv-2015) (ICCV'2015) - [x] [DeepFashion](https://mmpose.readthedocs.io/ru/latest/model_zoo_papers/datasets.html#deepfashion-cvpr-2016) \[[Главная страница](http://mmlab.ie.cuhk.edu.hk/projects/DeepFashion/LandmarkDetection.html)\] (CVPR'2016) - [x] [300W](https://mmpose.readthedocs.io/ru/latest/model_zoo_papers/datasets.html#300w-imavis-2016) \[[Главная страница](https://ibug.doc.ic.ac.uk/resources/300-W/)\] (IMAVIS'2016) - [x] [RHD](https://mmpose.readthedocs.io/ru/latest/model_zoo_papers/datasets.html#rhd-iccv-2017) \[[Главная страница](https://lmb.informatik.uni-freiburg.de/resources/datasets/RenderedHandposeDataset.en.html)\] (ICCV'2017) - [x] [CMU Panoptic](https://mmpose.readthedocs.io/ru/latest/model_zoo_papers/datasets.html#cmu-panoptic-iccv-2015) \[[Главная страница](http://domedb.perception.cs.cmu.edu/)\] (ICCV'2015) - [x] [AI Challenger](https://mmpose.readthedocs.io/ru/latest/model_zoo_papers/datasets.html#ai-challenger-arxiv-2017) \[[Главная страница](https://github.com/AIChallenger/AI_Challenger_2017)\] (ArXiv'2017) - [x] [MHP](https://mmpose.readthedocs.io/ru/latest/model_zoo_papers/datasets.html#mhp-acm-mm-2018) \[[Главная страница](https://lv-mhp.github.io/dataset)\] (ACM MM'2018) - [x] [WFLW](https://mmpose.readthedocs.io/ru/latest/model_zoo_papers/datasets.html#wflw-cvpr-2018) \[[Главная страница](https://wywu.github.io/projects/LAB/WFLW.html)\] (CVPR'2018)- [x] [PoseTrack18](https://mmpose.readthedocs.io/ru/latest/model_zoo_papers/datasets.html#posetrack18-cvpr-2018) \[[Главная страница](https://posetrack.net/users/download.php)\] (CVPR'2018) - [x] [OCHuman](https://mmpose.readthedocs.io/ru/latest/model_zoo_papers/datasets.html#ochuman-cvpr-2019) \[[Главная страница](https://github.com/liruilong940607/OCHumanApi)\] (CVPR'2019) - [x] [CrowdPose](https://mmpose.readthedocs.io/ru/latest/model_zoo_papers/datasets.html#crowdpose-cvpr-2019) \[[Главная страница](https://github.com/Jeff-sjtu/CrowdPose)\] (CVPR'2019) - [x] [MPII-TRB](https://mmpose.readthedocs.io/ru/latest/model_zoo_papers/datasets.html#mpii-trb-iccv-2019) \[[Главная страница](https://github.com/kennymckormick/Triplet-Representation-of-human-Body)\] (ICCV'2019) - [x] [FreiHand](https://mmpose.readthedocs.io/ru/latest/model_zoo_papers/datasets.html#freihand-iccv-2019) \[[Главная страница](https://lmb.informatik.uni-freiburg.de/projects/freihand/)\] (ICCV'2019) - [x] [Animal-Pose](https://mmpose.readthedocs.io/ru/latest/model_zoo_papers/datasets.html#animal-pose-iccv-2019) \[[Главная страница](https://sites.google.com/view/animal-pose/)\] (ICCV'2019) - [x] [OneHand10K](https://mmpose.readthedocs.io/ru/latest/model_zoo_papers/datasets.html#onehand10k-tcsvt-2019) \[[Главная страница](https://www.yangangwang.com/papers/WANG-MCC-2018-10.html)\] (TCSVT'2019) - [x] [Vinegar Fly](https://mmpose.readthedocs.io/ru/latest/model_zoo_papers/datasets.html#vinegar-fly-nature-methods-2019) \[[Главная страница](https://github.com/jgraving/DeepPoseKit-Data)\] (Nature Methods'2019) - [x] [Desert Locust](https://mmpose.readthedocs.io/ru/latest/model_zoo_papers/datasets.html#desert-locust-elife-2019) \[[Главная страница](https://github.com/jgraving/DeepPoseKit-Data)\] (eLife'2019) - [x] [Grévy’s Zebra](https://mmpose.readthedocs.io/ru/latest/model_zoo_papers/datasets.html#grevys-zebra-elife-2019) \[[Главная страница](https://github.com/jgraving/DeepPoseKit-Data)\] (eLife'2019) - [x] [ATRW](https://mmpose.readthedocs.io/ru/latest/model_zoo_papers/datasets.html#atrw-acm-mm-2020) \[[Главная страница](https://cvwc2019.github.io/challenge.html)\] (ACM MM'2020) - [x] [Halpe](https://mmpose.readthedocs.io/ru/latest/model_zoo_papers/datasets.html#halpe-arxiv-2020) \[[Главная страница](https://github.com/microsoft/halpe-dataset)\] (arXiv'2020)io/zh_CN/latest/model_zoo_papers/datasets.html#halpe-cvpr-2020) \[[Главная страница](https://github.com/Fang-Haoshu/Halpe-FullBody/)\] (CVPR'2020)
Поддерживаемые основные сети

Требования к моделям

Мы будем следовать последним достижениям в академической среде и поддерживать больше алгоритмов и фреймворков. Если у вас есть какие-либо требования к функционалу MMPose, пожалуйста, сообщите об этом в разделе Roadmap MMPose.## Внесение вклада

Мы очень рады любым вкладам от наших пользователей в проект MMPose. Для получения более подробной информации обратитесь к руководству по внесению вклада.

Благодарность

MMPose — это открытый проект, созданный совместными усилиями различных университетов и компаний. Мы благодарим всех участников, которые внесли свой вклад в воспроизведение алгоритмов и поддержку новых функций, а также пользователей за их ценные отзывы.

Мы надеемся, что этот набор инструментов и базовые тесты будут служить гибкими средствами для сообщества, чтобы пользователям было удобно воспроизводить существующие алгоритмы и разрабатывать свои новые модели, тем самым постоянно вносить вклад в открытое программное обеспечение.

Цитирование

Если вам помогает MMPose в ваших исследованиях, пожалуйста, рассмотрите возможность цитирования:```bibtex @misc{mmpose2020, title={OpenMMLab Инструмент для оценки поз и тестовый набор}, author={Конtribутory MMPose}, howpublished = {\url{https://github.com/open-mmlab/mmpose}}, year={2020} }


## Лицензия

Проект использует лицензию [Apache  Yöntem 2.0](LICENSE).

## Другие проекты OpenMMLab

## Лицензия

Проект использует лицензию [Apache 2.0](LICENSE).

## Другие проекты OpenMMLab- [MMEngine](https://github.com/open-mmlab/mmengine): Базовая библиотека для обучения глубоких нейронных сетей от OpenMMLab
 - [MMCV](https://github.com/open-mmlab/mmcv): Базовая библиотека компьютерного зрения от OpenMMLab
 - [MIM](https://github.com/open-mmlab/mim): Единый вход для проектов, алгоритмов и моделей OpenMMLab
 - [MMClassification](https://github.com/open-mmlab/mmclassification): Инструментальная библиотека для классификации изображений от OpenMMLab
 - [MMDetection](https://github.com/open-mmlab/mmdetection): Инструментальная библиотека для детектирования объектов от OpenMMLab
 - [MMDetection3D](https://github.com/open-mmlab/mmdetection3d): Новый универсальный платформенный подход для bk3D детектирования объектов от OpenMMLab
 - [MMRotate](https://github.com/open-mmlab/mmrotate): Инструментальная библиотека для детектирования поворотов и тестовых наборов от OpenMMLab
 - [MMSegmentation](https://github.com/open-mmlab/mmsegmentation): Инструментальная библиотека для сегментации изображений от OpenMMLab
 - [MMOCR](https://github.com/open-mmlab/mmocr): Полный набор инструментов для распознавания текста от OpenMMLab
 - [MMPose](https://github.com/open-mmlab/mmpose): Инструментальная библиотека для оценки поз от OpenMMLab
 - [MMHuman3D](https://github.com/open-mmlab/mmhuman3d): Инструментальная библиотека для моделирования человека и тестовых наборов от OpenMMLab
 - [MMSelfSup](https://github.com/open-mmlab/mmselfsup): Инструментальная библиотека для самообучения и тестовых наборов от OpenMMLab
 - [MMRazor](https://github.com/open-mmlab/mmrazor): Инструментальная библиотека для сжатия моделей и тестовых наборов от OpenMMLab
 - [MMFewShot](https://github.com/open-mmlab/MMFewShot)com/open-mmlab/mmfewshot)): Инструментальная библиотека для обучения с небольшим количеством примеров и тестовых данных от OpenMMLab
 - [MMAction2](https://github.com/open-mmlab/mmaction2)): Новый универсальный подход к анализу видео от OpenMMLab
 - [MMTracking](https://github.com/open-mmlab/mmtracking)): Универсальная платформа для видеоприложений от OpenMMLab
 - [MMFlow](https://github.com/open-mmlab/mmflow)): Инструментальная библиотека для оценки потока и тестовых данных от OpenMMLab
 - [MMEditing](https://github.com/open-mmlab/mmediting)): Инструментальная библиотека для редактирования изображений и видео от OpenMMLab
 - [MMGeneration](https://github.com/open-mmlab/mmgeneration)): Инструментальная библиотека для генерации изображений и видео от OpenMMLab
 - [MMDeploy](https://github.com/open-mmlab/mmdeploy)): Инструментальная библиотека для развертывания моделей от OpenMMLab

## Добро пожаловать в сообщество OpenMMLabСканируйте QR-код ниже, чтобы подписаться на официальный аккаунт OpenMMLab на [Zhihu](https://www.zhihu.com/people/openmmlab), свяжитесь с нами через [официального помощника WeChat](https://user-images.githubusercontent.com/25839884/205872898-e2e6009d-c6bb-4d27-8d07-117e697a3da8.jpg) или присоединиться к официальному QQ-чату команды [OpenMMLab](https://jq.qq.com/?_wv=1027&k=K0QI8ByU).

<div align="center">
<img src="https://user-images.githubusercontent.com/25839884/205870927-39f4946d-8751-4219-a4c0-740117558fd7.jpg" height="400"><img src="https://user-images.githubusercontent.com/25839884/205872898-e2e6009d-c6bb-4d27-8d07-117e697a3da8.jpg" height="400"><img src="https://user-images.githubusercontent.com/25839884/203904835-62392033-02d4-4c73-a68c-c9e4c1e2b07f.jpg" height="400">
</div>

Мы будем рады представить вас в сообществе OpenMMLab:

- 📢 Современные технологии фреймворков AI
- 💻 Расшифровка исходного кода часто используемых модулей PyTorch
- 📰 Новости проекта OpenMMLab
- 🚀 Введение в передовые алгоритмы от команды OpenMMLab
- 🏃‍♂️ Более эффективное решение вопросов и сбор обратной связи
- 🔥 Платформа для взаимодействия со всеми разработчиками различных областей

Приглашаем вас присоединиться к нашему сообществу! 📘, мы ждём вас 💗, присоединяйтесь к нам 👬

Опубликовать ( 0 )

Вы можете оставить комментарий после Вход в систему

1
https://api.gitlife.ru/oschina-mirror/open-mmlab-mmpose.git
git@api.gitlife.ru:oschina-mirror/open-mmlab-mmpose.git
oschina-mirror
open-mmlab-mmpose
open-mmlab-mmpose
main