1 В избранное 0 Ответвления 0

OSCHINA-MIRROR/mirrors-AlphaPose

Присоединиться к Gitlife
Откройте для себя и примите участие в публичных проектах с открытым исходным кодом с участием более 10 миллионов разработчиков. Приватные репозитории также полностью бесплатны :)
Присоединиться бесплатно
Клонировать/Скачать
INSTALL.md 8.6 КБ
Копировать Редактировать Web IDE Исходные данные Просмотреть построчно История
Отправлено 04.03.2025 12:58 27a5c7e

Установка

Требования

  • Устройство Nvidia с CUDA, пример для Ubuntu 20.04 (если нет устройства Nvidia, удалите эту строку из файла setup.py);
  • Python 3.7+;
  • Cython;
  • PyTorch 1.11+, для пользователей, желающих использовать 1.5 ≤ PyTorch < 1.11, пожалуйста, переключитесь на ветку pytorch<1.11 командой: git checkout "pytorch<1.11"; для пользователей, желающих использовать PyTorch < 1.5, пожалуйста, переключитесь на ветку pytorch<1.5 командой: git checkout "pytorch<1.5";
  • torchvision 0.12.0+;
  • numpy;
  • python-пакет setuptools ≥ 40.0, отмеченный этим вопросом;
  • Linux, пользователи Windows проверьте здесь.

Установка кода

(Рекомендовано) Установка с помощью conda

Установите conda с этого сайта, Miniconda3-latest-(ОС)-(платформа).

# 1. Создайте виртуальное окружение conda.
conda create -n alphapose python=3.7 -y
conda activate alphapose

# 2. Установите PyTorch
conda install pytorch torchvision torchaudio pytorch-cuda=11.3 -c pytorch -c nvidia 

# 3. Получите AlphaPose
git clone https://github.com/MVIG-SJTU/AlphaPose.git
cd AlphaPose

# 4. Установите
export PATH=/usr/local/cuda/bin/:$PATH
export LD_LIBRARY_PATH=/usr/local/cuda/lib64/:$LD_LIBRARY_PATH
python -m pip install cython
sudo apt-get install libyaml-dev
################Только для Ubuntu 18.04#################
locale-gen C.UTF-8
# если locale-gen не найдено
sudo apt-get install locales
export LANG=C.UTF-8
######################################################
python setup.py build develop

# 5. Установите PyTorch3D (не обязательно, только для визуализации)
conda install -c fvcore -c iopath -c conda-forge fvcore iopath
conda install -c bottler nvidiacub
pip install git+ssh://git@github.com/facebookresearch/pytorch3d.git@stable
```#### Установка с помощью pip
```shell
# 1. Установите PyTorch
pip3 install torch torchvision --extra-index-url https://download.pytorch.org/whl/cu113

# Проверьте среду torch командой: python3 -m torch.utils.collect_env

# 2. Получите AlphaPose
git clone https://github.com/MVIG-SJTU/AlphaPose.git
cd AlphaPose

# 3. Установите
export PATH=/usr/local/cuda/bin/:$PATH
export LD_LIBRARY_PATH=/usr/local/cuda/lib64/:$LD_LIBRARY_PATH
pip install cython
sudo apt-get install libyaml-dev
python3 setup.py build develop --user
```# 4. Установка PyTorch3D (необязательно, только для визуализации)
conda install -c fvcore -c iopath -c conda-forge fvcore iopath
conda install -c bottler nvidiacub
pip install git+ssh://git@github.com/facebookresearch/pytorch3d.git@stable

Windows

Процесс установки аналогичен приведенному выше. Однако пользователи Windows могут столкнуться с проблемами при установке CUDA-расширений. Поэтому мы отключаем CUDA-расширения по умолчанию в файле setup.py. В результате модели, окончившиеся на "-dcn", не поддерживаются. Если вы хотите заставить CUDA-расширение работать, модифицировав эту строку до True, вам потребуется установить Visual Studio из-за проблемы, указанной здесь. Мы рекомендуем пользователям Windows запускать модели типа FastPose, FastPose-dcn и т.д., так как они также обеспечивают хорошую точность и скорость.Для пользователей Windows, если вы сталкиваетесь с ошибками при работе с PyYaml, вы можете скачать и установить его вручную здесь: https://pyyaml.org/wiki/PyYAML. Если ваша операционная система — Windows, убедитесь, что установлено средство сборки Visual Studio 15+ или Visual C++ 2015+, необходимое для компиляции.### Модели

  1. Скачайте модель детектора объектов вручную: yolov3-spp.weights (Google Drive | Baidu pan) и поместите её в папку detector/yolo/data.
  2. (Необязательно) Если вы хотите использовать YOLOX в качестве детектора, скачайте веса здесь, и поместите их в папку detector/yolox/data. Мы рекомендуем yolox-l и yolox-x.
  3. Скачайте наши модели для определения поз и поместите их в папку pretrained_models. Все модели и подробности доступны в нашем Model Zoo.

Для трекинга поз, пожалуйста, обратитесь к нашим документам по трекингу для загрузки моделей.### Подготовка данных (необязательно)

MSCOCO

Если вы хотите обучить модель самостоятельно, пожалуйста, скачайте данные с MSCOCO (train2017 и val2017). Скачайте и распакуйте их в директорию ./data, чтобы они имели следующую структуру:

|-- json
|-- exp
|-- alphapose
|-- configs
|-- test
|-- data
`-- |-- coco
    `-- |-- annotations
        |   |-- person_keypoints_train2017.json
        |   `-- person_keypoints_val2017.json
        |-- train2017
        |   |-- 000000000009.jpg
        |   |-- 000000000025.jpg
        |   |-- 000000000030.jpg
        |   |-- ...
        `-- val2017
            |-- 000000000139.jpg
            |-- 000000000285.jpg
            |-- 000000000632.jpg
            |-- ...

MPII

Пожалуйста, скачайте изображения с MPII. Мы также предоставляем аннотации в формате JSON [annot_mpii.zip]. Скачайте и распакуйте их в папку ./data, чтобы они выглядели следующим образом:

|-- data
`-- |-- mpii
    `-- |-- annot_mpii.json
        `-- images
            |-- 027457270.jpg
            |-- 036645665.jpg
            |-- 045572740.jpg
            |-- ...
```#### Halpe-FullBody
Если вы хотите обучить модель самостоятельно, пожалуйста, скачайте данные с [Halpe-FullBody](https://github.com/Fang-Haoshu/Halpe-FullBody). Скачайте и распакуйте их в папку `./data`, чтобы они выглядели следующим образом:

|-- json |-- exp |-- alphapose |-- configs |-- test |-- data -- |-- halpe -- |-- annotations | |-- halpe_train_v1.json | -- halpe_val_v1.json |-- images -- |-- train2015 | |-- HICO_train2015_00000001.jpg | |-- HICO_train2015_00000002.jpg | |-- HICO_train2015_00000003.jpg | |-- ... `-- val2017 |-- 000000000139.jpg |-- 000000000285.jpg |-- 000000000632.jpg |-- ...


Опубликовать ( 0 )

Вы можете оставить комментарий после Вход в систему

1
https://api.gitlife.ru/oschina-mirror/mirrors-AlphaPose.git
git@api.gitlife.ru:oschina-mirror/mirrors-AlphaPose.git
oschina-mirror
mirrors-AlphaPose
mirrors-AlphaPose
master