pytorch<1.11
командой: git checkout "pytorch<1.11"
; для пользователей, желающих использовать PyTorch < 1.5, пожалуйста, переключитесь на ветку pytorch<1.5
командой: git checkout "pytorch<1.5"
;Установите conda с этого сайта, Miniconda3-latest-(ОС)-(платформа).
# 1. Создайте виртуальное окружение conda.
conda create -n alphapose python=3.7 -y
conda activate alphapose
# 2. Установите PyTorch
conda install pytorch torchvision torchaudio pytorch-cuda=11.3 -c pytorch -c nvidia
# 3. Получите AlphaPose
git clone https://github.com/MVIG-SJTU/AlphaPose.git
cd AlphaPose
# 4. Установите
export PATH=/usr/local/cuda/bin/:$PATH
export LD_LIBRARY_PATH=/usr/local/cuda/lib64/:$LD_LIBRARY_PATH
python -m pip install cython
sudo apt-get install libyaml-dev
################Только для Ubuntu 18.04#################
locale-gen C.UTF-8
# если locale-gen не найдено
sudo apt-get install locales
export LANG=C.UTF-8
######################################################
python setup.py build develop
# 5. Установите PyTorch3D (не обязательно, только для визуализации)
conda install -c fvcore -c iopath -c conda-forge fvcore iopath
conda install -c bottler nvidiacub
pip install git+ssh://git@github.com/facebookresearch/pytorch3d.git@stable
```#### Установка с помощью pip
```shell
# 1. Установите PyTorch
pip3 install torch torchvision --extra-index-url https://download.pytorch.org/whl/cu113
# Проверьте среду torch командой: python3 -m torch.utils.collect_env
# 2. Получите AlphaPose
git clone https://github.com/MVIG-SJTU/AlphaPose.git
cd AlphaPose
# 3. Установите
export PATH=/usr/local/cuda/bin/:$PATH
export LD_LIBRARY_PATH=/usr/local/cuda/lib64/:$LD_LIBRARY_PATH
pip install cython
sudo apt-get install libyaml-dev
python3 setup.py build develop --user
```# 4. Установка PyTorch3D (необязательно, только для визуализации)
conda install -c fvcore -c iopath -c conda-forge fvcore iopath
conda install -c bottler nvidiacub
pip install git+ssh://git@github.com/facebookresearch/pytorch3d.git@stable
Процесс установки аналогичен приведенному выше. Однако пользователи Windows могут столкнуться с проблемами при установке CUDA-расширений. Поэтому мы отключаем CUDA-расширения по умолчанию в файле setup.py
. В результате модели, окончившиеся на "-dcn", не поддерживаются. Если вы хотите заставить CUDA-расширение работать, модифицировав эту строку до True
, вам потребуется установить Visual Studio из-за проблемы, указанной здесь.
Мы рекомендуем пользователям Windows запускать модели типа FastPose, FastPose-dcn и т.д., так как они также обеспечивают хорошую точность и скорость.Для пользователей Windows, если вы сталкиваетесь с ошибками при работе с PyYaml, вы можете скачать и установить его вручную здесь: https://pyyaml.org/wiki/PyYAML.
Если ваша операционная система — Windows, убедитесь, что установлено средство сборки Visual Studio 15+ или Visual C++ 2015+, необходимое для компиляции.### Модели
detector/yolo/data
.detector/yolox/data
. Мы рекомендуем yolox-l и yolox-x.pretrained_models
. Все модели и подробности доступны в нашем Model Zoo.Для трекинга поз, пожалуйста, обратитесь к нашим документам по трекингу для загрузки моделей.### Подготовка данных (необязательно)
Если вы хотите обучить модель самостоятельно, пожалуйста, скачайте данные с MSCOCO (train2017 и val2017). Скачайте и распакуйте их в директорию ./data
, чтобы они имели следующую структуру:
|-- json
|-- exp
|-- alphapose
|-- configs
|-- test
|-- data
`-- |-- coco
`-- |-- annotations
| |-- person_keypoints_train2017.json
| `-- person_keypoints_val2017.json
|-- train2017
| |-- 000000000009.jpg
| |-- 000000000025.jpg
| |-- 000000000030.jpg
| |-- ...
`-- val2017
|-- 000000000139.jpg
|-- 000000000285.jpg
|-- 000000000632.jpg
|-- ...
Пожалуйста, скачайте изображения с MPII. Мы также предоставляем аннотации в формате JSON [annot_mpii.zip].
Скачайте и распакуйте их в папку ./data
, чтобы они выглядели следующим образом:
|-- data
`-- |-- mpii
`-- |-- annot_mpii.json
`-- images
|-- 027457270.jpg
|-- 036645665.jpg
|-- 045572740.jpg
|-- ...
```#### Halpe-FullBody
Если вы хотите обучить модель самостоятельно, пожалуйста, скачайте данные с [Halpe-FullBody](https://github.com/Fang-Haoshu/Halpe-FullBody). Скачайте и распакуйте их в папку `./data`, чтобы они выглядели следующим образом:
|-- json
|-- exp
|-- alphapose
|-- configs
|-- test
|-- data
-- |-- halpe
-- |-- annotations
| |-- halpe_train_v1.json
| -- halpe_val_v1.json |-- images
-- |-- train2015
| |-- HICO_train2015_00000001.jpg
| |-- HICO_train2015_00000002.jpg
| |-- HICO_train2015_00000003.jpg
| |-- ...
`-- val2017
|-- 000000000139.jpg
|-- 000000000285.jpg
|-- 000000000632.jpg
|-- ...
Вы можете оставить комментарий после Вход в систему
Неприемлемый контент может быть отображен здесь и не будет показан на странице. Вы можете проверить и изменить его с помощью соответствующей функции редактирования.
Если вы подтверждаете, что содержание не содержит непристойной лексики/перенаправления на рекламу/насилия/вульгарной порнографии/нарушений/пиратства/ложного/незначительного или незаконного контента, связанного с национальными законами и предписаниями, вы можете нажать «Отправить» для подачи апелляции, и мы обработаем ее как можно скорее.
Опубликовать ( 0 )