1 В избранное 0 Ответвления 0

OSCHINA-MIRROR/openvinotoolkit-prc-docker_ci

Присоединиться к Gitlife
Откройте для себя и примите участие в публичных проектах с открытым исходным кодом с участием более 10 миллионов разработчиков. Приватные репозитории также полностью бесплатны :)
Присоединиться бесплатно
Клонировать/Скачать
accelerators.md 5.1 КБ
Копировать Редактировать Web IDE Исходные данные Просмотреть построчно История
gitlife-traslator Отправлено 29.11.2024 00:57 78c2453

Использование контейнеров OpenVINO™ Toolkit с ускорителями GPU

Контейнеры можно использовать для выполнения операций логического вывода с ускорением на GPU или с виртуальными устройствами.

Необходимые условия:

Пока хост и предварительно настроенный движок Docker работают, используйте параметры запуска docker, как описано ниже.

Linux

Приведённая ниже команда должна сообщать об устройствах CPU и GPU, доступных для выполнения логического вывода:

export IMAGE=openvino/ubuntu20_dev:2023.0.0
docker run -it --device /dev/dri --group-add=$(stat -c \"%g\" /dev/dri/render* ) $IMAGE ./samples/cpp/samples_bin/hello_query_device

--device /dev/dri — передаёт устройство GPU в контейнер. --group-add — добавляет контекст безопасности к команде контейнера с разрешением на использование устройства GPU.

Подсистема Windows для Linux

В WSL2 используйте команду для запуска контейнера:

export IMAGE=openvino/ubuntu20_dev:2023.0.0
docker run -it --device=/dev/dxg -v /usr/lib/wsl:/usr/lib/wsl $IMAGE ./samples/cpp/samples_bin/hello_query_device

--device /dev/dri — передаёт виртуальное устройство GPU в контейнер. -v /usr/lib/wsl:/usr/lib/wsl — монтирует необходимые библиотеки WSL в контейнер.

Пример использования:

Запустите приложение для тестирования с использованием ускорителя GPU с параметром -use_device_mem, демонстрирующим логический вывод без копирования между памятью CPU и GPU:

docker run --device /dev/dri --group-add=$(stat -c \"%g\" /dev/dri/render* ) $IMAGE bash -c " \
   curl -O https://storage.openvinotoolkit.org/repositories/open_model_zoo/2023.0/models_bin/1/resnet50-binary-0001/FP16-INT1/resnet50-binary-0001.xml && \
   curl -O https://storage.openvinotoolkit.org/repositories/open_model_zoo/2023.0/models_bin/1/resnet50-binary-0001/FP16-INT1/resnet50-binary-0001.bin && \
   ./samples/cpp/samples_bin/benchmark_app -m resnet50-binary-0001.xml -d GPU -use_device_mem -inference_only=false"

В приложении для тестирования параметр -use_device_mem использует OV::RemoteTensor в качестве входного буфера. Он демонстрирует выигрыш без копирования данных между хостом и устройством GPU.

Запустите приложение для тестирования, используя как GPU, так и CPU. Загрузка будет распределена по обоим типам устройств:

docker run --device /dev/dri --group-add=$(stat -c \"%g\" /dev/dri/render* ) $IMAGE bash -c " \
   curl -O https://storage.openvinotoolkit.org/repositories/open_model_zoo/2023.0/models_bin/1/resnet50-binary-0001/FP16-INT1/resnet50-binary-0001.xml && \
   curl -O https://storage.openvinotoolkit.org/repositories/open_model_zoo/2023.0/models_bin/1/resnet50-binary-0001/FP16-INT1/resnet50-binary-0001.bin && \
   ./samples/cpp/samples_bin/benchmark_app -m resnet50-binary-0001.xml -d MULTI:GPU,CPU"

Также проверьте:

Готовые образы

Работа с контейнерами OpenVINO

Генерация файлов Dockerfile и сборка образов в инструментах Docker_CI

Плагин GPU для OpenVINO

Опубликовать ( 0 )

Вы можете оставить комментарий после Вход в систему

1
https://api.gitlife.ru/oschina-mirror/openvinotoolkit-prc-docker_ci.git
git@api.gitlife.ru:oschina-mirror/openvinotoolkit-prc-docker_ci.git
oschina-mirror
openvinotoolkit-prc-docker_ci
openvinotoolkit-prc-docker_ci
master