1 В избранное 0 Ответвления 0

OSCHINA-MIRROR/duping812-jetson-inference

Клонировать/Скачать
aux-docker.md 8.7 КБ
Копировать Редактировать Web IDE Исходные данные Просмотреть построчно История
Отправлено 02.06.2025 15:38 5e07e18

Назад | Далее | Содержание
Настройка системы

Запуск контейнера Docker

Предварительно собранные образы Docker для этого проекта хранятся на DockerHub. В качестве альтернативы, вы можете собрать проект из исходного кода.

Ниже приведены доступные теги контейнеров:

Тег контейнера Версия L4T Версия JetPack
dustynv/jetson-inference:r32.6.1 L4T R32.6.0 JetPack 4.6
dustynv/jetson-inference:r32.5.0 L4T R32.5.0 JetPack 4.5
dustynv/jetson-inference:r32.4.4 L4T R32.4.4 JetPack 4.4.1
dustynv/jetson-inference:r32.4.3 L4T R32.4.3 JetPack 4.4

Примечание: версия JetPack-L4T, установленная на вашем Jetson, должна соответствовать тегу выше. Если у вас установлена другая версия JetPack-L4T, либо обновите до последней версии JetPack, либо соберите проект из исходного кода для компиляции проекта напрямую.

Эти контейнеры используют базовый контейнер l4t-pytorch, поэтому поддержка переносного обучения / переобучения уже включена.## Запуск контейнера

В связи с различными монтированиями и устройствами, необходимыми для запуска контейнера, рекомендуется использовать скрипт docker/run.sh для запуска контейнера:

$ git clone --recursive https://github.com/dusty-nv/jetson-inference
$ cd jetson-inference
$ docker/run.sh

Примечание: из-за используемых скриптов Docker и структуры каталога данных, которая монтируется в контейнер, вам всё равно следует клонировать проект на вашем устройстве-хосте (то есть даже если вы не планируете собирать/устанавливать проект нативно). docker/run.sh автоматически извлекает правильный тег контейнера с DockerHub на основе вашей текущей версии JetPack-L4T, и монтирует соответствующие данные и устройства, чтобы вы могли использовать камеры/дисплей/и т.д. изнутри контейнера. Он также предложит вам скачать модели DNN, если вы еще не сделали этого, которые затем монтируются в контейнер для загрузки. Эта начальная настройка выполняется только один раз.

Монтированные данные

Для справки, следующие пути автоматически монтируются из вашего устройства-хоста в контейнер:* jetson-inference/data (хранит сетевые модели, сериализованные TensorRT движки и тестовые изображения)

  • jetson-inference/python/training/classification/data (хранит наборы данных для обучения классификации)
  • jetson-inference/python/training/classification/models (хранит модели классификации, обученные PyTorch)
  • jetson-inference/python/training/detection/ssd/data (хранит наборы данных для обучения обнаружению)
  • jetson-inference/python/training/detection/ssd/models (хранит модели обнаружения, обученные PyTorch)Эти монтированные тома гарантируют, что модели и наборы данных хранятся вне контейнера и не теряются при его завершении работы.

Если вы хотите монтировать свой собственный каталог в контейнер, вы можете использовать аргумент --volume HOST_DIR:MOUNT_DIR для docker/run.sh:

$ docker/run.sh --volume /my/host/path:/my/container/path    # эти пути должны быть абсолютными

Для получения дополнительной информации запустите docker/run.sh --help или просмотрите текст помощи внутри docker/run.sh.

Запуск приложений

Как только контейнер запущен, вы можете запустить примеры программ из руководства, как обычно, внутри контейнера:

# cd build/aarch64/bin
# ./video-viewer /dev/video0
# ./imagenet images/jellyfish.jpg images/test/jellyfish.jpg
# ./detectnet images/peds_0.jpg images/test/peds_0.jpg
# (нажмите Ctrl+D для выхода из контейнера)

Примечание: когда вы сохраняете изображения из одного из примерных программ (например, imagenet или detectnet), рекомендуется сохранять их в images/test. Эти изображения будут легко доступны на вашем устройстве-хосте в каталоге jetson-inference/data/images/test.

Создание контейнера

Если вы следуете руководству "Hello AI World", вы можете пропустить этот раздел и перейти к следующему шагу. Но если вы хотите перестроить контейнер или создать свой собственный, вы можете использовать скрипт docker/build.sh, который строит проект посредством файла Dockerfile:```bash $ docker/build.sh


> **Примечание:** перед использованием скрипта убедитесь, что ваша среда по умолчанию настроена на `docker-runtime` с режимом nvidia, подробности можно найти [здесь](https://github.com/dusty-nv/jetson-containers#docker-default-runtime).

Вы также можете создать свой собственный контейнер, используя строку `FROM dustynv/jetson-inference:r32.4.3` в своем Dockerfile.

## Начало работы

Если вы выбрали запуск проекта внутри Docker-контейнера, вы можете перейти к [Классификации изображений с помощью ImageNet](imagenet-console-2.md).

Однако, если вы предпочитаете установить проект напрямую на вашем Jetson (вне контейнера), перейдите к [Сборке проекта из исходного кода](building-repo-2.md).
 
##

<p align="right">Далее | <b><a href="building-repo-2.md">Сборка проекта из исходного кода</a></b>
<br/>
Назад | <b><a href="jetpack-setup-2.md">Настройка Jetson с помощью JetPack</a></b></p>
<p align="center"><sup>© 2016-2020 NVIDIA | </sup><a href="../README.md#hello-ai-world"><sup>Содержание</sup></a></p>

Опубликовать ( 0 )

Вы можете оставить комментарий после Вход в систему

1
https://api.gitlife.ru/oschina-mirror/duping812-jetson-inference.git
git@api.gitlife.ru:oschina-mirror/duping812-jetson-inference.git
oschina-mirror
duping812-jetson-inference
duping812-jetson-inference
master