Назад | Далее | Содержание
Настройка системы
Предварительно собранные образы Docker для этого проекта хранятся на DockerHub. В качестве альтернативы, вы можете собрать проект из исходного кода.
Ниже приведены доступные теги контейнеров:
Тег контейнера | Версия L4T | Версия JetPack |
---|---|---|
dustynv/jetson-inference:r32.6.1 |
L4T R32.6.0 | JetPack 4.6 |
dustynv/jetson-inference:r32.5.0 |
L4T R32.5.0 | JetPack 4.5 |
dustynv/jetson-inference:r32.4.4 |
L4T R32.4.4 | JetPack 4.4.1 |
dustynv/jetson-inference:r32.4.3 |
L4T R32.4.3 | JetPack 4.4 |
Примечание: версия JetPack-L4T, установленная на вашем Jetson, должна соответствовать тегу выше. Если у вас установлена другая версия JetPack-L4T, либо обновите до последней версии JetPack, либо соберите проект из исходного кода для компиляции проекта напрямую.
Эти контейнеры используют базовый контейнер l4t-pytorch
, поэтому поддержка переносного обучения / переобучения уже включена.## Запуск контейнера
В связи с различными монтированиями и устройствами, необходимыми для запуска контейнера, рекомендуется использовать скрипт docker/run.sh
для запуска контейнера:
$ git clone --recursive https://github.com/dusty-nv/jetson-inference
$ cd jetson-inference
$ docker/run.sh
Примечание: из-за используемых скриптов Docker и структуры каталога данных, которая монтируется в контейнер, вам всё равно следует клонировать проект на вашем устройстве-хосте (то есть даже если вы не планируете собирать/устанавливать проект нативно).
docker/run.sh
автоматически извлекает правильный тег контейнера с DockerHub на основе вашей текущей версии JetPack-L4T, и монтирует соответствующие данные и устройства, чтобы вы могли использовать камеры/дисплей/и т.д. изнутри контейнера. Он также предложит вам скачать модели DNN, если вы еще не сделали этого, которые затем монтируются в контейнер для загрузки. Эта начальная настройка выполняется только один раз.
Для справки, следующие пути автоматически монтируются из вашего устройства-хоста в контейнер:* jetson-inference/data
(хранит сетевые модели, сериализованные TensorRT движки и тестовые изображения)
jetson-inference/python/training/classification/data
(хранит наборы данных для обучения классификации)jetson-inference/python/training/classification/models
(хранит модели классификации, обученные PyTorch)jetson-inference/python/training/detection/ssd/data
(хранит наборы данных для обучения обнаружению)jetson-inference/python/training/detection/ssd/models
(хранит модели обнаружения, обученные PyTorch)Эти монтированные тома гарантируют, что модели и наборы данных хранятся вне контейнера и не теряются при его завершении работы.Если вы хотите монтировать свой собственный каталог в контейнер, вы можете использовать аргумент --volume HOST_DIR:MOUNT_DIR
для docker/run.sh
:
$ docker/run.sh --volume /my/host/path:/my/container/path # эти пути должны быть абсолютными
Для получения дополнительной информации запустите docker/run.sh --help
или просмотрите текст помощи внутри docker/run.sh
.
Как только контейнер запущен, вы можете запустить примеры программ из руководства, как обычно, внутри контейнера:
# cd build/aarch64/bin
# ./video-viewer /dev/video0
# ./imagenet images/jellyfish.jpg images/test/jellyfish.jpg
# ./detectnet images/peds_0.jpg images/test/peds_0.jpg
# (нажмите Ctrl+D для выхода из контейнера)
Примечание: когда вы сохраняете изображения из одного из примерных программ (например, imagenet или detectnet), рекомендуется сохранять их в
images/test
. Эти изображения будут легко доступны на вашем устройстве-хосте в каталогеjetson-inference/data/images/test
.
Если вы следуете руководству "Hello AI World", вы можете пропустить этот раздел и перейти к следующему шагу. Но если вы хотите перестроить контейнер или создать свой собственный, вы можете использовать скрипт docker/build.sh
, который строит проект посредством файла Dockerfile
:```bash
$ docker/build.sh
> **Примечание:** перед использованием скрипта убедитесь, что ваша среда по умолчанию настроена на `docker-runtime` с режимом nvidia, подробности можно найти [здесь](https://github.com/dusty-nv/jetson-containers#docker-default-runtime).
Вы также можете создать свой собственный контейнер, используя строку `FROM dustynv/jetson-inference:r32.4.3` в своем Dockerfile.
## Начало работы
Если вы выбрали запуск проекта внутри Docker-контейнера, вы можете перейти к [Классификации изображений с помощью ImageNet](imagenet-console-2.md).
Однако, если вы предпочитаете установить проект напрямую на вашем Jetson (вне контейнера), перейдите к [Сборке проекта из исходного кода](building-repo-2.md).
##
<p align="right">Далее | <b><a href="building-repo-2.md">Сборка проекта из исходного кода</a></b>
<br/>
Назад | <b><a href="jetpack-setup-2.md">Настройка Jetson с помощью JetPack</a></b></p>
<p align="center"><sup>© 2016-2020 NVIDIA | </sup><a href="../README.md#hello-ai-world"><sup>Содержание</sup></a></p>
Вы можете оставить комментарий после Вход в систему
Неприемлемый контент может быть отображен здесь и не будет показан на странице. Вы можете проверить и изменить его с помощью соответствующей функции редактирования.
Если вы подтверждаете, что содержание не содержит непристойной лексики/перенаправления на рекламу/насилия/вульгарной порнографии/нарушений/пиратства/ложного/незначительного или незаконного контента, связанного с национальными законами и предписаниями, вы можете нажать «Отправить» для подачи апелляции, и мы обработаем ее как можно скорее.
Опубликовать ( 0 )