1 В избранное 0 Ответвления 0

OSCHINA-MIRROR/duping812-jetson-inference

Клонировать/Скачать
segnet-camera-2.md 5.4 КБ
Копировать Редактировать Web IDE Исходные данные Просмотреть построчно История
Отправлено 02.06.2025 15:38 5e07e18

Назад | Вперед | Содержание
Семантическое сегментирование

# Запуск демонстрационного приложения для сегментации в реальном времени с камеры Пример, который мы использовали ранее, [`segnet.cpp`](../examples/segnet/segnet.cpp) / [`segnet.py`](../python/examples/segnet.py), также может использоваться для реального времени потока с камеры. Поддерживаемые типы камер включают: - MIPI CSI камеры (`csi://0`) - V4L2 камеры (`/dev/video0`) - RTP/RTSP потоки (`rtsp://username:password@ip:port`) Для получения дополнительной информации о видеопотоках и протоколах, пожалуйста, посмотрите страницу [Потоковое вещание с камер и мультимедиа](aux-streaming.md).

Запустите программу с помощью --help, чтобы увидеть полный список опций - некоторые из них специфичны для segNet:

  • необязательный флаг --network изменяет модель сегментации, используемую (см. доступные сети)
  • необязательный флаг --visualize принимает режимы mask и/или overlay (по умолчанию overlay)
  • необязательный флаг --alpha устанавливает значение альфа-смешивания для накладки (по умолчанию 120)
  • необязательный флаг --filter-mode принимает режимы point или linear выборки (по умолчанию linear)

Ниже приведены некоторые типичные сценарии запуска программы - см. этот список для доступных моделей.#### C++

$ ./segnet --network=<model> csi://0                    # MIPI CSI камера
$ ./segnet --network=<model> /dev/video0                # V4L2 камера
$ ./segnet --network=<model> /dev/video0 output.mp4     # сохранение в видеофайл

Python

$ ./segnet.py --network=<model> csi://0                 # MIPI CSI камера
$ ./segnet.py --network=<model> /dev/video0             # V4L2 камера
$ ./segnet.py --network=<model> /dev/video0 output.mp4  # сохранение в видеофайл
```> **Примечание**: для примеров камер, которые можно использовать, см. следующие разделы Jetson Wiki:
> - Nano: [`https://eLinux.org/Jetson_Nano#Cameras`](https://elinux.org/Jetson_Nano#Cameras)
> - Xavier:  [`https://eLinux.org/Jetson_AGX_Xavier#Ecosystem_Products_.26_Cameras`](https://elinux.org/Jetson_AGX_Xavier#Ecosystem_Products_.26_Cameras)
> - TX1/TX2: наборы инструментов разработчика включают встроенный модуль сенсора MIPI CSI (0V5693)
>
#### Визуализация
В окне OpenGL отображается поток камеры в реальном времени с накладкой результатов сегментации, а также твердым сегментированным масками для ясности. Вот несколько примеров использования с [разными моделями](segnet-console-2.md#доступные-предобученные-модели-сегментации), которые доступны для использования:
``` bash
# C++
$ ./segnet --network=fcn-resnet18-mhp csi://0
# Python
$ ./segnet.py --network=fcn-resnet18-mhp csi://0
``` bash # C++ $ ./segnet --network=fcn-resnet18-sun csi://0 # Python $ ./segnet.py --network=fcn-resnet18-sun csi://0 ``` ``` bash # C++ $ ./segnet --network=fcn-resnet18-deepscene csi://0 # Python $ ./segnet.py --network=fcn-resnet18-deepscene csi://0 ``` Пожалуйста, экспериментируйте с различными моделями и разрешениями для внутренних и внешних сред. ##

Далее | Определение поз с PoseNet
Назад | Сегментация изображений с помощью командной строки

© 2016-2019 NVIDIA | Содержание

Опубликовать ( 0 )

Вы можете оставить комментарий после Вход в систему

1
https://api.gitlife.ru/oschina-mirror/duping812-jetson-inference.git
git@api.gitlife.ru:oschina-mirror/duping812-jetson-inference.git
oschina-mirror
duping812-jetson-inference
duping812-jetson-inference
master