1 В избранное 0 Ответвления 0

OSCHINA-MIRROR/Luxonis-Brian-depthai

Присоединиться к Gitlife
Откройте для себя и примите участие в публичных проектах с открытым исходным кодом с участием более 10 миллионов разработчиков. Приватные репозитории также полностью бесплатны :)
Присоединиться бесплатно
Клонировать/Скачать
Внести вклад в разработку кода
Синхронизировать код
Отмена
Подсказка: Поскольку Git не поддерживает пустые директории, создание директории приведёт к созданию пустого файла .keep.
Loading...
README.md

MCAP (https://mcap.dev/) или ROS.bag (http://wiki.ros.org/rosbag). Поскольку монопотоки синхронизированы, вы сможете восстановить всё стереовосприятие глубины.

Запустите с помощью команды: $ depthai_demo.py -app record [-p SAVE_PATH] [-q QUALITY] [--save STREAMS] [-fc] [-tl]. Более подробную информацию об аргументах и воспроизведении можно найти здесь: https://github.com/luxonis/depthai-experiments/tree/master/gen2-record-replay.

Поддерживаемые модели

Мы добавили поддержку ряда различных моделей искусственного интеллекта, которые работают (декодирование и визуализация) «из коробки» с демонстрацией. Вы можете указать, какую модель запустить с аргументом -cnn, как показано выше. В настоящее время поддерживаются следующие модели:

  • deeplabv3p_person;
  • face-detection-adas-0001;
  • face-detection-retail-0004;
  • human-pose-estimation-0001;
  • mobilenet-ssd;
  • openpose2;
  • pedestrian-detection-adas-0002;
  • person-detection-retail-0013;
  • person-vehicle-bike-detection-crossroad-1016;
  • road-segmentation-adas-0001;
  • tiny-yolo-v3;
  • vehicle-detection-adas-0002;
  • vehicle-license-plate-detection-barrier-0106;
  • yolo-v3. Если вы хотите использовать пользовательскую модель искусственного интеллекта, см. документацию здесь: https://docs.luxonis.com/en/latest/pages/tutorials/first_steps/#using-custom-models.

Статистика использования

По умолчанию демонстрационный скрипт будет собирать анонимную статистику использования во время выполнения. Она включает в себя:

  • Информацию о конкретном устройстве (например, mxid, подключённые камеры, состояние устройства и тип подключения);
  • Специфическую для среды информацию (например, тип ОС, версия Python, версии пакетов).

Мы собираем эти данные, чтобы лучше понять, какие среды используют наши пользователи, а также лучше помогать в вопросах поддержки.

Все собранные нами данные анонимны, и вы можете отключить их в любое время. Для этого перейдите на вкладку «Misc» и отключите отправку статистики или создайте файл .consent в корне репозитория со следующим содержимым:

{"statistics": false}

Сообщение о проблемах

Мы активно разрабатываем фреймворк DepthAI, и нам важно знать, с какими проблемами вы сталкиваетесь. Если у вас возникла проблема, пожалуйста, выполните следующие шаги и отправьте электронное письмо по адресу support@luxonis.com:

  1. Запустите log_system_information.sh и поделитесь выводом из (log_system_information.txt).
  2. Сделайте фотографию используемого вами устройства (или предоставьте нам модель устройства).
  3. Опишите ожидаемые результаты.
  4. Опишите фактические результаты работы (что вы видите после запуска скрипта с DepthAI).
  5. Как вы используете Python API DepthAI (например, фрагмент кода).
  6. Вывод консоли.

Комментарии ( 0 )

Вы можете оставить комментарий после Вход в систему

Введение

DepthAI Demo Program Развернуть Свернуть
Python и 6 других языков
MIT
Отмена

Обновления

Пока нет обновлений

Участники

все

Недавние действия

Загрузить больше
Больше нет результатов для загрузки
1
https://api.gitlife.ru/oschina-mirror/Luxonis-Brian-depthai.git
git@api.gitlife.ru:oschina-mirror/Luxonis-Brian-depthai.git
oschina-mirror
Luxonis-Brian-depthai
Luxonis-Brian-depthai
main