1 В избранное 0 Ответвления 0

OSCHINA-MIRROR/monkeycc-mmdetection3d

Присоединиться к Gitlife
Откройте для себя и примите участие в публичных проектах с открытым исходным кодом с участием более 10 миллионов разработчиков. Приватные репозитории также полностью бесплатны :)
Присоединиться бесплатно
Клонировать/Скачать
README_zh-CN.md 37 КБ
Копировать Редактировать Web IDE Исходные данные Просмотреть построчно История
Отправлено 12.03.2025 02:15 a539ab6

Введение

MMDetection3D — это открытый инструментарий для детектирования объектов на основе PyTorch, являющийся следующим поколением платформы для 3D-детекции. Он является частью проекта OpenMMlab.Основной ветвью поддерживаются версии PyTorch 1.8 и выше.

demo image

Основные характеристики
  • Поддержка многомодальных/одномодальных детекторов

    Поддерживает многомодальные/одномодальные детекторы, такие как MVXNet, VoteNet, PointPillars и другие.

  • Поддержка данных для внутреннего/внешнего использования

    Поддерживает наборы данных для 3D-детекции для внутреннего/внешнего использования, включая ScanNet, SUNRGB-D, Waymo, nuScenes, Lyft, KITTI. Для набора данных nuScenes также поддерживается набор данных nuImages.

  • Натуральное объединение с 2D-детекторами

    Все более чем 300 моделями, более чем 40 алгоритмами научных работ, а также связанные модули, поддерживаемые MMDetection, могут быть обучены или использованы в этом репозитории.

  • Высокая производительность Высокие скорости обучения по сравнению с другими библиотеками. Ниже представлена таблица основных результатов сравнения. Дополнительные детали можно найти в документации по тестированию производительности. Мы сравнивали количество примеров, которое может быть обучено за секунду (чем больше значение, тем лучше). Модели, которые не поддерживаются другими библиотеками, отмечены как .

Методы MMDetection3D OpenPCDet votenet Det3D
VoteNet 358 77
PointPillars-car 141 140
PointPillars-3class 107 44
SECOND 40 30
Part-A2 17 14

Недавние достижения

Выдающиеся моменты

В версии 1.4 MMDetection3D был переработан для работы с данными Waymo, что привело к ускорению предварительной обработки данных, запуска обучения/тестирования и проверки скорости. Также были добавлены модели трехмерного детектирования объектов на основе камер, такие как монокулярное и BEV. Подробное описание данных Waymo доступно здесь.

Кроме того, в версии 1.4 была представлена Waymo-mini для помощи пользователям сообщества в работе с данными Waymo и быстрого прототипирования.

Версия v1.4.0 была выпущена 8 января 2024 года:

  • В разделе projects добавлена поддержка тренировки DSVT
  • В разделе projects добавлена поддержка Nerf-Det
  • Переработана работа с данными Waymo

Версия v1.3.0 была выпущена 18 октября 2023 года:

  • В разделе projects добавлена поддержка CENet
  • Улучшены демонстрационные примеры с помощью новых 3D inferencers
  • Добавлена возможность скачивания данных через mim от OpenDataLab

Версия v1.2.0 была выпущена 4 июля 2023 года:- В разделе mmdet3d/configs добавлена поддержка новых конфигураций

  • В разделе projects добавлена поддержка инференса DSVT
  • Добавлена поддержка загрузки данных через mim от OpenDataLab

Версия v1.1.1 была выпущена 30 мая 2023 года:

  • В разделе projects добавлена поддержка тренировки TPVFormer
  • В разделе projects добавлена поддержка тренировки BEVFusion
  • Добавлена поддержка лазерного сканирования для 3D семантического сегментирования

Установка

Для установки пожалуйста следуйте руководству по началу работы.

Обучающие материалы

Пользовательское руководство - [Обучение & Тестирование](https://mmdetection3d.readthedocs.io/ru/latest/user_guides/index.html#train-test) - [Настройка конфигурационных файлов](https://mmdetection3d.readthedocs.io/ru/latest/user_guides/config.html) - [Координатные системы](https://mmdetection3d.readthedocs.io/ru/latest/user_guides/coord_sys_tutorial.html) - [Предварительная обработка данных](https://mmdetection3d.readthedocs.io/ru/latest/user_guides/dataset_prepare.html) - [Создание пользовательских процессов предобработки данных](https://mmdetection3d.readthedocs.io/ru/latest/user_guides/data_pipeline.html) - [Тестирование и обучение на аннотированном наборе данных](https://mmdetection3d.readthedsdocs.io/ru/latest/user_guides/train_test.html) - [Интерполяция](https://mmdetection3d.readthedocs.io/ru/latest/user_guides/inference.html) - [Обучение на пользовательском наборе данных](https://mmdetection3d.readthedocs.io/ru/latest/user_guides/new_data_model.html) - [Практические инструменты](https://mmdetection3d.readthedocs.io/ru/latest/user_guides/index.html#useful-tools)
Продвинутые руководства

Бенчмарки и библиотека моделейРезультаты тестирования и модели можно найти в библиотеке моделей.

Модульные компоненты
Основной сетевой модуль Детектор Особенности
Алгоритмические модели
Лазерная съемка 3D детекция объектов Камера 3D детекция объектов Многомодальная 3D детекция объектов 3D семантическое сегментирование
На улице
PointRCNN (CVPR'2019) Part-A2 (TPAMI'2020) CenterPoint (CVPR'2021) PV-RCNN (CVPR'2020) CenterFormer (ECCV'2022) В помещении На улице В помещении На улице BEVFusion (ICRA'2023) В помещении За пределами помещений
ResNet VoVNet Swin-T PointNet++ SECOND DGCNN RegNetX DLA MinkResNet Cylinder3D MinkUNet
SECOND
PointPillars
FreeAnchor
VoteNet
H3DNet
3DSSD
Part-A2
MVXNet
CenterPoint
SSN
ImVoteNet
PointNet++
Group-Free-3D
ImVoxelNet
PAConv
DGCNN
SMOKE
PGD
MonoFlex
SA-SSD
FCAF3D
PV-RCNN
Cylinder3D
MinkUNet
SPVCNN
BEVFusion
CenterFormer
TR3D
DETR3D
PETR
TPVFormer

Примечание: В MMDetection3D можно обучать или использовать более 300 моделей, основанных на двумерной детекции, и более 40 алгоритмов, представленных в научных статьях.## Часто задаваемые вопросы

Для получения ответов на наиболее часто задаваемые вопросы других пользователей обратитесь к разделу ЧАВО.

Гайд по вкладу

Мы благодарим всех участников за их вклад в улучшение и развитие MMDetection3D. Для получения информации о том, как вы можете принять участие в проекте, прочтите гайд по вкладу вклад.

Благодарности

MMDetection3D — это открытый проект, над которым работают исследователи из различных университетов и компаний. Мы выражаем признательность всем участникам, которые предоставляют реализацию алгоритмов и новые возможности, а также пользователям, которые дают ценные отзывы. Наша цель — предоставить сообществу гибкий набор инструментов для воспроизведения существующих алгоритмов и создания новых трёхмерных моделей детекции.

Цитирование

Если вам помог этот проект в вашем исследовании, пожалуйста, используйте следующий библиографический образец для цитирования MMDetection3D:

@misc{mmdet3d2020,
    title={{MMDetection3D: OpenMMLab} следующее поколение платформы для общего {3D} объектного детектирования},
    author={Участники проекта MMDetection3D},
    howpublished = {\url{https://github.com/open-mmlab/mmdetection3d}},
    year={2020}
}

Лицензия

Проект использует лицензию Apache 2.0.## Другие проекты OpenMMLab- MMEngine: Основная библиотека OpenMMLab для обучения глубоким моделям

  • MMCV: Базовая библиотека OpenMMLab для компьютерного зрения
  • MMEval: Общедоступная унифицированная библиотека для оценки алгоритмов в различных фреймворках
  • MIM: MIM — единственный вход для проектов, алгоритмов и моделей OpenMMLab
  • MMPreTrain: Инструментарий OpenMMLab для предварительного обучения глубоким моделям
  • MMDetection: Инструментарий OpenMMLab для детектирования объектов
  • MMDetection3D: Новый универсальный платформенный подход OpenMMLab для трёхмерного детектирования объектов
  • MMRotate: Инструментарий OpenMMLab для работы с поворачивающимися рамками и тестовыми базами данных
  • MMYOLO: Инструментарий OpenMMLab для работы со всеми версиями YOLO и тестовыми базами данных
  • MMSegmentation: Инструментарий OpenMMLab для сегментации изображений
  • MMOCR: Инструментарий OpenMMLab для полного цикла распознавания текста
  • MMPose: Инструментарий OpenMMLab для оценки поз
  • MMHuman3D: Инструментарий OpenMMLab для моделирования человеческого тела и тестовых баз данных
  • MMSelfSup: Инструментарий OpenMMLab для самообучения и тестовых баз данных- MMRazor: Инструментарий OpenMMLab для сжатия моделей и тестовых баз данных
  • MMFewShot: Инструментарий OpenMMLab для обучения с малым количеством примеров- MMEngine: Основная библиотека OpenMMLab для обучения глубоким моделям
  • MMCV: Базовая библиотека OpenMMLab для компьютерного зрения
  • MMEval: Унифицированная открытая библиотека для оценки алгоритмов в различных фреймворках
  • MIM: MIM — единственный вход для проектов, алгоритмов и моделей OpenMMLab
  • MMPreTrain: Инструментарий OpenMMLab для предварительного обучения глубоким моделям
  • MMDetection: Инструментарий OpenMMLab для детектирования объектов
  • MMDetection3D: Новый универсальный подход OpenMMLab для трехмерного детектирования объектов
  • MMRotate: Инструментарий OpenMMLab для работы с поворачивающимися рамками и тестовыми базами данных
  • MMYOLO: Инструментарий OpenMMLab для работы со всеми версиями YOLO и тестовыми базами данных
  • MMSegmentation: Инструментарий OpenMMLab для сегментации изображений
  • MMOCR: Инструментарий OpenMMLab для полного цикла распознавания текста
  • MMPose: Инструментарий OpenMMLab для оценки поз
  • MMHuman3D: Инструментарий OpenMMLab для моделирования человеческого тела и тестовых баз данных
  • MMSelfSup: Инструментарий OpenMMLab для самообучения и тестовых баз данных
  • MMRazorcom/open-mmlab/mmrazor)): Инструментарий OpenMMLab для сжатия моделей и тестовых баз данных
  • MMFewShot): Инструментарий OpenMMLab для обучения с малым количеством образцов и тестовых баз данных
  • MMAction2): Новый универсальный подход OpenMMLab для анализа видео
  • MMTracking): Интегрированный подход OpenMMLab для видеонаблюдения и отслеживания объектов
  • MMFlow): Инструментарий OpenMMLab для оценки потока между изображениями и тестовых баз данных
  • MMagic): Новый универсальный подход OpenMMLab для создания контента с помощью искусственного интеллекта
  • MMGeneration): Инструментарий OpenMMLab для генерации изображений и видео
  • MMDeploy): Инструментарий OpenMMLab для развертывания моделей

Добро пожаловать в сообщество OpenMMLabСканируйте QR-код ниже, чтобы подписаться на официальный аккаунт OpenMMLab на Zhihu. Также вы можете сканировать QR-код WeChat ниже, чтобы добавиться в друзья к Мао Мао и присоединиться к сообществу общения MMDetection3D на WeChat. [Формат заявки на добавление в друзья: "направление исследований + регион + учебное заведение/компания + имя"].

Мы будем рады представить вас в сообществе OpenMMLab:

  • 📢 Современные технологии AI-фреймворков
  • 💻 Расшифровка исходного кода часто используемых модулей PyTorch
  • 📰 Новости проекта OpenMMLab
  • 🚀 Введение в передовые алгоритмы, разработанные командой OpenMMLab
  • 🏃 Более эффективное решение вопросов и сбор обратной связи
  • 🔥 Платформа для взаимодействия с разработчиками из различных отраслей

Приглашаем вас присоединиться к нашему сообществу, где вас ждет множество полезной информации 📘, а также возможность активного общения 💗. Мы с нетерпением ждём вашего участия 👬!

Опубликовать ( 0 )

Вы можете оставить комментарий после Вход в систему

1
https://api.gitlife.ru/oschina-mirror/monkeycc-mmdetection3d.git
git@api.gitlife.ru:oschina-mirror/monkeycc-mmdetection3d.git
oschina-mirror
monkeycc-mmdetection3d
monkeycc-mmdetection3d
main