📘Документация | 🛠️Установка | 👀Модели | 🆕Обновление новостей | 🚀Запущенные проекты | 🤔Отчет о проблемах
Английский | Китайский (упрощённый)
Основной ветвью поддерживаются версии PyTorch 1.6+.
Модульная архитектура
Мы декомпозируем детектор объектов на различные компоненты, что позволяет легко создавать пользовательскую систему детектирования объектов путём объединения различных модулей.
Поддержка нескольких задач "из коробки"
Инструментарий поддерживает несколько типов задач детектирования, таких как детектирование объектов, множественное сегментирование объектов, панорамное сегментирование и полунаблюдаемое детектирование объектов.
Высокая эффективность
Все базовые операции с ограничивающими рамками и масками выполняются на GPU. Скорость обучения превышает или равна скорости других пакетов, включая Detectron2, maskrcnn-benchmark и SimpleDet.
Представление передовых технологий Этот инструментарий основан на кодовой базе, созданной командой MMDet, которая заняла первое место в соревновании COCO Detection в 2018 году. Мы продолжаем развивать его. Недавно выпущенная RTMDet также достигла новых показателей передовых технологий в реальном времени для задач сегментации объектов и поворотного детектирования объектов, а также обеспечила лучшее соотношение параметров и точности для задач детектирования объектов.
Кроме MMDetection, мы также представили MMEngine для обучения моделей и MMCV для исследований компьютерного зрения, которые являются основой этого инструментария.
com/sota/детекция-объектов-в-аэрокосмических-изображениях-на-hrsc2016? p=rtmdet-эмпирическое-исследование-проектирования-реального| Задача | Датасет | AP | FPS(TRT FP16 BS1 3090) |
| ------------------------ | ------- | ------------------------------------ | ---------------------- |
| Детекция объектов | COCO | 52.8 | 322 |
| Временная сегментация | COCO | 44.6 | 188 |
| Вращённая детекция объектов | DOTA | 78.9 (односкалярное)/81.3 (мультикайзерное) | 121 |
v3.0.0 был выпущен 6 апреля 2023 года:
Для получения инструкций по установке обратитесь к разделу Установка.
Для общего представления о MMDetection обратитесь к разделу Обзор.
Для подробных руководств пользователя и продвинутых руководств обратитесь к нашей документации:
Руководства пользователя
Мы также предоставляем учебник по объектному детектированию в Colab и учебник по сегментации экземпляров в Colab
.
Для миграции с MMDetection 2.x обратитесь к разделу руководство по миграции.
Main Networks | Cervical Spines | Loss Functions | General |
|
Пожалуйста, обратитесь к Часто задаваемым вопросам для ответов на часто задаваемые вопросы.
Мы ценим все вклады, направленные на улучшение MMDetection. Основные проекты можно найти в разделе GitHub Projects. Добро пожаловать, участники сообщества, принять участие в этих проектах. Для руководства по вкладу обратитесь к CONTRIBUTING.md.
MMDetection — это открытый проект, созданный исследователями и инженерами из различных университетов и компаний. Мы благодарим всех участников, которые реализуют свои методы или добавляют новые возможности, а также пользователей, которые предоставляют ценную обратную связь. Надеемся, что этот набор инструментов и бенчмарков будет служить растущему научному сообществу, предлагая гибкий набор инструментов для переиспользования существующих методов и создания новых детекторов.
Если вы используете этот набор инструментов или бенчмарк в своих исследованиях, пожалуйста, цитируйте этот проект.``` @article{mmdetection, title = {{MMDetection}: Открытый набор инструментов и тестовых данных для задач распознавания объектов от Open MMLab}, author = {Chen, Kai and Wang, Jiaqi and Pang, Jiangmiao and Cao, Yuhang and Xiong, Yu and Li, Xiaoxiao and Sun, Shuyang and Feng, Wansen and Liu, Ziwei and Xu, Jiarui and Zhang, Zheng and Cheng, Dazhi and Zhu, Chenchen and Cheng, Tianheng and Zhao, Qijie and Li, Buyu and Lu, Xin and Zhu, Rui and Wu, Yue and Dai, Jifeng and Wang, Jingdong and Shi, Jianping and Ouyang, Wanli and Loy, Chen Change and Lin, Dahua}, journal = {arXiv preprint arXiv:1906.07155}, year = {2bk19} }
Исправление года публикации:
@article{mmdetection, title = {{MMDetection}: Открытый набор инструментов и тестовых данных для задач распознавания объектов от Open MMLab}, author = {Chen, Kai and Wang, Jiaqi and Pang, Jiangmiao and Cao, Yuhang and Xiong, Yu and Li, Xiaoxiao and Sun, Shuyang and Feng, Wansen and Liu, Ziwei and Xu, Jiarui and Zhang, Zheng and Cheng, Dazhi and Zhu, Chenchen and Cheng, Tianheng and Zhao, Qijie and Li, Buyu and Lu, Xin and Zhu, Rui and Wu, Yue and Dai, Jifeng and Wang, Jingdong and Shi, Jianping and Ouyang, Wanli and Loy, Chen Change and Lin, Dahua}, journal = {arXiv preprint arXiv:1906.07155}, year = {2019} }
Этот проект распространяется под лицензией [Apache 2.0](LICENSE).## Проекты в OpenMMLab- [MMEngine](https://github.com/open-mmlab/mmengine): Основная библиотека OpenMMLab для обучения глубоких моделей машинного обучения.
- [MMCV](https://github.com/open-mmlab/mmcv): Основная библиотека OpenMMLab для компьютерного зрения.
- [MIM](https://github.com/open-mmlab/mim): MIM устанавливает пакеты OpenMMLab.
- [MMClassification](https://github.com/open-mmlab/mmclassification): Инструментарий и метрика OpenMMLab для классификации изображений.
- [MMDetection](https://github.com/open-mmlab/mmdetection): Инструментарий и метрика OpenMMLab для детекции объектов.
- [MMDetection3D](https://github.com/open-mmlab/mmdetection3d): Новое поколение платформы OpenMMLab для общей детекции объектов в трёхмерном пространстве.
- [MMRotate](https://github.com/open-mmlab/mmrotate): Инструментарий и метрика OpenMMLab для повёрнутой детекции объектов.
- [MMYOLO](https://github.com/open-mmlab/mmyolo): Инструментарий и метрика OpenMMLab для серии YOLO.
- [MMSegmentation](https://github.com/open-mmlab/mmsegmentation): Инструментарий и метрика OpenMMLab для сегментации изображений.
- [MMOCR](https://github.com/open-mmlab/mmocr): Инструментарий и метрика OpenMMLab для распознавания текста, его обнаружения и понимания.
- [MMPose](https://github.com/open-mmlab/mmpose): Инструментарий и метрика OpenMMLab для оценки поз.
- [MMHuman3D](https://github.com/open-mmlab/mmhuman3d): Инструментарий и метрика OpenMMLab для трехмерной модели человека.
- [MMSelfSup](https://github.com/open-mmlab/mmselfsup): Инструментарий и метрика OpenMMLab для самообучаемых моделей.
- [MMRazor](https://github.com/open-mmlab/mmrazor): Инструментарий и метрика OpenMMLab для сжатия моделей.
- [MMFewShot](https://github.com/open-mmlab/MMFewShot): Инструментарий и метрика OpenMMLab для few-shot обучения.com/open-mmlab/mmfewshot)): Инструментарий и метрика OpenMMLab для малошотного обучения.
- [MMAction2](https://github.com/open-mmlab/mmaction2): Новое поколение инструментария и метрик OpenMMLab для понимания действий.
- [MMTracking](https://github.com/open-mmlab/mmtracking): Инструментарий и метрика OpenMMLab для видеоанализа.
- [MMFlow](https://github.com/open-mmlab/mmflow): Инструментарий и метрика OpenMMLab для оптического потока.
- [MMEditing](https://github.com/open-mmlab/mmediting): Инструментарий OpenMMLab для редактирования изображений и видео.
- [MMGeneration](https://github.com/open-mmlab/mmgeneration): Инструментарий OpenMMLab для генеративных моделей изображений и видео.
- [MMDeploy](https://github.com/open-mmlab/mmdeploy): Фреймворк для развертывания моделей OpenMMLab.
Вы можете оставить комментарий после Вход в систему
Неприемлемый контент может быть отображен здесь и не будет показан на странице. Вы можете проверить и изменить его с помощью соответствующей функции редактирования.
Если вы подтверждаете, что содержание не содержит непристойной лексики/перенаправления на рекламу/насилия/вульгарной порнографии/нарушений/пиратства/ложного/незначительного или незаконного контента, связанного с национальными законами и предписаниями, вы можете нажать «Отправить» для подачи апелляции, и мы обработаем ее как можно скорее.
Комментарии ( 0 )