1 В избранное 0 Ответвления 0

OSCHINA-MIRROR/open-mmlab-mmdetection

Присоединиться к Gitlife
Откройте для себя и примите участие в публичных проектах с открытым исходным кодом с участием более 10 миллионов разработчиков. Приватные репозитории также полностью бесплатны :)
Присоединиться бесплатно
Клонировать/Скачать
README_zh-CN.md 37 КБ
Копировать Редактировать Web IDE Исходные данные Просмотреть построчно История
Отправлено 10.03.2025 05:15 b932553

ВведениеMMDetection — это открытый инструментарий для детектирования объектов на основе PyTorch. Он является частью проекта OpenMMLab.

Основной веткой поддерживаются версии PyTorch 1.6 и выше.

Основные характеристики
  • Модульная архитектура

    MMDetection декомпозирует детекторы на различные модульные компоненты, позволяющие пользователям легко создавать свои собственные модели детекции путём комбинирования этих модулей.

  • Поддержка различных задач детекции

    MMDetection поддерживает множество различных задач детекции, включая детекцию объектов, сегментацию экземпляров, панорамную сегментацию и полусотоятельную детекцию объектов.

  • Высокая скорость

    Основные операции с рамками и масками реализованы на GPU, что обеспечивает более высокую скорость обучения по сравнению с другими библиотеками, такими как Detectron2, maskrcnn-benchmark и SimpleDet.

  • Высокое качествоКод MMDetection был создан командой победителей конкурса COCO 2018 года по детекции объектов, и мы продолжаем его совершенствовать. Недавно выпущенная RTMDet демонстрирует лучшие результаты среди задач реального времени instance segmentation и поворотной детекции объектов, а также достигает наилучшего соотношения точности и размера модели среди моделей детекции объектов.

Кроме того, мы запустили пакет для глубинного обучения MMEngine и базовый пакет для компьютерного зрения MMCV, которые являются основными зависимостями MMDetection.

Последние достижения

Выдающиеся моментыМы рады представить наши последние достижения в области реального времени детекции объектов RTMDet, который представляет собой серию полностью свёрточных однофазных моделей детекции. RTMDet не только достигает наилучшего соотношения точности и размера модели для целых диапазонов размеров объектов от tiny до extra-large, но также демонстрирует передовые результаты в задачах реального времени instance segmentation и поворачиваемого детектирования объектов. Подробнее см. технический отчёт. Предобученные модели доступны здесь.

PWC

[PWC](https://paperswithcode.com/sota/detection-on-aerial-images-on-dota- Yöntem 1? p=rtmdet-an-empirical-study-of-designing-real)

[PWC](https://paperswithcode.com/sota/detection-on-aerial-images-on-hrsc2016? p=rtmdet-an-empirical-study-of-designing-real)

Задача Датасет AP FPS(TRT FP16 BS1 3090)
Обнаружение объектов COCO 52,8 322
Обнаружение поворотных объектов DOTA 78,9 (односкальное) / 81,3 (множественная) 121

Версия v3.0.0 была выпущена 2023.4.6:

  • Официальная версия MMDetection 3.0.0
  • Поддержка полуавтоматического процесса аннотации с использованием Label-Studio
  • Поддержка EfficientDet в проектах

Установка

Для установки обратитесь к руководству по быстрому началу работы.

Учебники

Чтобы получить начальное представление о MMDetection, прочитайте введение.

Для более глубокого понимания MMDetection мы подготовили руководства пользователя и продвинутые учебники. Прочитайте наши документы:

Мы предоставляем колаб-туториалы по детекции Открыть в Colab и колаб-туториалы по instance segmentation Открыть в Colab.

Кроме того, мы предлагаем общий список статей по MMDetection на китайском языке.

Если вам требуется миграция кода с версии 2.x на новую версию, обратитесь к документации по миграции.

Бенчмарки и модельная библиотекаРезультаты тестирования и модели можно найти в модельной библиотеке.

Алгоритмическая архитектура
Обнаружение объектов Сегментация экземпляров Панорамная сегментация Другое
AutoAssign (ArXiv'2020) Side-Aware Boundary Localization (ECCV'2020) Dynamic R-CNN (ECCV'2020) DETR (ECCV'2020) Mask2Former (ArXiv'2021) CondInst (ECCV'2020) SparseInst (CVPR'2022) RTMDet (ArXiv'2022) BoxInst (CVPR'2021)
Modular Components
Main Networks Necks Loss Functions General
  • VGG (ICLR'2015)
  • ResNet (CVPR'2016)
  • ResNeXt (CVPR'2017)
  • MobileNetV2 (CVPR'2018)
  • HRNet (CVPR'2019)
```Мы также привели некоторые другие поддерживаемые алгоритмы в нашем проекте, основанном на MMDetection [в этом документе](./docs/ru_CN/notes/projects.md).```## Часто задаваемые вопросы

Для получения ответов на наиболее часто задаваемые вопросы другими пользователями обратитесь к часто задаваемым вопросам (FAQ).

Гайдлайн для вклада

Мы благодарим всех участников за их вклад в улучшение и развитие MMDetection. Мы добавили наши текущие проекты на страницу GitHub Projects, и очень рады видеть участие сообщества в этих проектах. Для получения информации о том, как участвовать в проектах, обратитесь к гайдлайну для вклада.

Благодарности

MMDetection — это открытый проект, над которым работают исследователи из различных университетов и компаний. Мы выражаем благодарность всем участникам, которые предоставили реализацию алгоритмов и новые возможности, а также пользователям, которые предоставили ценные отзывы. Наша цель — обеспечить сообщество гибкими средствами для воспроизведения существующих алгоритмов и создания новых моделей, что будет способствовать развитию открытого программного обеспечения.

Цитирование

Если вы используете код или базовые показатели производительности этого проекта в ваших исследованиях, пожалуйста, используйте следующий библиографический образец для цитирования MMDetection:

@inproceedings{mmdetection,
    title={MMDetection: Open MMLab Detection Toolbox and Benchmark},
    author={OpenMMLab Contributors},
    year={2020},
    url={http://open-mmlab.org}
}

@article{mmdetection, title = {{MMDetection}: Открытый набор инструментов и тестовых данных для задач распознавания объектов Open MMLab}, author = {Чен, Кай и Ванг, Жияци и Панг, Цзянмiao и Цао, Юханг и Сюнг, Ю и Ли, Сяосяо и Сунь, Шуйянг и Фэн, Уансэнь и Лу, Цзивез и Сю, Джияруй и Чжан, Чжэн и Чжэнг, Дацзи и Чжу, Ченчен и Чжэнг, Тяньхэн и Чжао, Цзицзе и Ли, Бую и Лю, Синь и Чжу, Руй и Ву, Йуэ и Дай, Цзифэнг и Ван, Цзинджонг и Ши, Цзяньпинг и Уйянг, Ванли и Лой, Чен Ченчэн и Линь, Дафа}, journal = {arXiv preprint arXiv:1906.07155}, year = {2019} }


Проект использует лицензию [Apache 2.0](LICENSE).## Другие проекты OpenMMLab- [MMEngine](https://github.com/open-mmlab/mmengine): Основная библиотека для обучения глубинным моделям OpenMMLab
 - [MMCV](https://github.com/open-mmlab/mmcv): Базовая библиотека компьютерного зрения OpenMMLab
 - [MIM](https://github.com/open-mmlab/mim): MIM — единственный вход для проектов, алгоритмов и моделей OpenMMLab
 - [MMClassification](https://github.com/open-mmlab/mmclassification): Инструментарий для классификации изображений OpenMMLab
 - [MMDetection](https://github.com/open-mmlab/mmdetection): Инструментарий для детекции объектов OpenMMLab
 - [MMDetection3D](https://github.com/open-mmlab/mmdetection3d): Новый универсальный платформенный подход для  YöLO и тестовых баз OpenMMLab
 - [MMSegmentation](https://github.com/open-mmlab/mmsegmentation): Инструментарий для сегментации OpenMMLab
 - [MMOCR](https://github.com/open-mmlab/mmocr): Полный набор инструментов для распознавания и понимания текста OpenMMLab
 - [MMPose](https://github.com/open-mmlab/mmpose): Инструментарий для оценки поз OpenMMLab
 - [MMHuman3D](https://github.com/open-mmlab/mmhuman3d): Инструментарий для параметрических моделей человека и тестовых баз OpenMMLab
 - [MMSelfSup](https://github.com/open-mmlab/mmselfsup): Инструментарий для самообучения и тестовых баз OpenMMLab
 - [MMRazor](https://github.com/open-mmlab/mmrazor): Инструментарий для сжатия моделей и тестовых баз OpenMMLab
 - [MMFewShot](https://github.com/open-mmlab/mmfewshot): Инструментарий для обучения с малым количеством образцов и тестовых баз OpenMMLab
 - [MMAction2](https://github.com/open-mmlab/mmaction2):com/open-mmlab/mmaction2): Новый инструментарий для анализа видео OpenMMLab
 - [MMTracking](https://github.com/open-mmlab/mmtracking): Интегрированный платформенный подход для анализа движущихся объектов на видео OpenMMLab
 - [MMFlow](https://github.com/open-mmlab/mmflow): Инструментарий для оценки оптического потока и тестовых данных OpenMMLab
 - [MMEditing](https://github.com/open-mmlab/mmediting): Инструментарий для редактирования изображений и видео OpenMMLab
 - [MMGeneration](https://github.com/open-mmlab/mmgeneration): Инструментарий для генерации изображений и видео OpenMMLab
 - [MMDeploy](https://github.com/open-mmlab/mmdeploy): Фреймворк для развертывания моделей OpenMMLab

## Добро пожаловать в сообщество OpenMMLabСканируйте QR-код ниже, чтобы подписаться на официальный аккаунт OpenMMLab на [Zhihu](https://www.zhihu.com/people/openmmlab) и присоединиться к официальному общению команды OpenMMLab в [группе QQ](https://jq.qq.com/?_wv=1027&k=aCvMxdr3).

<div align="center">
<img src="resources/zhihu_qrcode.jpg" height="400" />  <img src="resources/qq_group_qrcode.jpg" height="400" />
</div>

Мы будем делиться с вами новыми знаниями в сообществе OpenMMLab:

- 📢 Ведущие технологии фреймворков AI
- 💻 Расшифровка исходного кода часто используемых модулей PyTorch
- 📰 Новости проекта OpenMMLab
- 🚀 Представление передовых алгоритмов, разработанных командой OpenMMLab
- 🏃‍♂️ Более эффективное решение вопросов и сбор обратной связи
- 🔥 Платформа для взаимодействия со всеми разработчиками различных областей

Приходите за полезной информацией 📘, мы ждём вас 💗, присоединяйтесь к сообществу OpenMMLab 👬

Опубликовать ( 0 )

Вы можете оставить комментарий после Вход в систему

1
https://api.gitlife.ru/oschina-mirror/open-mmlab-mmdetection.git
git@api.gitlife.ru:oschina-mirror/open-mmlab-mmdetection.git
oschina-mirror
open-mmlab-mmdetection
open-mmlab-mmdetection
main