📘Используйте документацию | 🛠️Установите руководство | 👀База моделей | 🆕Журнал обновлений | 🚀Проекты в разработке | 🤔Отчет о проблемах
Основной веткой поддерживаются версии PyTorch 1.6 и выше.
Модульная архитектура
MMDetection декомпозирует детекторы на различные модульные компоненты, позволяющие пользователям легко создавать свои собственные модели детекции путём комбинирования этих модулей.
Поддержка различных задач детекции
MMDetection поддерживает множество различных задач детекции, включая детекцию объектов, сегментацию экземпляров, панорамную сегментацию и полусотоятельную детекцию объектов.
Высокая скорость
Основные операции с рамками и масками реализованы на GPU, что обеспечивает более высокую скорость обучения по сравнению с другими библиотеками, такими как Detectron2, maskrcnn-benchmark и SimpleDet.
Высокое качествоКод MMDetection был создан командой победителей конкурса COCO 2018 года по детекции объектов, и мы продолжаем его совершенствовать. Недавно выпущенная RTMDet демонстрирует лучшие результаты среди задач реального времени instance segmentation и поворотной детекции объектов, а также достигает наилучшего соотношения точности и размера модели среди моделей детекции объектов.
Кроме того, мы запустили пакет для глубинного обучения MMEngine и базовый пакет для компьютерного зрения MMCV, которые являются основными зависимостями MMDetection.
[](https://paperswithcode.com/sota/detection-on-aerial-images-on-dota- Yöntem 1? p=rtmdet-an-empirical-study-of-designing-real)
[](https://paperswithcode.com/sota/detection-on-aerial-images-on-hrsc2016? p=rtmdet-an-empirical-study-of-designing-real)
Задача | Датасет | AP | FPS(TRT FP16 BS1 3090) |
---|---|---|---|
Обнаружение объектов | COCO | 52,8 | 322 |
Обнаружение поворотных объектов | DOTA | 78,9 (односкальное) / 81,3 (множественная) | 121 |
Версия v3.0.0 была выпущена 2023.4.6:
Для установки обратитесь к руководству по быстрому началу работы.
Чтобы получить начальное представление о MMDetection, прочитайте введение.
Для более глубокого понимания MMDetection мы подготовили руководства пользователя и продвинутые учебники. Прочитайте наши документы:
Руководство пользователя
Мы предоставляем колаб-туториалы по детекции и колаб-туториалы по instance segmentation
.
Кроме того, мы предлагаем общий список статей по MMDetection на китайском языке.
Если вам требуется миграция кода с версии 2.x на новую версию, обратитесь к документации по миграции.
Main Networks | Necks | Loss Functions | General | ||
|
Для получения ответов на наиболее часто задаваемые вопросы другими пользователями обратитесь к часто задаваемым вопросам (FAQ). Гайдлайн для вкладаМы благодарим всех участников за их вклад в улучшение и развитие MMDetection. Мы добавили наши текущие проекты на страницу GitHub Projects, и очень рады видеть участие сообщества в этих проектах. Для получения информации о том, как участвовать в проектах, обратитесь к гайдлайну для вклада. БлагодарностиMMDetection — это открытый проект, над которым работают исследователи из различных университетов и компаний. Мы выражаем благодарность всем участникам, которые предоставили реализацию алгоритмов и новые возможности, а также пользователям, которые предоставили ценные отзывы. Наша цель — обеспечить сообщество гибкими средствами для воспроизведения существующих алгоритмов и создания новых моделей, что будет способствовать развитию открытого программного обеспечения. ЦитированиеЕсли вы используете код или базовые показатели производительности этого проекта в ваших исследованиях, пожалуйста, используйте следующий библиографический образец для цитирования MMDetection: @inproceedings{mmdetection,
title={MMDetection: Open MMLab Detection Toolbox and Benchmark},
author={OpenMMLab Contributors},
year={2020},
url={http://open-mmlab.org}
}
@article{mmdetection, title = {{MMDetection}: Открытый набор инструментов и тестовых данных для задач распознавания объектов Open MMLab}, author = {Чен, Кай и Ванг, Жияци и Панг, Цзянмiao и Цао, Юханг и Сюнг, Ю и Ли, Сяосяо и Сунь, Шуйянг и Фэн, Уансэнь и Лу, Цзивез и Сю, Джияруй и Чжан, Чжэн и Чжэнг, Дацзи и Чжу, Ченчен и Чжэнг, Тяньхэн и Чжао, Цзицзе и Ли, Бую и Лю, Синь и Чжу, Руй и Ву, Йуэ и Дай, Цзифэнг и Ван, Цзинджонг и Ши, Цзяньпинг и Уйянг, Ванли и Лой, Чен Ченчэн и Линь, Дафа}, journal = {arXiv preprint arXiv:1906.07155}, year = {2019} }
Проект использует лицензию [Apache 2.0](LICENSE).## Другие проекты OpenMMLab- [MMEngine](https://github.com/open-mmlab/mmengine): Основная библиотека для обучения глубинным моделям OpenMMLab
- [MMCV](https://github.com/open-mmlab/mmcv): Базовая библиотека компьютерного зрения OpenMMLab
- [MIM](https://github.com/open-mmlab/mim): MIM — единственный вход для проектов, алгоритмов и моделей OpenMMLab
- [MMClassification](https://github.com/open-mmlab/mmclassification): Инструментарий для классификации изображений OpenMMLab
- [MMDetection](https://github.com/open-mmlab/mmdetection): Инструментарий для детекции объектов OpenMMLab
- [MMDetection3D](https://github.com/open-mmlab/mmdetection3d): Новый универсальный платформенный подход для YöLO и тестовых баз OpenMMLab
- [MMSegmentation](https://github.com/open-mmlab/mmsegmentation): Инструментарий для сегментации OpenMMLab
- [MMOCR](https://github.com/open-mmlab/mmocr): Полный набор инструментов для распознавания и понимания текста OpenMMLab
- [MMPose](https://github.com/open-mmlab/mmpose): Инструментарий для оценки поз OpenMMLab
- [MMHuman3D](https://github.com/open-mmlab/mmhuman3d): Инструментарий для параметрических моделей человека и тестовых баз OpenMMLab
- [MMSelfSup](https://github.com/open-mmlab/mmselfsup): Инструментарий для самообучения и тестовых баз OpenMMLab
- [MMRazor](https://github.com/open-mmlab/mmrazor): Инструментарий для сжатия моделей и тестовых баз OpenMMLab
- [MMFewShot](https://github.com/open-mmlab/mmfewshot): Инструментарий для обучения с малым количеством образцов и тестовых баз OpenMMLab
- [MMAction2](https://github.com/open-mmlab/mmaction2):com/open-mmlab/mmaction2): Новый инструментарий для анализа видео OpenMMLab
- [MMTracking](https://github.com/open-mmlab/mmtracking): Интегрированный платформенный подход для анализа движущихся объектов на видео OpenMMLab
- [MMFlow](https://github.com/open-mmlab/mmflow): Инструментарий для оценки оптического потока и тестовых данных OpenMMLab
- [MMEditing](https://github.com/open-mmlab/mmediting): Инструментарий для редактирования изображений и видео OpenMMLab
- [MMGeneration](https://github.com/open-mmlab/mmgeneration): Инструментарий для генерации изображений и видео OpenMMLab
- [MMDeploy](https://github.com/open-mmlab/mmdeploy): Фреймворк для развертывания моделей OpenMMLab
## Добро пожаловать в сообщество OpenMMLabСканируйте QR-код ниже, чтобы подписаться на официальный аккаунт OpenMMLab на [Zhihu](https://www.zhihu.com/people/openmmlab) и присоединиться к официальному общению команды OpenMMLab в [группе QQ](https://jq.qq.com/?_wv=1027&k=aCvMxdr3).
<div align="center">
<img src="resources/zhihu_qrcode.jpg" height="400" /> <img src="resources/qq_group_qrcode.jpg" height="400" />
</div>
Мы будем делиться с вами новыми знаниями в сообществе OpenMMLab:
- 📢 Ведущие технологии фреймворков AI
- 💻 Расшифровка исходного кода часто используемых модулей PyTorch
- 📰 Новости проекта OpenMMLab
- 🚀 Представление передовых алгоритмов, разработанных командой OpenMMLab
- 🏃♂️ Более эффективное решение вопросов и сбор обратной связи
- 🔥 Платформа для взаимодействия со всеми разработчиками различных областей
Приходите за полезной информацией 📘, мы ждём вас 💗, присоединяйтесь к сообществу OpenMMLab 👬
|
Вы можете оставить комментарий после Вход в систему
Неприемлемый контент может быть отображен здесь и не будет показан на странице. Вы можете проверить и изменить его с помощью соответствующей функции редактирования.
Если вы подтверждаете, что содержание не содержит непристойной лексики/перенаправления на рекламу/насилия/вульгарной порнографии/нарушений/пиратства/ложного/незначительного или незаконного контента, связанного с национальными законами и предписаниями, вы можете нажать «Отправить» для подачи апелляции, и мы обработаем ее как можно скорее.
Опубликовать ( 0 )