1 В избранное 0 Ответвления 0

OSCHINA-MIRROR/open-mmlab-mmselfsup

Присоединиться к Gitlife
Откройте для себя и примите участие в публичных проектах с открытым исходным кодом с участием более 10 миллионов разработчиков. Приватные репозитории также полностью бесплатны :)
Присоединиться бесплатно
Клонировать/Скачать
README_zh-CN.md 20 КБ
Копировать Редактировать Web IDE Исходные данные Просмотреть построчно История
Отправлено 27.02.2025 22:55 b199a83

English | Русский

Введение

MMSelfSup — это набор инструментов для обучения представлениям с помощью самообучения, реализованный на основе PyTorch, являющийся частью проекта OpenMMLab.

Основной ветвью поддерживаются версии PyTorch 1.5 и выше.

Основные характеристики
  • Интеграция множества методов

    MMSelfSup предоставляет множество передовых алгоритмов самообучения, большинство из которых имеют одинаковые настройки предварительного обучения, чтобы обеспечить более справедливое сравнение на базовых данных.

  • Модульная архитектура

    MMSelfSup следует концепции модульной архитектуры, используемой в проекте OpenMMLab, что позволяет пользователям легко создавать свои собственные алгоритмы.

  • Стандартизованные метрики производительности

    MMSelfSup имеет богатую коллекцию базовых данных для оценки и тестирования, включая линейную оценку, линейную классификацию SVM/Low-shot SVM, полус supervision, детектирование объектов и сегментацию.

  • Совместимость

    Совместимо со всеми основными библиотеками OpenMMLab, имеющими широкий спектр задач оценки и предварительно обученных моделей.

Последние новости

💎 Устойчивая версия

Новая версия v0.11.0 была выпущена 30 декабря 2022 года.

Основные новшества:

  • Поддержка InterCLR
  • Исправление некоторых ошибок

Подробности и история версий доступны в журнале обновлений.

Различия между MMSelfSup и OpenSelfSup описаны в документе сравнения.

🌟 Предварительная версия 1.x

Новая версия v1.0.0rc4 была выпущена 7 декабря 2022 года:

Основные новшества:

  • Основана на новых MMEngine и MMCV.
  • Обновленная документация версии 1.x.
  • Поддержка BEiT v1, BEiT v2, MILAN, MixMIM, EVA.
  • Поддержка предварительно обученных моделей различных временных периодов и размеров для MAE, SimMIM, MoCoV3.
  • Более простые API.
  • Расширенные возможности визуализации.
  • Улучшенные данные каналы.
  • Некоторые модели демонстрируют лучшие показатели точности.

Дополнительные новые возможности доступны в ветви 1.x. Приглашаем всех отправлять Issues и Pull Requests!

Установка

MMSelfSup зависит от PyTorch, MMCV и MMClassification.

Для получения подробных инструкций по установке обратитесь к документации по установке.

Быстрый старт

Для подготовки данных обратитесь к готовности данных, для получения базового использования MMSelfSup — к руководству по началу работы, а для выполнения задач после обучения — к базовым тестам.

Также мы предлагаем более подробные руководства, включающие:

Кроме того, мы предлагаем колаб-руководство.

Если вы столкнулись с проблемами, обратитесь к часто задаваемым вопросам.

База моделей

Для просмотра наших моделей и их результатов обратитесь к базе моделей.

Поддерживаемые алгоритмы:

Больше алгоритмов уже находится в планах.

Базовые тесты| Метод базового тестирования | Настройки |

| ----------------------------------------------------- | ----------------------------------------------------------------------------------------------------------------------------------------------------- | | Линейная классификация ImageNet (мультивалентность) | Goyal2019 | | Линейная классификация ImageNet (последний слой) | | | Полус supervision ImageNet | | | Линейная классификация Places205 (мультивалентность) | Goyal2019 | | Линейная классификация iNaturalist2018 (мультивалентность)| Goyal2019 | | PASCAL VOC07 SVM | Goyal2019 | | PASCAL VOC07 Low-shot SVM | Goyal2019 | | PASCAL VOC07+12 Детектирование объектов | MoCo | | COCO17 Детектирование объектов | MoCo | | Cityscapes Сегментация | MMSeg | | PASCAL VOC12 Aug Сегментация | MMSeg |

Участие в проекте

Мы очень рады любым предложениям, способствующим развитию MMSelfSup. Для участия в проекте обратитесь к руководству по вкладу.

Благодарности

MMSelfSup является совместным проектом нескольких университетов и компаний. Мы благодарим всех, кто помогает нам в реализации алгоритмов и внедрении новых возможностей, а также за ценные отзывы пользователей; мы также хотели бы поблагодарить первых разработчиков и участников OpenSelfSup.

Мы надеемся, что этот инструментарий и базовый набор тестов будут полезны сообществу как гибкий набор инструментов для воспроизведения существующих алгоритмов и создания новых моделей, тем самым продолжая делать вклад в открытый источник.

Цитирование

Если вам пригодился данный проект для ваших исследований, пожалуйста, рассмотрите возможность цитирования:

@misc{mmselfsup2021,
    title={{MMSelfSup}: OpenMMLab Self-Supervised Learning Toolbox and Benchmark},
    author={MMSelfSup Contributors},
    howpublished = {\url{https://github.com/open-mmlab/mmselfsup}},
    year={2021}
}

Лицензия

Проект лицензирован под Apache 2.0.

Другие проекты OpenMMLab

  • MMCV: Базовый библиотечный модуль OpenMMLab для компьютерного зрения
  • MIM: MIM — единый вход для проектов, алгоритмов и моделей OpenMMLab
  • MMClassification: Инструментарий OpenMMLab для классификации изображений
  • MMDetection: Инструментарий OpenMMLab для детекции объектов
  • MMDetection3D: Новое поколение универсальной платформы OpenMMLab для 3D-детекции объектов
  • MMYOLO: Инструментарий и базовые тесты OpenMMLab для серии YOLO
  • MMRotate: Инструментарий и базовые тесты OpenMMLab для детекции вращательных рамок
  • MMSegmentation: Инструментарий OpenMMLab для сегментации изображений
  • MMOCR: Инструментарий OpenMMLab для полной цепочки задач распознавания текста
  • MMPose: Инструментарий OpenMMLab для оценки поз
  • MMHuman3D: Инструментарий и базовые тесты OpenMMLab для параметрических моделей человека
  • MMSelfSup: Инструментарий и базовые тесты OpenMMLab для самообучаемых моделей
  • MMRazor: Инструментарий и базовые тесты OpenMMLab для сжатия моделей
  • MMFewShot: Инструментарий и базовые тесты OpenMMLab для обучения с малым количеством примеров
  • MMAction2: Новое поколение инструментария OpenMMLab для понимания видео
  • MMTracking: Унифицированная платформа OpenMMLab для восприятия видео
  • MMFlow: Инструментарий и базовые тесты OpenMMLab для оценки потока движения
  • MMEditing: Инструментарий OpenMMLab для редактирования изображений и видео
  • MMGeneration: Инструментарий OpenMMLab для генерации изображений и видео
  • MMDeploy: Фреймворк OpenMMLab для развертывания моделей

Добро пожаловать в сообщество OpenMMLab

Сканируйте QR-код ниже, чтобы подписаться на официальный аккаунт OpenMMLab на Zhihu и присоединиться к официальному QQ-чату OpenMMLab QQ Group. Также вы можете добавить официального ассистента OpenMMLab в WeChat и присоединиться к сообществу MMSelfSup.

Мы будем рады видеть вас в сообществе OpenMMLab:

  • 📢 Поделимся передовыми технологиями в области искусственного интеллекта
  • 💻 Разберёмся в исходном коде часто используемых модулей PyTorch
  • 📰 Объявим новости от команды OpenMMLab
  • 🚀 Представим новые алгоритмы, созданные командой OpenMMLab
  • 🏃 Получите более эффективную помощь при решении проблем и обратную связь
  • 🔥 Создадим платформу для взаимодействия со всеми разработчиками

Полезные материалы 📘 ждут вас 💗, присоединяйтесь к сообществу OpenMMLab 👬

Опубликовать ( 0 )

Вы можете оставить комментарий после Вход в систему

1
https://api.gitlife.ru/oschina-mirror/open-mmlab-mmselfsup.git
git@api.gitlife.ru:oschina-mirror/open-mmlab-mmselfsup.git
oschina-mirror
open-mmlab-mmselfsup
open-mmlab-mmselfsup
master