1 В избранное 0 Ответвления 0

OSCHINA-MIRROR/rWySp2020-mmtracking

Присоединиться к Gitlife
Откройте для себя и примите участие в публичных проектах с открытым исходным кодом с участием более 10 миллионов разработчиков. Приватные репозитории также полностью бесплатны :)
Присоединиться бесплатно
Клонировать/Скачать
dataset.md 4 КБ
Копировать Редактировать Web IDE Исходные данные Просмотреть построчно История
gitlife-traslator Отправлено 30.11.2024 19:32 8c2b4a3

Подготовка набора данных

В этой статье приведены инструкции по подготовке набора данных на основе существующих бенчмарков, включая:

  • Обнаружение объектов в видео;
  • Отслеживание нескольких объектов;
  • Отслеживание одного объекта;

1. Скачайте наборы данных

Пожалуйста, скачайте наборы данных с официальных веб-сайтов. Рекомендуется создать символическую ссылку на корень наборов данных в $MMTRACKING/data. Если ваша структура папок отличается от приведённой ниже, возможно, вам потребуется изменить соответствующие пути в конфигурационных файлах.

Примечания:

  • Lists под ILSVRC содержит файлы формата txt отсюда (https://github.com/msracver/Flow-Guided-Feature-Aggregation/tree/master/data/ILSVRC2015/ImageSets).

  • Для обучения и тестирования задачи обнаружения объектов в видео нужен только набор данных ILSVRC.

  • Для обучения и тестирования задачи отслеживания нескольких объектов нужен только набор данных MOT17.

  • Для обучения и тестирования задачи отслеживания одного объекта нужны наборы данных MSCOCO, ILSVRC и LaSOT.

mmtracking
├── mmtrack
├── tools
├── configs
├── data
│   ├── coco
│   │   ├── train2017
│   │   ├── val2017
│   │   ├── test2017
│   │   └── annotations
│   ├── ILSVRC
│   │   ├── Data
│   │   │   ├── DET
|   │   │   │   ├── train
|   │   │   │   ├── val
|   │   │   │   ├── test
│   │   │   ├── VID
|   │   │   │   ├── train
|   │   │   │   ├── val
|   │   │   │   ├── test
│   │   ├── Annotations (официальные файлы аннотаций)
│   │   │   ├── DET
|   │   │   │   ├── train
|   │   │   │   ├── val
│   │   │   ├── VID
|   │   │   │   ├── train
|   │   │   │   ├── val
│   │   ├── Lists
│   │   └── annotations (преобразованные файлы аннотаций)
│   ├── lasot
│   │   ├── LaSOTTesting
│   │   └── annotations
|   ├── MOT17
|   |   ├── train
|   |   ├── test
|   |   └── annotations

2. Преобразуйте аннотации

Мы используем CocoVID (../mmtrack/datasets/parsers/coco_video_parser.py), чтобы поддерживать все наборы данных в этом коде. В этом случае вам нужно преобразовать официальные аннотации в этот стиль. Мы предоставляем скрипты и их использование следующим образом:

# ImageNet DET
python ./tools/convert_datasets/imagenet2coco_det.py -i ./data/ILSVRC -o ./data/ILSVRC/annotations

# ImageNet VID
python ./tools/convert_datasets/imagenet2coco_vid.py -i ./data/ILSVRC -o ./data/ILSVRC/annotations

# LaSOT
python ./tools/convert_datasets/lasot2coco.py -i ./data/lasot/LaSOTTesting -o ./data/lasot/annotations

# MOT17
python ./tools/convert_datasets/mot2coco.py -i ./data/MOT17/ -o ./data/MOT17/annotations --split-train --convert-det

Опубликовать ( 0 )

Вы можете оставить комментарий после Вход в систему

1
https://api.gitlife.ru/oschina-mirror/rWySp2020-mmtracking.git
git@api.gitlife.ru:oschina-mirror/rWySp2020-mmtracking.git
oschina-mirror
rWySp2020-mmtracking
rWySp2020-mmtracking
master