1 В избранное 0 Ответвления 0

OSCHINA-MIRROR/cungudafa-keras-yolo3

Присоединиться к Gitlife
Откройте для себя и примите участие в публичных проектах с открытым исходным кодом с участием более 10 миллионов разработчиков. Приватные репозитории также полностью бесплатны :)
Присоединиться бесплатно
Клонировать/Скачать
Внести вклад в разработку кода
Синхронизировать код
Отмена
Подсказка: Поскольку Git не поддерживает пустые директории, создание директории приведёт к созданию пустого файла .keep.
Loading...
README.md

keras-yolo3

Ссылки на блоги:

Среда:

  • Windows 10 + anaconda3 (conda4.8.2) + labelImg1.8.1 + VSCode.

  • Версия: python3.6.0 + opencv4.1.0 + yolo3 + keras 2.3.1 + tensorflow-gpu2.1.0.

Запись установки среды:

GPU: win10 (1050Ti) + anaconda3 + python3.6 + CUDA10.0 + tensorflow-gpu2.1.0 (https://cungudafa.blog.csdn.net/article/details/105089003).

Библиотеки: numpy1.18.2, Pillow7.0.0, matplotlib, python-opencv4.2.0.

Каталог:

Исходный каталог: docs/tree_old.txt (https://gitee.com/cungudafa/keras-yolo3/blob/master/docs/tree_old.txt).

Я повторно интегрировал структуру каталога: docs/tree.txt (https://gitee.com/cungudafa/keras-yolo3/blob/master/docs/tree.txt).

Процесс выполнения:

  1. Скачивание:

    1. Клонирование проекта:

      git clone https://gitee.com/cungudafa/keras-yolov3.git
      ```.
      
    2. Скачивание весов:

      Отдельное скачивание весов Yolov3, размещение в корневом каталоге проекта.

    3. Преобразование весов DarkNet в формат .h5 Keras:

      python convert.py -w yolov3.cfg yolov3.weights model_data/yolo_weights.h5
      ```.
      
      Можно просмотреть нашу модельную структуру: [docs/model_summary.txt](https://gitee.com/cungudafa/keras-yolo3/blob/master/docs/model_summary.txt).
      
  2. Маркировка:

    Скачивание набора данных: (я использовал здесь hand для тестирования, вы можете использовать свой собственный набор помеченных данных).

    Набор данных, используемый в этом случае, взят из: Университет Оксфорда Arpit Mittal, Andrew Zisserman и Phil Torr.

    Загрузка данных:

    Мы используем данные в формате VOC: нам нужно только загрузить evaluation_code.tar.gz (13,8 МБ).

    Скопируйте загруженный набор данных в путь проекта: (на самом деле набор данных содержит более 400 изображений, я тренировался слишком утомительно, легко переобучиться, здесь используется только 40 изображений от 009985-010028 для обучения).

  3. Обучение:

    1. Измените train.py, чтобы настроить скорость обучения и путь (необязательно).

    2. Обучите train.py (сохраните результаты обучения в журналах после 50 и 100 раундов). Результаты сохраняются в каталоге logs.

    Визуализация нейронной сети: запустите tensorboard в корневом каталоге:

     ```
     tensorboard --logdir=logs\
     ```.
    
     Он будет записывать ход обучения в браузере.
  4. Тестирование:

    См. tf2-keras-yolo3, вы можете напрямую обнаруживать изображения и видео.

    Я также упаковал код обнаружения: распознавание части keras-yolo3-recognize.

    Запустите predict.py или:

     ```
     # Обнаружение изображения
     python yolo_video.py --image
     Затем введите путь к изображению.
    
     # Видео обнаружение
     python yolo_video.py --input img\test.mp4
     ```.

Комментарии ( 0 )

Вы можете оставить комментарий после Вход в систему

Введение

**Маркировка изображений, обучение, распознавание (Keras 2.3.1 + TensorFlow-gpu 2.1.0 + cuda 10.0)** *Примечание: для точного перевода необходим контекст.* Развернуть Свернуть
MIT
Отмена

Обновления

Пока нет обновлений

Участники

все

Недавние действия

Загрузить больше
Больше нет результатов для загрузки
1
https://api.gitlife.ru/oschina-mirror/cungudafa-keras-yolo3.git
git@api.gitlife.ru:oschina-mirror/cungudafa-keras-yolo3.git
oschina-mirror
cungudafa-keras-yolo3
cungudafa-keras-yolo3
master