MNN — это высокоэффективный и лёгкий фреймворк глубокого обучения. Он поддерживает вывод и обучение моделей глубокого обучения, а также обеспечивает лучшую в отрасли производительность для вывода и обучения на устройстве. В настоящее время MNN интегрирован более чем в 20 приложений Alibaba Inc., таких как Taobao, Tmall, Youku, Dingtalk, Xianyu и др., охватывая более 70 сценариев использования, таких как прямая трансляция, съёмка коротких видео, поиск рекомендаций, поиск товаров по изображению, интерактивный маркетинг, распределение акций, контроль рисков безопасности. Кроме того, MNN также используется на встраиваемых устройствах, таких как IoT.
Принципы проектирования и данные о производительности MNN были опубликованы в статье MLSys 2020 здесь. Пожалуйста, цитируйте MNN в своих публикациях, если это поможет вашему исследованию:
@inproceedings{alibaba2020mnn,
author = {Jiang, Xiaotang and Wang, Huan and Chen, Yiliu and Wu, Ziqi and Wang, Lichuan and Zou, Bin and Yang, Yafeng and Cui, Zongyang and Cai, Yu and Yu, Tianhang and Lv, Chengfei and Wu, Zhihua},
title = {MNN: A Universal and Efficient Inference Engine},
booktitle = {MLSys},
year = {2020}
}
Документация MNN размещена здесь в документации Yuque.
MNN Workbench можно загрузить с домашней страницы MNN, которая предоставляет предварительно обученные модели, инструменты визуализации обучения и возможность однократного развёртывания моделей на устройствах.
OpenCL
, Vulkan
и OpenGL
, которые глубоко настроены для основных графических процессоров (Adreno
и Mali
).Tensorflow
, Caffe
, ONNX
и поддерживает распространённые нейронные сети, такие как CNN
, RNN
, GAN
.Tensorflow
, 58 операций TFLite
, 47 операций Caffe
и 74 операции ONNX
; количество операций для разных аппаратных бэкендов MNN: 111 для CPU, 6 для ARM V8.2, 55 для Metal, 43 для OpenCL и 32 для Vulkan.MNN можно разделить на две части: конвертер и интерпретатор.
Конвертер состоит из фронтендов и оптимизации графов. Первые отвечают за поддержку различных обучающих фреймворков. В настоящее время MNN поддерживает Tensorflow, Tensorflow Lite, Caffe и ONNX (PyTorch/MXNet); вторые оптимизируют графы с помощью слияния операторов, замены операторов и корректировки компоновки.
Интерпретатор состоит из движка и бэкэндов. Первый отвечает за... Загрузка модели и планирование вычислительного графа, включая выделение памяти и реализацию Op под каждым вычислительным устройством.
В Engine и Backends MNN применяет различные схемы оптимизации, такие как:
Сканируйте следующие QR-коды, чтобы присоединиться к группе обсуждения Dingtalk. Групповые обсуждения преимущественно ведутся на китайском языке. Но мы приветствуем англоговорящих участников и готовы помочь им.
Группа №1 (полная):
Группа №2 (полная):
Группа №3:
Apache 2.0
Участники MNN: отдел технологий Taobao, команда инженеров по поиску, команда DAMO, Youku и другие сотрудники Alibaba Group.
MNN ссылается на следующие проекты:
Вы можете оставить комментарий после Вход в систему
Неприемлемый контент может быть отображен здесь и не будет показан на странице. Вы можете проверить и изменить его с помощью соответствующей функции редактирования.
Если вы подтверждаете, что содержание не содержит непристойной лексики/перенаправления на рекламу/насилия/вульгарной порнографии/нарушений/пиратства/ложного/незначительного или незаконного контента, связанного с национальными законами и предписаниями, вы можете нажать «Отправить» для подачи апелляции, и мы обработаем ее как можно скорее.
Опубликовать ( 0 )