OneFlow — это фреймворк глубокого обучения, который разработан для удобства пользователей, масштабируемости и эффективности. С помощью OneFlow легко:
— запрограммировать модель с использованием API, подобного PyTorch;
— масштабировать модель до многомерного параллельного выполнения с помощью глобального тензора;
— ускорить или развернуть модель с помощью компилятора графов.
Последние новости:
Вышла версия 1.0.0! Полный список изменений доступен по ссылке.
Публикация:
«OneFlow: Redesign the Distributed Deep Learning Framework from Scratch».
Системные требования:
Общие требования: Linux, Python 3.7, 3.8, 3.9, 3.10, 3.11.
CUDA: CUDA arch 60 или выше, CUDA Toolkit версии 10.0 или выше, Nvidia driver версии 440.33 или выше.
OneFlow будет работать на минимально поддерживаемом драйвере и любом драйвере выше. Для получения дополнительной информации обратитесь к документации по совместимости CUDA.
Установка:
docker pull oneflowinc/oneflow:nightly-cuda11.8
— (Рекомендуется) Обновите pip:
```
python3 -m pip install --upgrade pip #--user
```
— Чтобы установить последнюю стабильную версию OneFlow с поддержкой CUDA:
```bash
python3 -m pip install oneflow
```
— Чтобы установить ночную версию OneFlow только с поддержкой CPU:
```bash
python3 -m pip install --pre oneflow -f https://oneflow-staging.oss-cn-beijing.aliyuncs.com/branch/master/cpu
```
— Чтобы установить ночную версию OneFlow с поддержкой CUDA:
```bash
python3 -m pip install --pre oneflow -f https://oneflow-staging.oss-cn-beijing.aliyuncs.com/branch/master/cu118
```
Если вы находитесь в Китае, вы можете запустить эту команду, чтобы pip загружал пакеты из внутреннего зеркала pypi:
```
python3 -m pip config set global.index-url https://pypi.tuna.tsinghua.edu.cn/simple
```
Для получения дополнительной информации об этом обратитесь к справке по использованию зеркал pypi.
Клонируйте исходный код из GitHub или загрузите его с Aliyun (доступно только в Китае).
Установите зависимости. Эти зависимости предустановлены в официальной среде conda и образе Docker, вы можете использовать официальную среду conda здесь или использовать образ Docker с помощью команды:
```bash
docker pull oneflowinc/manylinux2014_x86_64_cuda11.2
```
В корневом каталоге исходного кода OneFlow запустите:
```
mkdir build
cd build
```
Настройте проект внутри каталога сборки. Если вы находитесь в Китае:
Конфигурируйте для CPU-only следующим образом:
```
cmake .. -C ../cmake/caches/cn/cpu.cmake
```
Конфигурируйте для CUDA следующим образом:
```
cmake .. -C ../cmake/caches/cn/cuda.cmake -DCMAKE_CUDA_ARCHITECTURES=80 -DCUDA_TOOLKIT_ROOT_DIR=/usr/local/cuda
Если вы не в Китае: конфиг для CPU только такой:
cmake .. -C ../cmake/caches/international/cpu.cmake
Конфиг для CUDA такой:
cmake .. -C ../cmake/caches/international/cuda.cmake -DCMAKE_CUDA_ARCHITECTURES=80 -DCUDA_TOOLKIT_ROOT_DIR=/usr/local/cuda -DCUDNN_ROOT_DIR=/usr/local/cudnn
Здесь макрос DCMAKE_CUDA_ARCHITECTURES используется для указания архитектуры CUDA, а макросы DCUDA_TOOLKIT_ROOT_DIR и DCUDNN_ROOT_DIR используются для указания корневого пути CUDA Toolkit и CUDNN.
Соберите проект в директории build
, запустите:
make -j$(nproc)
Добавьте OneFlow к вашему PYTHONPATH, в директории build
запустите:
source source.sh
Обратите внимание, что это изменение не является постоянным.
Простая проверка:
python3 -m oneflow --doctor
Пожалуйста, обратитесь к разделу Устранение неполадок для решения распространённых проблем, с которыми вы можете столкнуться при компиляции и запуске OneFlow.
OneFlow изначально был разработан компаниями OneFlow Inc и Zhejiang Lab.
Вы можете оставить комментарий после Вход в систему
Неприемлемый контент может быть отображен здесь и не будет показан на странице. Вы можете проверить и изменить его с помощью соответствующей функции редактирования.
Если вы подтверждаете, что содержание не содержит непристойной лексики/перенаправления на рекламу/насилия/вульгарной порнографии/нарушений/пиратства/ложного/незначительного или незаконного контента, связанного с национальными законами и предписаниями, вы можете нажать «Отправить» для подачи апелляции, и мы обработаем ее как можно скорее.
Опубликовать ( 0 )