1 В избранное 0 Ответвления 0

OSCHINA-MIRROR/Python_Ai_Road-eat_tensorflow2_in_30_days

Присоединиться к Gitlife
Откройте для себя и примите участие в публичных проектах с открытым исходным кодом с участием более 10 миллионов разработчиков. Приватные репозитории также полностью бесплатны :)
Присоединиться бесплатно
Клонировать/Скачать
6-4,使用多GPU训练模型.md 10 КБ
Копировать Редактировать Web IDE Исходные данные Просмотреть построчно История
gitlife-traslator Отправлено 03.12.2024 15:14 374a95e

6-4, Использование нескольких GPU для тренировки модели

Если вы используете несколько GPU для тренировки модели, рекомендуется использовать встроенный метод fit, который является более удобным и требует добавления всего двух строк кода.

В ноутбуке Colab: перейдите в «Изменить» → «Настройки ноутбука» → «Аппаратный ускоритель» и выберите GPU.

Примечание: следующий код может быть выполнен только на Colab.

Вы можете протестировать эффект с помощью следующей ссылки Colab «tf_многоGPU»:

https://colab.research.google.com/drive/1j2kp_t0S_cofExSN7IyJ4QtMscbVlXU-

Краткое описание процесса MirroredStrategy:

  • Перед началом тренировки эта стратегия копирует полную модель на каждом из N вычислительных устройств;
  • При каждой тренировке, когда передаётся партия данных, данные разделяются на N частей и отправляются на N вычислительные устройства (то есть данные распараллеливаются);
  • Вычислительные устройства используют локальные переменные (зеркальные переменные) для вычисления градиента для своих полученных данных;
  • С помощью распределённых вычислений All-reduce происходит эффективный обмен данными о градиенте между устройствами и их суммирование, так что каждое устройство имеет сумму градиентов всех устройств;
  • Локальные переменные обновляются с использованием суммы градиентов;
  • После того как все устройства обновили свои локальные переменные, начинается следующий раунд тренировки (то есть эта параллельная стратегия является синхронной).
%tensorflow_version 2.x
import tensorflow as tf
print(tf.__version__)
from tensorflow.keras import * 
# В этом месте в Colab используется один GPU для имитации двух логических GPU для многоGPU тренировки
gpus = tf.config.experimental.list_physical_devices('GPU')
if gpus:
    # Настройка двух логических GPU для имитации многоGPU тренировки
    try:
        tf.config.experimental.set_virtual_device_configuration(gpus[0],
            [tf.config.experimental.VirtualDeviceConfiguration(memory_limit=1024),
             tf.config.experimental.VirtualDeviceConfiguration(memory_limit=1024)])
        logical_gpus = tf.config.experimental.list_logical_devices('GPU')
        print(len(gpus), "Physical GPU,", len(logical_gpus), "Logical GPUs")
    except RuntimeError as e:
        print(e)

1. Подготовка данных

MAX_LEN = 300
BATCH_SIZE = 32
(x_train,y_train),(x_test,y_test) = datasets.reuters.load_data()
x_train = preprocessing.sequence.pad_sequences(x_train,maxlen=MAX_LEN)
x_test = preprocessing.sequence.pad_sequences(x_test,maxlen=MAX_LEN)

MAX_WORDS = x_train.max()+1
CAT_NUM = y_train.max()+1

ds_train = tf.data.Dataset.from_tensor_slices((x_train,y_train)) \
          .shuffle(buffer_size = 1000).batch(BATCH_SIZE) \
          .prefetch(tf.data.experimental.AUTOTUNE).cache()
   
ds_test = tf.data.Dataset.from_tensor_slices((x_test,y_test)) \
          .shuffle(buffer_size = 1000).batch(BATCH_SIZE) \
          .prefetch(tf.data.experimental.AUTOTUNE).cache()

2. Определение модели

tf.keras.backend.clear_session()
def create_model():
    
    model = models.Sequential()

    model.add(layers.Embedding(MAX_WORDS,7,input_length=MAX_LEN))
    model.add(layers.Conv1D(filters = 64,kernel_size = 5,activation = "relu"))
    model.add(layers.MaxPool1D(2))
    model.add(layers.Conv1D(filters = 32,kernel_size = 3,activation = "relu"))
    model.add(layers.MaxPool1D(2))
    model.add(layers.Flatten())
    model.add(layers.Dense(CAT_NUM,activation = "softmax"))
    return(model)

def compile_model(model):
    model.compile(optimizer=optimizers.Nadam(),
                loss=losses.SparseCategoricalCrossentropy(from_logits=True),
                metrics=[metrics.SparseCategoricalAccuracy(),metrics.SparseTopKCategoricalAccuracy(5)]) 
    return(model)

3. Тренировка модели

# Добавьте следующие две строки кода
strategy = tf.distribute.MirroredStrategy()  
with strategy.scope(): 
    model = create_model()
    model.summary()
    model = compile_model(model)
    
history = model.fit(ds_train,validation_data = ds_test,epochs = 10)  
``` flatten (Flatten)            (None, 2336)              0         
_________________________________________________________________
dense (Dense)                (None, 46)                107502    
=================================================================
Всего параметров: 332 856
Обучаемых параметров: 332 856
Необучаемых параметров: 0
_________________________________________________________________
ИНФОРМАЦИЯ:tensorflow:Уменьшить до /job:localhost/replica:0/task:0/device:CPU:0 затем передать ('/job:localhost/replica:0/task:0/device:CPU:0',).
ИНФОРМАЦИЯ:tensorflow:Уменьшить до /job:localhost/replica:0/task:0/device:CPU:0 затем передать ('/job:localhost/replica:0/task:0/device:CPU:0',).
ИНФОРМАЦИЯ:tensorflow:Уменьшить до /job:localhost/replica:0/task:0/device:CPU:0 затем передать ('/job:localhost/replica:0/task:0/device:CPU:0',).
ИНФОРМАЦИЯ:tensorflow:Уменьшить до /job:localhost/replica:0/task:0/device:CPU:0 затем передать ('/job:localhost/replica:0/task:0/device:CPU:0',).
Обучение в течение 281 шага, проверка в течение 71 шага
Эпоха 1/10
ИНФОРМАЦИЯ:tensorflow:Уменьшить до /job:localhost/replica:0/task:0/device:GPU:0 затем передать ('/job:localhost/replica:0/task:0/device:GPU:0', '/job:localhost/replica:0/task:0/device:GPU:1').
ИНФОРМАЦИЯ:tensorflow:Уменьшить до /job:localhost/replica:0/task:0/device:GPU:0 затем передать ('/job:localhost/replica:0/task:0/device:GPU:0', '/job:localhost/replica:0/task:0/device:GPU:1').
ИНФОРМАЦИЯ:tensorflow:Уменьшить до /job:localhost/replica:0/task:0/device:GPU:0 затем передать ('/job:localhost/replica:0/task:0/device:GPU:0', '/job:localhost/replica:0/task:0/device:GPU:1').
ИНФОРМАЦИЯ:tensorflow:Уменьшить до /job:localhost/replica:0/task:0/device:GPU:0 затем передать ('/job:localhost/replica:0/task:0/device:GPU:0', '/job:localhost/replica:0/task:0/device:GPU:1').
ИНФОРМАЦИЯ:tensorflow:Уменьшить до /job:localhost/replica:0/task:0/device:GPU:0 затем передать ('/job:localhost/replica:0/task:0/device:GPU:0', '/job:localhost/replica:0/task:0/device:GPU:1').
ИНФОРМАЦИЯ:tensorflow:Уменьшить до /job:localhost/replica:0/task:0/device:GPU:0 затем передать ('/job:localhost/replica:0/task:0/device:GPU:0', '/job:localhost/replica:0/task:0/device:GPU:1').
ИНФОРМАЦИЯ:tensorflow:Уменьшить до /job:localhost/replica:0/task:0/device:GPU:0 затем передать ('/job:localhost/replica:0/task:0/device:GPU:0', '/job:localhost/replica:0/task:0/device:GPU:1').
ИНФОРМАЦИЯ:tensorflow:Уменьшить до /job:localhost/replica:0/task:0/device:CPU:0 затем передать ('/job:localhost/replica:0/task:0/device:CPU:0',).
ИНФОРМАЦИЯ:tensorflow:Уменьшить до /job:localhost/replica:0/task:0/device:CPU:0 затем передать ('/job:localhost/replica:0/task:0/device:CPU:0',).
ИНФОРМАЦИЯ:tensorflow:Уменьшить до /job:localhost/replica:0/task:0/device:CPU:0 затем передать ('/job:localhost/replica:0/task:0/device:CPU:0',).
ИНФОРМАЦИЯ:tensorflow:Уменьшить до /job:localhost/replica:0/task:0/device:CPU:0 затем передать ('/job:localhost/replica:0/task:0/device:CPU:0',).
ИНФОРМАЦИЯ:tensorflow:Уменьшить до /job:localhost/replica:0/task:0/device:CPU:0 затем передать ('/job:localhost/replica:0/task:0/device:CPU:0',).
ИНФОРМАЦИЯ:tensorflow:Уменьшить до /job:localhost/replica:0/task:0/device:CPU:0 затем передать ('/job:localhost/replica:0/task:0/device:CPU:0',).
ИНФОРМАЦИЯ:tensorflow:Уменьшить до /job:localhost/replica:0/task:0/device:GPU:0 затем передать ('/job:localhost/replica:0/task:0/device:GPU:0', '/job:localhost/replica:0/task:0/device:GPU:1').
ИНФОРМАЦИЯ:tensorflow:Уменьшить до /job:localhost/replica:0/task:0/device:GPU:0 затем передать ('/job:localhost/replica:0/task:0/device:GPU:0', '/job:localhost/replica:0/task:0/device:GPU:1').
ИНФОРМАЦИЯ:tensorflow:Уменьшить до /job:localhost/replica:0/task:0/device:GPU:0 затем передать ('/job:localhost/replica:0/task:0/device:GPU:0', '/job:localhost/replica:0/task:0/device:GPU:1').
281/281 [==============================] - 15s 53ms/step - потеря: 2.0270 - sparse_categorical_accuracy: 0.4653 - sparse_top_k_categorical_accuracy: 0.7481 - val_loss: 1.7517 - val_sparse_categorical_accuracy: 0.5481 - val_sparse_top_k_categorical_accuracy: 0.7578
Эпоха 2/10
281/281 [==============================] - 4s 14ms/step - потеря: 1.5206 -

Опубликовать ( 0 )

Вы можете оставить комментарий после Вход в систему

1
https://api.gitlife.ru/oschina-mirror/Python_Ai_Road-eat_tensorflow2_in_30_days.git
git@api.gitlife.ru:oschina-mirror/Python_Ai_Road-eat_tensorflow2_in_30_days.git
oschina-mirror
Python_Ai_Road-eat_tensorflow2_in_30_days
Python_Ai_Road-eat_tensorflow2_in_30_days
master