1,5 млрд предварительно обученная китайская модель GPT2 [Google Drive]
SHA256: 4a6e5124df8db7ac2bdd902e6191b807a6983a7f5d09fb10ce011f9a073b183e
Корпус из THUCNews и nlp_chinese_corpus
Использование Cloud TPU Pod v3-256 для обучения 10 тысяч шагов
Всего 2 клика (не считая процесса аутентификации Colab), и демо с предварительно обученной китайской моделью на 1,5 миллиарда готово к работе:
Содержимое этого репозитория предназначено для академических исследований, и мы не предоставляем никаких окончательных замечаний.
@misc{GPT2-ML,
author = {Zhibo Zhang},
title = {GPT2-ML: GPT-2 for Multiple Languages},
year = {2019},
publisher = {GitHub},
journal = {GitHub repository},
howpublished = {\url{https://github.com/imcaspar/gpt2-ml}},
}
https://github.com/google-research/bert
https://github.com/rowanz/grover
Исследование поддержано облачными TPU от Google TensorFlow Research Cloud (TFRC).
Вы можете оставить комментарий после Вход в систему
Неприемлемый контент может быть отображен здесь и не будет показан на странице. Вы можете проверить и изменить его с помощью соответствующей функции редактирования.
Если вы подтверждаете, что содержание не содержит непристойной лексики/перенаправления на рекламу/насилия/вульгарной порнографии/нарушений/пиратства/ложного/незначительного или незаконного контента, связанного с национальными законами и предписаниями, вы можете нажать «Отправить» для подачи апелляции, и мы обработаем ее как можно скорее.
Комментарии ( 0 )