Модель представляет собой предобученную модель PyTorch, полученную путём преобразования контрольной точки Tensorflow, найденной в официальном репозитории Google BERT (https://github.com/google-research/bert).
Это один из меньших вариантов предобученных моделей BERT, наряду с bert-mini (https://huggingface.co/prajjwal1/bert-mini), bert-small (https://huggingface.co/prajjwal1/bert-small) и bert-medium (https://huggingface.co/prajjwal1/bert-medium). Они были представлены в исследовании «Хорошо начитанные студенты учатся лучше: о важности предобучения компактных моделей» (https://arxiv.org/abs/1908.08962) и перенесены в HF для исследования «Обобщение в NLI: способы (не) выйти за рамки простых эвристик» (https://arxiv.org/abs/2110.01518). Эти модели предназначены для обучения на нисходящей задаче.
Если вы используете модель, пожалуйста, рассмотрите возможность цитирования обеих статей:
@misc{bhargava2021generalization,
title={Generalization in NLI: Ways (Not) To Go Beyond Simple Heuristics},
author={Prajjwal Bhargava and Aleksandr Drozd and Anna Rogers},
year={2021},
eprint={2110.01518},
archivePrefix={arXiv},
primaryClass={cs.CL}
}
@article{DBLP:journals/corr/abs-1908-08962,
author = {Iulia Turc and
Ming{-}Wei Chang and
Kenton Lee and
Kristina Toutanova},
title = {Well-Read Students Learn Better: The Impact of Student Initialization
on Knowledge Distillation},
journal = {CoRR},
volume = {abs/1908.08962},
year = {2019},
url = {http://arxiv.org/abs/1908.08962},
eprinttype = {arXiv},
eprint = {1908.08962},
timestamp = {Thu, 29 Aug 2019 16:32:34 +0200},
biburl = {https://dblp.org/rec/journals/corr/abs-1908-08962.bib},
bibsource = {dblp computer science bibliography, https://dblp.org}
}
Конфигурация этой модели:
prajjwal1/bert-tiny
(L=2, H=128) Model Link
Другие модели, которые стоит проверить:
prajjwal1/bert-mini
(L=4, H=256) Model Link
prajjwal1/bert-small
(L=4, H=512) Model Link
prajjwal1/bert-medium
(L=8, H=512) Model Link
Исходную реализацию и дополнительную информацию можно найти в этом репозитории Github (https://github.com/prajjwal1/generalize_lm_nli).
Twitter: @prajjwal_1
Вы можете оставить комментарий после Вход в систему
Неприемлемый контент может быть отображен здесь и не будет показан на странице. Вы можете проверить и изменить его с помощью соответствующей функции редактирования.
Если вы подтверждаете, что содержание не содержит непристойной лексики/перенаправления на рекламу/насилия/вульгарной порнографии/нарушений/пиратства/ложного/незначительного или незаконного контента, связанного с национальными законами и предписаниями, вы можете нажать «Отправить» для подачи апелляции, и мы обработаем ее как можно скорее.
Опубликовать ( 0 )