1 В избранное 0 Ответвления 0

OSCHINA-MIRROR/modelee-bert-tiny

Присоединиться к Gitlife
Откройте для себя и примите участие в публичных проектах с открытым исходным кодом с участием более 10 миллионов разработчиков. Приватные репозитории также полностью бесплатны :)
Присоединиться бесплатно
В этом репозитории не указан файл с открытой лицензией (LICENSE). При использовании обратитесь к конкретному описанию проекта и его зависимостям в коде.
Клонировать/Скачать
Внести вклад в разработку кода
Синхронизировать код
Отмена
Подсказка: Поскольку Git не поддерживает пустые директории, создание директории приведёт к созданию пустого файла .keep.
Loading...
README.md

Модель представляет собой предобученную модель PyTorch, полученную путём преобразования контрольной точки Tensorflow, найденной в официальном репозитории Google BERT (https://github.com/google-research/bert).

Это один из меньших вариантов предобученных моделей BERT, наряду с bert-mini (https://huggingface.co/prajjwal1/bert-mini), bert-small (https://huggingface.co/prajjwal1/bert-small) и bert-medium (https://huggingface.co/prajjwal1/bert-medium). Они были представлены в исследовании «Хорошо начитанные студенты учатся лучше: о важности предобучения компактных моделей» (https://arxiv.org/abs/1908.08962) и перенесены в HF для исследования «Обобщение в NLI: способы (не) выйти за рамки простых эвристик» (https://arxiv.org/abs/2110.01518). Эти модели предназначены для обучения на нисходящей задаче.

Если вы используете модель, пожалуйста, рассмотрите возможность цитирования обеих статей:

@misc{bhargava2021generalization,
      title={Generalization in NLI: Ways (Not) To Go Beyond Simple Heuristics}, 
      author={Prajjwal Bhargava and Aleksandr Drozd and Anna Rogers},
      year={2021},
      eprint={2110.01518},
      archivePrefix={arXiv},
      primaryClass={cs.CL}
}

@article{DBLP:journals/corr/abs-1908-08962,
  author    = {Iulia Turc and
               Ming{-}Wei Chang and
               Kenton Lee and
               Kristina Toutanova},
  title     = {Well-Read Students Learn Better: The Impact of Student Initialization
               on Knowledge Distillation},
  journal   = {CoRR},
  volume    = {abs/1908.08962},
  year      = {2019},
  url       = {http://arxiv.org/abs/1908.08962},
  eprinttype = {arXiv},
  eprint    = {1908.08962},
  timestamp = {Thu, 29 Aug 2019 16:32:34 +0200},
  biburl    = {https://dblp.org/rec/journals/corr/abs-1908-08962.bib},
  bibsource = {dblp computer science bibliography, https://dblp.org}
}

Конфигурация этой модели:

Другие модели, которые стоит проверить:

Исходную реализацию и дополнительную информацию можно найти в этом репозитории Github (https://github.com/prajjwal1/generalize_lm_nli).

Twitter: @prajjwal_1

Комментарии ( 0 )

Вы можете оставить комментарий после Вход в систему

Введение

Описание недоступно Развернуть Свернуть
Отмена

Обновления

Пока нет обновлений

Участники

все

Недавние действия

Загрузить больше
Больше нет результатов для загрузки
1
https://api.gitlife.ru/oschina-mirror/modelee-bert-tiny.git
git@api.gitlife.ru:oschina-mirror/modelee-bert-tiny.git
oschina-mirror
modelee-bert-tiny
modelee-bert-tiny
main