1 В избранное 0 Ответвления 0

OSCHINA-MIRROR/modelee-scibert_scivocab_uncased

Присоединиться к Gitlife
Откройте для себя и примите участие в публичных проектах с открытым исходным кодом с участием более 10 миллионов разработчиков. Приватные репозитории также полностью бесплатны :)
Присоединиться бесплатно
В этом репозитории не указан файл с открытой лицензией (LICENSE). При использовании обратитесь к конкретному описанию проекта и его зависимостям в коде.
Клонировать/Скачать
README.md 1.6 КБ
Копировать Редактировать Web IDE Исходные данные Просмотреть построчно История
gitlife-traslator Отправлено 26.11.2024 08:38 e79acd0

SciBERT

Это предобученная модель, представленная в работе «SciBERT: A Pretrained Language Model for Scientific Text», которая представляет собой модель BERT, обученную на научном тексте.

Корпус для обучения составили статьи из Semantic Scholar. Размер корпуса — 1,14 млн статей, 3,1 млрд токенов. В обучении использовался полный текст статей, а не только аннотации.

У SciBERT есть собственный словарь токенизации (scivocab), который оптимально подходит для корпуса для обучения. Мы обучили версии с учётом регистра и без учёта регистра.

Доступные модели:

  • scibert_scivocab_cased
  • scibert_scivocab_uncased

Исходный репозиторий можно найти здесь.

При использовании этих моделей процитируйте следующую работу:

@inproceedings{beltagy-etal-2019-scibert,
    title = "SciBERT: A Pretrained Language Model for Scientific Text",
    author = "Beltagy, Iz  and Lo, Kyle  and Cohan, Arman",
    booktitle = "EMNLP",
    year = "2019",
    publisher = "Association for Computational Linguistics",
    url = "https://www.aclweb.org/anthology/D19-1371"
}

Опубликовать ( 0 )

Вы можете оставить комментарий после Вход в систему

1
https://api.gitlife.ru/oschina-mirror/modelee-scibert_scivocab_uncased.git
git@api.gitlife.ru:oschina-mirror/modelee-scibert_scivocab_uncased.git
oschina-mirror
modelee-scibert_scivocab_uncased
modelee-scibert_scivocab_uncased
main