1 В избранное 0 Ответвления 0

OSCHINA-MIRROR/fastnlp-fastHan

Присоединиться к Gitlife
Откройте для себя и примите участие в публичных проектах с открытым исходным кодом с участием более 10 миллионов разработчиков. Приватные репозитории также полностью бесплатны :)
Присоединиться бесплатно
Клонировать/Скачать
Внести вклад в разработку кода
Синхронизировать код
Отмена
Подсказка: Поскольку Git не поддерживает пустые директории, создание директории приведёт к созданию пустого файла .keep.
Loading...
README.md
Модель SOTA 97,1% 85,66%, 81,71% 93,15% 95,25% 79,92%
Базовая модель 97,27% 81,22%, 76,71% 94,88% 94,33% 82,86%
Модель large 97,41% 85,52%, 81,38% 95,66% 95,50% 83,82%

Примечание: модели в начале предложения добавляют метку корпуса данных для различения задачи входного предложения и корпуса данных. Первоначально при тестировании расчёта значения F метка корпуса данных также учитывалась, что приводило к завышенным оценкам CWS и POS. Теперь эта ошибка исправлена, и таблицы обновлены значениями CWS и POS. Оценки немного снизились (среднее снижение CWS составило 0,11%, среднее снижение POS — 0,29%), но всё ещё превосходят модель SOTA.

В таблице проценты указаны в процентах. Оценка CWS представляет собой средний балл по 10 задачам. В Parsing два балла представляют собой Fudep и Fldep. Данные модели SOTA получены автором из онлайн-источников и статей. Если есть какие-либо упущения, пожалуйста, укажите на них. Автор будет благодарен за это. Пять показателей модели SOTA взяты из следующих пяти статей:

  1. Huang W, Cheng X, Chen K, et al. Toward Fast and Accurate Neural Chinese Word Segmentation with Multi-Criteria Learning.[J]. arXiv: Computation and Language, 2019.
  2. Hang Yan, Xipeng Qiu, and Xuanjing Huang. «A Graph-based Model for Joint Chinese Word Segmentation and Dependency Parsing». Transactions of the Association for Computational Linguistics 8 (2020): 78–92.
  3. Meng Y, Wu W, Wang F, et al. Glyce: Glyph-vectors for Chinese Character Representations[J]. arXiv: Computation and Language, 2019.
  4. Diao S, Bai J, Song Y, et al. ZEN: Pre-training Chinese Text Encoder Enhanced by N-gram Representations[J]. arXiv: Computation and Language, 2019.
  5. Jie Z, Lu W. Dependency-Guided LSTM-CRF for Named Entity Recognition[C]. international joint conference on natural language processing, 2019: 3860–3870.

Для получения дополнительной информации о структуре модели и обучении можно обратиться к этой статье.

Комментарии ( 0 )

Вы можете оставить комментарий после Вход в систему

Введение

Описание недоступно Развернуть Свернуть
Apache-2.0
Отмена

Обновления

Пока нет обновлений

Участники

все

Недавние действия

Загрузить больше
Больше нет результатов для загрузки
1
https://api.gitlife.ru/oschina-mirror/fastnlp-fastHan.git
git@api.gitlife.ru:oschina-mirror/fastnlp-fastHan.git
oschina-mirror
fastnlp-fastHan
fastnlp-fastHan
master