Цель этого проекта — продвижение развития открытого сообщества для китайских разговорных моделей большого языка, с видением статья ядром LLM, которое поможет каждому.
Цель этого проекта — продвижение развития открытого сообщества для китайских разговорных моделей большого языка, с видением статьи ядром LLM, которое поможет каждому.Вместо того, чтобы сосредотачиваться на том, как эффективно предобучать модели большого языка, BELLE больше заботится о том, как построить на основе открытых предобученных моделей большого языка, чтобы помочь каждому получить свою высокопроизводительную, инструкционную модель языка, тем самым снижая барьеры для исследования и применения моделей большого языка, особенно китайских. В этом контексте проект BELLE будет постоянно предоставлять доступ к данным обучения по инструкциям, связанным моделям, коду обучения, сценариям применения и т.д., а также оценивать влияние различных данных обучения и алгоритмов обучения на производительность модели. BELLE оптимизирована для китайского языка, и процесс тонкой настройки модели использует только данные, созданные ChatGPT (без включения каких-либо других данных).
Попробуйте наше кросс-платформенное чат-приложение для запуска 4-битной квантовой модели BELLE-7B нативно на вашем устройстве. Следующий скриншот был выполнен на процессоре M1 Max в реальном времени (без скоростного ускорения).
Загрузка приложения: Releases
Сопутствующая модель приложения и её использование
Для упрощенного реализации кода обучения, включающего интеграцию Deepspeed-Chat и поддержку fine-tuning и LoRA, обратитесь к BELLE/train. Также предоставляются соответствующие контейнеры Docker.
Подробности в BELLE/data/1.5M, китайский набор данных сгенерирован 1M + 0.5M, используя Stanford Alpaca в качестве ссылки.
Дополнительные 10M данных будут постепенно выпущены, подробности в BELLE/data/10M. В настоящее время у нас есть 0.8M многоповоротных данных и 0.25M математических данных.
Подробности в BELLE/eval. Набор тестовых данных с более чем 1000 образцами и соответствующими промптами для оценки. Включает несколько категорий и оценивается с использованием либо GPT-4, либо ChatGPT.
Подробности в BELLE/models
предоставляет доступ к Colab в BELLE/notebook
Детали в BELLE/chat, многоплатформенное приложение для чата с LLM с использованием BELLE с квантованными локальными моделями и интерфейса Flutter, работающего на macOS (готово), Windows, Android, iOS и других.
Для регулярных обновлений по исследовательским отчетам, связанным с этим проектом, обратитесь к BELLE/docs.
Добро пожаловать с дополнительными запросами через issues!
Чтобы способствовать развитию открытых больших языковых моделей, было вложено много усилий в разработку моделей с низкой стоимостью, подобных ChatGPT.
Во-первых, чтобы улучшить производительность и эффективность обучения/вывода модели в китайском сегменте, мы расширили словарь LLaMA и провели дополнительное предобучение на 3,4 миллиарда китайских слов.Кроме того, в настоящее время существует три типа данных обучения инструкций, сгенерированных на основе ChatGPT:
Здесь мы сосредоточились на исследовании влияния категорий данных обучения на производительность модели. В частности, мы изучили факторы, такие как количество, качество и распределение языка данных обучения, а также собранные нами китайские многопользовательские данные разговоров и некоторые общедоступные высококачественные наборы данных руководства. Для лучшей оценки эффектов мы использовали набор для оценки, содержащий тысячу образцов и 9 реальных сценариев для тестирования различных моделей, и предоставили ценные见解 через количественный анализ, чтобы лучше способствовать развитию открытых исходных кодов для чат-моделей.
Целью этого исследования является заполнение пробела в комплексной оценке открытых чат-моделей, чтобы обеспечить сильную поддержку для непрерывного прогресса в этой области.
Фактор | Основная модель | Обучающие данные | Оценка_без_других |
расширение словаря | LLaMA-7B-EXT | zh(alpaca-3.5&4) + sharegpt | 0.670 |
LLaMA-7B | zh(alpaca-3.5&4) + sharegpt | 0.652 | |
качество данных | LLaMA-7B-EXT | zh(alpaca-3.5) | 0.642 |
LLaMA-7B-EXT | zh(alpaca-4) | 0.693 | |
распределение языков данных | LLaMA-7B-EXT | cn(alpaca-3.5&4) | 0.679 |
LLaMA-7B-EXT | en(alpaca-3.5&4) | 0.659 | |
LLaMA-7B-EXT | zh(alpaca-3.5&4) + sharegpt | 0.670 | |
LLaMA-7B-EXT | en(alpaca-3.5&4) + sharegpt | 0.668 | |
масштаб данных | LLaMA-7B-EXT | zh(alpaca-3.5&4) + sharegpt | 0.670 |
LLaMA-7B-EXT | zh(alpaca-3.5&4) + sharegpt + BELLE-0.5M-CLEAN |
0.762 | |
- | ChatGPT | - | 0.824 |
Для достижения настройки моделей большого языка многие исследователи начали использовать параметрически эффективные методы настройки, такие как LoRA, из-за ограничений ресурсов и затрат, что также привело к некоторым обнадеживающим результатам по сравнению с полной настройкой.
В этом отчете исследований мы выбрали LLaMA в качестве базовой модели и экспериментально сравнили полную настройку с настройкой на основе LoRA.
Экспериментальные результаты показали, что выбор подходящей базовой модели, масштаб обучающего набора данных, количество обучаемых параметров и затраты на обучение модели являются важными факторами.
Мы надеемся, что экспериментальные выводы в этой статье могут предоставить полезные визуализации для обучения моделей большого языка, особенно в китайском домене, и помочь исследователям найти лучшие стратегии компромисса между затратами на обучение и производительностью модели.
Экспериментальные результаты следующие:| Модель | Средний балл | Дополнительные параметры | Время обучения (час/эпоха) |
| ----- | ------ | ----- | ------ |
| LLaMA-13B + LoRA(2M) | 0.648 | 28M | 8 |
| LLaMA-7B + LoRA(4M) | 0.624 | 17.9M | 11 |
| LLaMA-7B + LoRA(2M) | 0.609 | 17.9M | 7 |
| LLaMA-7B + LoRA(0.6M) | 0.589 | 17.9M | 5 |
| LLaMA-7B + FT(2M) | 0.710 | - | 31 |
| LLaMA-7B + LoRA(4M) | 0.686 | - | 17 |
| LLaMA-7B + FT(2M)
+ LoRA(math_0.25M) | 0.729 | 17.9M | 3 |
| LLaMA-7B + FT(2M)
+ FT(math_0.25M) | 0.738 | - | 6 |Балл основан на 1000 наборах оценки, которые в настоящее время открыты в этом проекте.
LLaMA-13B + LoRA(2M) представляет модель, обученную на 2 миллионах данных инструкций с использованием LLaMA-13B в качестве базовой модели и метода обучения LoRA. LLaMA-7B + FT(2M) представляет модель, обученную с использованием полной настройки. LLaMA-7B + FT(2M) + LoRA(math_0.25M) представляет модель, обученную на 0,25 миллионах данных с математическими инструкциями, используя LLaMA-7B + FT(2M) в качестве базовой модели и метод обучения LoRA. LLaMA-7B + FT(2M) + FT(math_0.25M) представляет модель, обученную с использованием инкрементного полномасштабного переобучения. Все эти эксперименты проводились на 8 NVIDIA A100-40GB GPU.
math_0.25M — это открытая база данных из 0,25 миллиона математических задач. В ходе эксперимента, согласно нашей оценке (см. статью для подробностей), наша модель плохо справлялась с математическими задачами, показывая результаты ниже 0,5. Для проверки адаптивности LoRA к конкретным задачам мы использовали инкрементную базу данных из 0,25 миллиона математических задач (math_0.25M) для корректировки большого языкового моделирования (мы выбрали LLaMA-7B+FT(2M) в качестве базовой модели) с использованием метода обучения LoRA. В качестве сравнения мы использовали инкрементное переобучение с темпом обучения 5e-7 и обучение на протяжении двух эпох. Таким образом, мы получили две модели: LLaMA-7B+FT(2M)+LoRA(math_0.25M) и LLaMA-7B+FT(2M)+FT(math_0.25M).Результаты экспериментов показывают, что инкрементное переобучение по-прежнему демонстрирует лучшую производительность, но требует более длительного времени обучения. LoRA и инкрементное переобучение оба улучшили общую производительность модели. Из подробных данных в приложении видно, что LoRA и инкрементное переобучение оба показали значительное улучшение в математических задачах, но привели к незначительному снижению производительности в других задачах. Конкретно производительность математических задач улучшилась до 0,586 и 0,559 соответственно.
Можно заметить, что: 1) выбор базовой модели оказывает значительное влияние на эффективность корректировки LoRA; 2) увеличение объема обучающих данных продолжает повышать эффективность модели LoRA; 3) корректировка LoRA выигрывает от количества параметров модели. Для использования схемы LoRA мы рекомендуем проводить адаптивное обучение с использованием LoRA для конкретных задач на основе моделей, завершивших обучение по инструкциям.
Аналогично, соответствующие модели в данной статье будут открыты для использования в данном проекте как можно скорее.
В модели, обученной на текущей базовой модели и данных, все еще существуют некоторые проблемы:1. Модель может генерировать фактические ошибки, когда ей требуется следовать инструкциям, связанным с фактами.2. Иногда генерирует вредные ответы, так как модель всё ещё испытывает трудности с идентификацией потенциально вредных инструкций.
Учитывая ограничения модели, мы требуем от разработчиков использовать открытый исходный код, данные, модель и любые другие артефакты, сгенерированные через этот проект, исключительно для исследовательских целей. Коммерческое использование и другие потенциально вредные случаи использования запрещены.
Этот проект может использоваться исключительно для исследовательских целей. Владельцы и участники проекта не несут ответственности за любые ущерб или убытки, вызванные использованием этого проекта (включая, но не ограничиваясь, данными, моделью или кодом). Пожалуйста, обратитесь к нашему декларации для получения дополнительной информации.
Пожалуйста, цитируйте нас при использовании нашего кода, данных или модели.
@misc{BELLE,
author = {BELLEGroup},
title = {BELLE: Будьте всемирным двигателем большого языкового моделирования},
year = {2023},
publisher = {GitHub},
journal = {GitHub репозиторий},
howpublished = {\url{https://github.com/LianjiaTech/BELLE}},
}
```@article{belle2023exploring,
title={Exploring the impact of scaling instruction data on large language models: An empirical study of real-world use cases},
author={Yunjie Ji, Yong Deng, Yan Gong, Yiping Peng, Qiang Niu, Lei Zhang, Baochang Ma, Xiangang Li},
journal={arXiv preprint arXiv:2303.14742},
year={2023}
}
@article{wen2023chathome,
title={ChatHome: Development and evaluation of domain-specific language modeling for home renovation},
author={Wen, Cheng and Sun, Xianghui and Zhao, Shuaijiang and Fang, Xiaoquan and Chen, Liangyu and Zou, Wei},
journal={arXiv preprint arXiv:2307.15290},
year={2023}
}
```Также цитируйте оригинальные работы BLOOM, LLaMA, Stanford Alpaca и Self-Instruct!| Human | Ассистент |
| ----- | ------ |
| Я — весенний дождь,<br/>Танцую на твоем лице и теле.<br/>Мои капельные крылья танцуют с тобой,<br/>Принеся жизнь каждому растению.<br/><br/>Шекспир, я здесь, чтобы встретиться с тобой.<br/>Твои работы наполнили мое сердце радостью.<br/>Красота природы в ее полноте<br/>Делает меня участником всего этого.<br/><br/>Когда листья шевелятся и шелестят,<br/>Мои капельные руки протягиваются к ним.<br/>Цветочные ароматы наполняют воздух,<br/>И приносят мне мир со всех сторон.<br/><br/>Также бабочки порхают вокруг,<br/>Сияя в лучах солнца.<br/>Их крылья сделаны из росы,<br/>Красивое зрелище для глаз.<br/><br/>Смотри, Шекспир, я тоже часть природы.<br/>Мои капельные волосы — символ надежды.<br/>Когда мы можем вернуться к нашим корням,<br/>Мы сможем вместе пережить этот сезон. |---
Классифицируем настроение следующего предложения как Положительное, Нейтральное или Отрицательное:
Супер взволнован, что буду преподавать первый курс Стэнфорда по Большим Языковым Моделям! Проверьте программу здесь
Положительное
---
Миньминь, отец которого имеет троих детей, старший сын называется Вань И, второй сын называется Вань Эр, как зовут младшего?
Миньминь
---
Напишите код для бинарного поиска на Python
```python
def binary_search(arr, target):
low = 0
high = len(arr) - 1
while low <= high:
mid = (low + high) // 2
if arr[mid] == target:
return mid
elif target < arr[mid]:
low = mid + 1
else:
high = mid - 1
return -1
Какая сегодня погода, переведите это предложение на английский What is the weather like today?
---Как сохранить энергию, перечислите 5 советов Вот несколько советов, которые помогут вам сохранить энергию:
Завтра закончится отпуск, немного неохотно идти на работу, что делать? Вот несколько мер, которые вы можете предпринять, чтобы лучше адаптироваться к завтрашнему дню после отпуска и начала работы:
Оба родителя фамилии У. Предлагаю несколько имен для мальчиков и девочек. |
---|
- Мальчики: У Джуньцзянь, У Ючжэн, У Цзымо, У Сыюань, У Цзеян, У Юхан, У Боувэнь, У Чжэййи. |
- Девочки: У Мэйчи, У Джияй, У Синьюй, У Сянньин, У Сюерю, У Ингши, У Юйянь. |
| --- | | - Мальчики: У Дунчжан, У Ючжэн, У Цзимо, У Сююань, У Чжэян, У Юхан, У Боувэнь, У Чжэййи. | | - Девочки: У Мэйчи, У Джиай, У Синьюй, У Сянньин, У Сюерю, У Ингши, У Юйянь. || Рекомендую несколько武侠 романов Вонг Цзина (Жань Юн) | | --- | | Вот три моих любимых武侠 романа Вонг Цзина: | | 1. "Герои Вэньчжэ" (射雕英雄传) - роман, полный ума и сообразительности, рассказывающий о семье Го Цзянь и Юань. | | 2. "Парень с когтями" (神雕侠侣) - роман, полный любви и чувств, рассказывающий о любовной истории между девушкой Сяо Нюй и парнем Юй Пином. | | 3. "Убийца дракона" (倚天屠龙记) - роман, полный величия и великолепия, рассказывающий о том, как лидер секты Минь Цзянь Чжан Ву Инь становится выдающимся героем. |
Перевод текста внутри кавычек:
Рекомендую несколько武侠 романов Вонг Цзина (Жань Юн) |
---|
Вот три моих любимых武侠 романа Вонг Цзина: |
1. "Герои Вэньчжэ" (射雕英雄传) - роман, полный ума и сообразительности, рассказывающий о семье Го Цзянь и Юань. |
2. "Парень с когтями" (神雕侠侣) - роман, полный любви и чувств, рассказывающий о любовной истории между девушкой Сяо Нюй и парнем Юй Пином. |
3. "Убийца дракона" (倚天屠龙记) - роман, полный величия и великолепия, рассказывающий о том, как лидер секты Минь Цзянь Чжан Ву Инь становится выдающимся героем. |
Вы приветствуетесь к созданию проблем или внесению данных/кода. Пожалуйста, обратитесь к Как вносить вклад.
Вы можете оставить комментарий после Вход в систему
Неприемлемый контент может быть отображен здесь и не будет показан на странице. Вы можете проверить и изменить его с помощью соответствующей функции редактирования.
Если вы подтверждаете, что содержание не содержит непристойной лексики/перенаправления на рекламу/насилия/вульгарной порнографии/нарушений/пиратства/ложного/незначительного или незаконного контента, связанного с национальными законами и предписаниями, вы можете нажать «Отправить» для подачи апелляции, и мы обработаем ее как можно скорее.
Комментарии ( 0 )