Это попытка создать локальную альтернативу GitHub Copilot. Он использует модели SalesForce CodeGen внутри NVIDIA Triton Inference Server с бэкендом FasterTransformer.
Вам понадобятся:
docker compose
версии 1.28 или выше;nvidia-docker
;curl
и zstd
для скачивания и распаковки моделей.Обратите внимание, что требования к объёму видеопамяти, указанные в setup.sh
, являются общими — если у вас несколько графических процессоров, вы можете разделить модель между ними. Так, если у вас есть два графических процессора NVIDIA RTX 3080, вы должны иметь возможность запустить модель 6B, разместив половину на каждом графическом процессоре.
Хорошо, ладно, теперь у нас есть некоторая минимальная информация на вики и форуме для обсуждений, где вы можете задавать вопросы. Однако официальной поддержки или гарантии всё ещё нет!
В этом разделе описывается, как установить сервер и клиенты Fauxpilot.
Запустите скрипт установки, чтобы выбрать модель для использования. Это загрузит модель из Huggingface/Moyix в формате GPT-J, а затем преобразует её для использования с FasterTransformer.
Пожалуйста, обратитесь к разделу Как настроить сервер.
Мы предлагаем несколько способов подключения к серверу FauxPilot. Например, вы можете создать клиент, используя Openai API, плагин Copilot, REST API.
Пожалуйста, ознакомьтесь с разделом Как настроить клиент.
Вы можете оставить комментарий после Вход в систему
Неприемлемый контент может быть отображен здесь и не будет показан на странице. Вы можете проверить и изменить его с помощью соответствующей функции редактирования.
Если вы подтверждаете, что содержание не содержит непристойной лексики/перенаправления на рекламу/насилия/вульгарной порнографии/нарушений/пиратства/ложного/незначительного или незаконного контента, связанного с национальными законами и предписаниями, вы можете нажать «Отправить» для подачи апелляции, и мы обработаем ее как можно скорее.
Комментарии ( 0 )