введите здесь описание изображения
Я добавил эти три файла для настройки, и в проекте сказано, что нужно использовать эту строку команд
export MODEL_REPO=meta-llama/Llama-2-7b-chat-hf./scripts/prepare.sh $MODEL_REPO
Я много раз изменял среду конфигурации, но безуспешно. Если вы сможете мне помочь, выражу огромную благодарность.
Надеюсь, этот модуль ламы удастся реализовать
Подробнее здесь: https://stackoverflow.com/questions/790 ... ast-in-the
Я не знаком с конфигурацией проекта с открытым исходным кодом gpt_fast на облачном сервере. ⇐ Python
-
- Похожие темы
- Ответы
- Просмотры
- Последнее сообщение