Я новичок в локальном запуске моделей. Я был очень рад, что смог локально запустить модель gemma2b, которую я вытащил с помощью ollama. Я использую (или загружаю?) эту локальную модель в своем приложении Python, используя ChatOllama, как показано ниже
llm = ChatOllama(model="gemma2")
Но теперь я подошел к этапу, когда хочу точно настроить эту локально работающую модель. Я вижу, что модель сохранена в ~/.ollama/models/blobs как sha256.
Но из различных сообщений Reddit, чата и общего просмотра веб-страниц я понял, что не могу точно настроить модель с олламой, но мне нужно как-то точно настроить это за пределами олламы, а затем импортировать обратно в олламу, чтобы использовать вывод с точно настроенной моделью. правильно ли это понимание?
Если да, то как мне на самом деле вытащить модель из олламы для обучения и вернуть ее обратно? Я понимаю, что GGUF — это модельный формат, который я могу обучить. но как получить GGUF для Gemma2, который хранится локально (в моем случае)
Я планирую использовать LoRA для обучения, так как из некоторых статей понял, что он эффективен и использует меньше ресурсов .
Подробнее здесь: https://stackoverflow.com/questions/792 ... rom-ollama
Точная настройка модели Gemma, скачанной с сайта ollama. ⇐ Python
Программы на Python
-
Anonymous
1732697013
Anonymous
Я новичок в локальном запуске моделей. Я был очень рад, что смог локально запустить модель gemma2b, которую я вытащил с помощью ollama. Я использую (или загружаю?) эту локальную модель в своем приложении Python, используя ChatOllama, как показано ниже
llm = ChatOllama(model="gemma2")
Но теперь я подошел к этапу, когда хочу точно настроить эту локально работающую модель. Я вижу, что модель сохранена в ~/.ollama/models/blobs как sha256.
Но из различных сообщений Reddit, чата и общего просмотра веб-страниц я понял, что не могу точно настроить модель с олламой, но мне нужно как-то точно настроить это за пределами олламы, а затем импортировать обратно в олламу, чтобы использовать вывод с точно настроенной моделью. правильно ли это понимание?
Если да, то как мне на самом деле вытащить модель из олламы для обучения и вернуть ее обратно? Я понимаю, что GGUF — это модельный формат, который я могу обучить. но как получить GGUF для Gemma2, который хранится локально (в моем случае)
Я планирую использовать LoRA для обучения, так как из некоторых статей понял, что он эффективен и использует меньше ресурсов .
Подробнее здесь: [url]https://stackoverflow.com/questions/79229490/fine-tuning-gemma-model-that-was-downloaded-from-ollama[/url]
Ответить
1 сообщение
• Страница 1 из 1
Перейти
- Кемерово-IT
- ↳ Javascript
- ↳ C#
- ↳ JAVA
- ↳ Elasticsearch aggregation
- ↳ Python
- ↳ Php
- ↳ Android
- ↳ Html
- ↳ Jquery
- ↳ C++
- ↳ IOS
- ↳ CSS
- ↳ Excel
- ↳ Linux
- ↳ Apache
- ↳ MySql
- Детский мир
- Для души
- ↳ Музыкальные инструменты даром
- ↳ Печатная продукция даром
- Внешняя красота и здоровье
- ↳ Одежда и обувь для взрослых даром
- ↳ Товары для здоровья
- ↳ Физкультура и спорт
- Техника - даром!
- ↳ Автомобилистам
- ↳ Компьютерная техника
- ↳ Плиты: газовые и электрические
- ↳ Холодильники
- ↳ Стиральные машины
- ↳ Телевизоры
- ↳ Телефоны, смартфоны, плашеты
- ↳ Швейные машинки
- ↳ Прочая электроника и техника
- ↳ Фототехника
- Ремонт и интерьер
- ↳ Стройматериалы, инструмент
- ↳ Мебель и предметы интерьера даром
- ↳ Cантехника
- Другие темы
- ↳ Разное даром
- ↳ Давай меняться!
- ↳ Отдам\возьму за копеечку
- ↳ Работа и подработка в Кемерове
- ↳ Давай с тобой поговорим...
Мобильная версия