Код: Выделить всё
llm = ChatOllama(model="gemma2")
Но из различных сообщений Reddit, чата и обычного просмотра веб-страниц я понял, что не могу точно настроить модель с помощью ollama, но мне нужно как-то точно настроить ее за пределами ollama, а затем импортировать обратно в ollama, чтобы использовать вывод с точно настроенной моделью. правильно ли это понимание?
Если да, то как мне на самом деле вытащить модель из олламы для обучения и вернуть ее обратно? Я понимаю, что GGUF — это модельный формат, который я могу обучить. но как получить GGUF для Gemma2, который хранится локально (в моем случае)
Я планирую использовать LoRA для обучения, так как из некоторых статей понял, что он эффективен и использует меньше ресурсов .
Подробнее здесь: https://stackoverflow.com/questions/792 ... rom-ollama