Ответ Mistral7b начинается с дополнительного пробела при потоковой передаче с помощью Ollama.Python

Программы на Python
Ответить Пред. темаСлед. тема
Anonymous
 Ответ Mistral7b начинается с дополнительного пробела при потоковой передаче с помощью Ollama.

Сообщение Anonymous »

Когда я транслирую ответ mistral7b LLM с помощью Ollama, слева от самого первого фрагмента потоковой передачи появляется дополнительное пространство. Ниже мой код:

Код: Выделить всё

import ollama

stream = ollama.chat(
model='mistral',
messages=[{'role': 'user', 'content': 'Name an engineer that passes the vibe check'}],
stream=True
)

for chunk in stream:
print(chunk['message']['content'], end='', flush=True)
Вывод выглядит следующим образом:

Код: Выделить всё

$ python3 test.py
Elon Musk, the CEO of SpaceX and Tesla, is an engineer who seems to pass the "vibe check." He is known for his innovative ideas in renewable energy, space travel, and transportation. However, it's important to remember that personality and vibes can be subjective, so not everyone may agree with this assessment. Additionally, Musk's public image should not overshadow the contributions of countless other engineers who are equally impressive but less well-known.
Обратите внимание на самое первое пустое место перед буквой «Е». Как его удалить?

Подробнее здесь: https://stackoverflow.com/questions/786 ... ith-ollama
Реклама
Ответить Пред. темаСлед. тема

Быстрый ответ

Изменение регистра текста: 
Смайлики
:) :( :oops: :roll: :wink: :muza: :clever: :sorry: :angel: :read: *x)
Ещё смайлики…
   
К этому ответу прикреплено по крайней мере одно вложение.

Если вы не хотите добавлять вложения, оставьте поля пустыми.

Максимально разрешённый размер вложения: 15 МБ.

  • Похожие темы
    Ответы
    Просмотры
    Последнее сообщение

Вернуться в «Python»