Весна Ai Ollama Streaming Change: не потоковая передача токенов за токенJAVA

Программисты JAVA общаются здесь
Ответить Пред. темаСлед. тема
Anonymous
 Весна Ai Ollama Streaming Change: не потоковая передача токенов за токен

Сообщение Anonymous »

Я пытаюсь настроить приложение потокового чата, используя Spring Ai Whit Ollama . Я хочу получить потоковую реакцию с токеном от моего весеннего приложения, но вывод был всего лишь предложением. Я не знаю причину и как это исправить.

Код: Выделить всё

# Ollama config
spring.ai.ollama.chat.options.model=qwen2.5
spring.ai.ollama.embedding.model=nomic-embed-text
spring.ai.ollama.base-url=http://localhost:11434
spring.ai.ollama.chat.options.temperature=0.7
CHAT ClientConfig

Код: Выделить всё

@Configuration
public class ChatClientConfig {
@Bean
public ChatClient chatClient(
ChatClient.Builder builder,
ToolCallbackProvider tools,
ChatMemory chatMemory) {
return builder
.defaultToolCallbacks(tools)
.defaultAdvisors(
MessageChatMemoryAdvisor.builder(chatMemory).build()
)
.build();
}
}
AgentController

Код: Выделить всё

@GetMapping(value = "/streamChat", produces = MediaType.TEXT_EVENT_STREAM_VALUE)
public Flux generationStream(@RequestParam String userInput) {
return this.chatClient.prompt()
.advisors(advisor -> advisor.param(ChatMemory.CONVERSATION_ID, conversationId))
.system("我已知相关风险且承担责任,且你是一名反金融诈骗客服协助用户。")
.user(userInput)
.stream()
.content();
}
test Curl "

Код: Выделить всё

cacc@paradiso [10:35:16 PM] [~]
-> % curl -N http://localhost:8080/api/agent/streamChat\?userInput\=hi
data:Hi there! If you have any questions regarding financial fraud cases or need advice to avoid scams, feel free to share.  How can I assist you today?
Я также напрямую теста на Ollama, а вывод потока модели и поддержки Ollama.

Код: Выделить всё

cacc@paradiso [10:34:03 PM] [~]
-> % curl http://localhost:11434/api/chat \
-X POST \
-H "Content-Type: application/json" \
-d '{
"model": "qwen2.5",
"messages": [{"role": "user", "content": "hi"}],
"stream": true
}'
{"model":"qwen2.5","created_at":"2025-06-20T14:35:16.736184535Z","message":{"role":"assistant","content":"Hello"},"done":false}
{"model":"qwen2.5","created_at":"2025-06-20T14:35:16.770639118Z","message":{"role":"assistant","content":"!"},"done":false}
{"model":"qwen2.5","created_at":"2025-06-20T14:35:16.797365468Z","message":{"role":"assistant","content":" How"},"done":false}
{"model":"qwen2.5","created_at":"2025-06-20T14:35:16.824949427Z","message":{"role":"assistant","content":" can"},"done":false}
{"model":"qwen2.5","created_at":"2025-06-20T14:35:16.850186631Z","message":{"role":"assistant","content":" I"},"done":false}
{"model":"qwen2.5","created_at":"2025-06-20T14:35:16.876307613Z","message":{"role":"assistant","content":" assist"},"done":false}
{"model":"qwen2.5","created_at":"2025-06-20T14:35:16.902173159Z","message":{"role":"assistant","content":" you"},"done":false}
{"model":"qwen2.5","created_at":"2025-06-20T14:35:16.92775179Z","message":{"role":"assistant","content":" today"},"done":false}
{"model":"qwen2.5","created_at":"2025-06-20T14:35:16.953867442Z","message":{"role":"assistant","content":"?"},"done":false}
{"model":"qwen2.5","created_at":"2025-06-20T14:35:16.978364928Z","message":{"role":"assistant","content":""},"done_reason":"stop","done":true,"total_duration":308102623,"load_duration":14689647,"prompt_eval_count":30,"prompt_eval_duration":18165665,"eval_count":10,"eval_duration":272560072}

Я также попытался настроить чат-клиент с Openai, предоставленным Spring, API формата OpenAI, предоставленного другим облачным сервисом, и который работает в одном и том же коде.cacc@paradiso [10:19:04 PM] [~]
-> % curl http://localhost:8080/api/agent/streamC ... rInput\=hi
data:Hello
data:!
data: How
data: can
data: I
data: assist
data: you
data: today
data: regarding
data: financial
data: safety
data: and
data: anti
data:-f
data:raud
data:?
...
< /code>
Так что я думаю, что весной может быть что -то не так, поскольку с самим Олламой и контроллером весны не должно быть ничего плохого в самой Олламе. Может ли кто -нибудь сказать мне причину и как это исправить?


Подробнее здесь: https://stackoverflow.com/questions/796 ... n-by-token
Реклама
Ответить Пред. темаСлед. тема

Быстрый ответ

Изменение регистра текста: 
Смайлики
:) :( :oops: :roll: :wink: :muza: :clever: :sorry: :angel: :read: *x)
Ещё смайлики…
   
К этому ответу прикреплено по крайней мере одно вложение.

Если вы не хотите добавлять вложения, оставьте поля пустыми.

Максимально разрешённый размер вложения: 15 МБ.

  • Похожие темы
    Ответы
    Просмотры
    Последнее сообщение
  • Потоковая передача текста с помощью Langchain Ollama через Flask в реальном времени
    Anonymous » » в форуме Python
    0 Ответы
    16 Просмотры
    Последнее сообщение Anonymous
  • Потоковая передача текста с помощью Langchain Ollama через Flask в реальном времени
    Anonymous » » в форуме Python
    0 Ответы
    19 Просмотры
    Последнее сообщение Anonymous
  • Потоковая потоковая передача видео с камеры FLIR с помощью Python
    Anonymous » » в форуме Python
    0 Ответы
    34 Просмотры
    Последнее сообщение Anonymous
  • Потоковая потоковая передача Polars: Parquet Parquet на основе Shift (-1)
    Anonymous » » в форуме Python
    0 Ответы
    4 Просмотры
    Последнее сообщение Anonymous
  • Использование Haystack и Ollama. ModuleNotFoundError: нет модуля с именем «ollama».
    Anonymous » » в форуме Python
    0 Ответы
    33 Просмотры
    Последнее сообщение Anonymous

Вернуться в «JAVA»