Потоковая передача ответов с сервера вывода Triton с помощью бэкэнда PythonPython

Программы на Python
Ответить Пред. темаСлед. тема
Anonymous
 Потоковая передача ответов с сервера вывода Triton с помощью бэкэнда Python

Сообщение Anonymous »

Я использую сервер вывода Triton с серверной частью Python и в настоящий момент отправляю запросы gRPC. Кто-нибудь знает, как мы можем использовать серверную часть Python для потоковой передачи (например, ответов модели), потому что я не нашел в документации примеров, связанных с потоковой передачей.

Подробнее здесь: https://stackoverflow.com/questions/712 ... on-backend
Реклама
Ответить Пред. темаСлед. тема

Быстрый ответ

Изменение регистра текста: 
Смайлики
:) :( :oops: :roll: :wink: :muza: :clever: :sorry: :angel: :read: *x)
Ещё смайлики…
   
К этому ответу прикреплено по крайней мере одно вложение.

Если вы не хотите добавлять вложения, оставьте поля пустыми.

Максимально разрешённый размер вложения: 15 МБ.

  • Похожие темы
    Ответы
    Просмотры
    Последнее сообщение

Вернуться в «Python»