Можно ли сохранить память для общения в lama-index?Python

Программы на Python
Ответить Пред. темаСлед. тема
Anonymous
 Можно ли сохранить память для общения в lama-index?

Сообщение Anonymous »

Я хотел бы знать, можно ли использовать llama-index для создания собственного чата на основе документации или нет. У меня достаточно данных, однако я хочу сохранить контекст и добавить соответствующие ответы на вопросы. Возможно ли это сделать? если да, то как? любые предложения будут очень полезны

Подробнее здесь: https://stackoverflow.com/questions/762 ... lama-index
Реклама
Ответить Пред. темаСлед. тема

Быстрый ответ

Изменение регистра текста: 
Смайлики
:) :( :oops: :roll: :wink: :muza: :clever: :sorry: :angel: :read: *x)
Ещё смайлики…
   
К этому ответу прикреплено по крайней мере одно вложение.

Если вы не хотите добавлять вложения, оставьте поля пустыми.

Максимально разрешённый размер вложения: 15 МБ.

  • Похожие темы
    Ответы
    Просмотры
    Последнее сообщение
  • Как использовать модель LaMa Inpainting в качестве API? [закрыто]
    Anonymous » » в форуме Python
    0 Ответы
    11 Просмотры
    Последнее сообщение Anonymous
  • ValueError: клиент должен быть экземпляром pinecone.index, Got
    Anonymous » » в форуме Python
    0 Ответы
    77 Просмотры
    Последнее сообщение Anonymous
  • Не могу сохранить входящие данные общения в базу данных
    Anonymous » » в форуме C#
    0 Ответы
    14 Просмотры
    Последнее сообщение Anonymous
  • Модель генерации текста для общения в чате как вымышленный персонаж
    Anonymous » » в форуме Python
    0 Ответы
    33 Просмотры
    Последнее сообщение Anonymous
  • Стили общения Push и Pull в oop: почему стиль Push не является гибким?
    Anonymous » » в форуме JAVA
    0 Ответы
    72 Просмотры
    Последнее сообщение Anonymous

Вернуться в «Python»