# Generate a new response if last message is not from assistant
if st.session_state.messages[-1]["role"] != "assistant":
with st.chat_message("assistant"):
with st.spinner("Thinking..."):
response = ask_question(qa, prompt)
print(response.content)
st.markdown(response.content)
message = {"role": "assistant", "content": response.content}
st.session_state.messages.append(message)
Я использую DeepSeek LLM для моего приложения AI, ответы будут включать его процесс мышления. он выглядит примерно так:
[code]# Generate a new response if last message is not from assistant if st.session_state.messages[-1]["role"] != "assistant": with st.chat_message("assistant"): with st.spinner("Thinking..."): response = ask_question(qa, prompt) print(response.content) st.markdown(response.content) message = {"role": "assistant", "content": response.content} st.session_state.messages.append(message) [/code] Ответы AI Assistant имеет контент в тегах.>
Я использую owlready2 для разработки онтологий и рассуждений. Когда я запускаю встроенный модуль рассуждения Pellet, он не делает вывод о принадлежности индивидов к суперклассам назначенного им класса. Минимальный воспроизводимый пример онтологии...