Я использую Big Query для извлечения данных SQL из определенной базы данных. У меня возникли проблемы с созданием модели Ollama, особенно llama3.3 70B, с правильным чтением данных SQL-запроса. Он лишь повторяет заданную подсказку и запрашивает дополнительную информацию. Я конвертирую данные SQL в словарь и конвертирую словарь в данные json с помощью .jsondump().
Если у кого-нибудь есть предложения, как я могу заставить его правильно читать. Моя главная цель — сделать так, чтобы модель могла читать данные в формате JSON и предоставлять сводку результатов запроса. Результаты SQL влекут за собой определенные параметры, используемые для Большого запроса, например, шкала Гольдштейна является компонентом запроса. Моя главная цель — получить в модели обобщение того, что влечет за собой каждый компонент запроса, и дать снимок общего ответа на запрос. Например, приведенные ниже параметры SQL должны быть суммированы моделью после ответа на запрос, затем проанализированы и использованы для прогнозирования текущей ситуации ввода.
SQLDATE,
Actor1Name,
Actor2Name,
EventCode,
EventRootCode,
AvgTone,
GoldsteinScale,
SOURCEURL
def askollamaHandler(param2,param2,param3, model="llama3.1:latest"):
prompt = {
f"Context: ------"
f"Tasl: --------"
f"Metrics: ----------."
f"Analyze: ------" }
response = requests.post(
"http://localhost:11434/api/generate",
json={
"model": model,
"prompt": prompt,
"stream": False
}
)
return response.json()["response"]
def askollamaQuery(param1, param2, model="llama3.1:latest"):
prompt = {
f"Task: ------"
f"Context: ----"
f"Metrics: ----"
f"Analyze: ---- "
f"Data:---"
}
response = requests.post(
"http://localhost:11434/api/generate",
json={
"model": model,
"prompt": prompt,
"stream": False
}
)
return response.json()["response"]
QUERY_RESULT_DATA = client.query(query)
DATA_DICT = [dict(row) for row in QUERY_RESULT_DATA] # 1 query to dict
df = pd.DataFrame(DATA_DICT) #for XLSX save
json_data = json.dump(DATA_DICT) #for LLM read
llama_handler_summary = askollamaHandler(country_code_filter,keyword_filter,event_filter)
llama_query_summary = askollamaQuery(DATA_DICT,llama_handler_summary)
Подробнее здесь: https://stackoverflow.com/questions/798 ... a-properly
Заставить модель Олламы правильно читать данные dict/json ⇐ Python
Программы на Python
-
Anonymous
1766623645
Anonymous
Я использую Big Query для извлечения данных SQL из определенной базы данных. У меня возникли проблемы с созданием модели Ollama, особенно llama3.3 70B, с правильным чтением данных SQL-запроса. Он лишь повторяет заданную подсказку и запрашивает дополнительную информацию. Я конвертирую данные SQL в словарь и конвертирую словарь в данные json с помощью .jsondump().
Если у кого-нибудь есть предложения, как я могу заставить его правильно читать. Моя главная цель — сделать так, чтобы модель могла читать данные в формате JSON и предоставлять сводку результатов запроса. Результаты SQL влекут за собой определенные параметры, используемые для Большого запроса, например, шкала Гольдштейна является компонентом запроса. Моя главная цель — получить в модели обобщение того, что влечет за собой каждый компонент запроса, и дать снимок общего ответа на запрос. Например, приведенные ниже параметры SQL должны быть суммированы моделью после ответа на запрос, затем проанализированы и использованы для прогнозирования текущей ситуации ввода.
SQLDATE,
Actor1Name,
Actor2Name,
EventCode,
EventRootCode,
AvgTone,
GoldsteinScale,
SOURCEURL
def askollamaHandler(param2,param2,param3, model="llama3.1:latest"):
prompt = {
f"Context: ------"
f"Tasl: --------"
f"Metrics: ----------."
f"Analyze: ------" }
response = requests.post(
"http://localhost:11434/api/generate",
json={
"model": model,
"prompt": prompt,
"stream": False
}
)
return response.json()["response"]
def askollamaQuery(param1, param2, model="llama3.1:latest"):
prompt = {
f"Task: ------"
f"Context: ----"
f"Metrics: ----"
f"Analyze: ---- "
f"Data:---"
}
response = requests.post(
"http://localhost:11434/api/generate",
json={
"model": model,
"prompt": prompt,
"stream": False
}
)
return response.json()["response"]
QUERY_RESULT_DATA = client.query(query)
DATA_DICT = [dict(row) for row in QUERY_RESULT_DATA] # 1 query to dict
df = pd.DataFrame(DATA_DICT) #for XLSX save
json_data = json.dump(DATA_DICT) #for LLM read
llama_handler_summary = askollamaHandler(country_code_filter,keyword_filter,event_filter)
llama_query_summary = askollamaQuery(DATA_DICT,llama_handler_summary)
Подробнее здесь: [url]https://stackoverflow.com/questions/79838108/making-an-ollama-model-read-dict-json-data-properly[/url]
Ответить
1 сообщение
• Страница 1 из 1
Перейти
- Кемерово-IT
- ↳ Javascript
- ↳ C#
- ↳ JAVA
- ↳ Elasticsearch aggregation
- ↳ Python
- ↳ Php
- ↳ Android
- ↳ Html
- ↳ Jquery
- ↳ C++
- ↳ IOS
- ↳ CSS
- ↳ Excel
- ↳ Linux
- ↳ Apache
- ↳ MySql
- Детский мир
- Для души
- ↳ Музыкальные инструменты даром
- ↳ Печатная продукция даром
- Внешняя красота и здоровье
- ↳ Одежда и обувь для взрослых даром
- ↳ Товары для здоровья
- ↳ Физкультура и спорт
- Техника - даром!
- ↳ Автомобилистам
- ↳ Компьютерная техника
- ↳ Плиты: газовые и электрические
- ↳ Холодильники
- ↳ Стиральные машины
- ↳ Телевизоры
- ↳ Телефоны, смартфоны, плашеты
- ↳ Швейные машинки
- ↳ Прочая электроника и техника
- ↳ Фототехника
- Ремонт и интерьер
- ↳ Стройматериалы, инструмент
- ↳ Мебель и предметы интерьера даром
- ↳ Cантехника
- Другие темы
- ↳ Разное даром
- ↳ Давай меняться!
- ↳ Отдам\возьму за копеечку
- ↳ Работа и подработка в Кемерове
- ↳ Давай с тобой поговорим...
Мобильная версия