Код: Выделить всё
import requests
url = "https://example.com/api/data"
try:
response = requests.get(url, timeout=10)
if response.status_code == 200:
print(response.json())
else:
print(f"Error: {response.status_code}")
except requests.exceptions.RequestException as e:
print(f"Request failed: {e}")
Скрипт работает большую часть времени, но зависает на некоторых запросах, не активируя таймаут.
Установка таймаута в вызове Request.get() не работает. Кажется, это не всегда предотвращает проблему зависания.
Одна и та же проблема сохраняется в разных сетях, поэтому я не думаю, что это проблема локального подключения.
Что я пробовал :
Проверил URL в браузер и Curl, и, кажется, работает нормально.
Пытался использовать сеанс вместо Requests.get(), но проблема все еще возникает.
Включено ведение журнала с помощью http.client для отладки, но это не помогло ничего убедительного не нашел.
Есть ли лучший способ справиться с периодическими зависаниями запросов? Стоит ли мне рассмотреть альтернативную библиотеку или специальную конфигурацию для большей надежности?
Будем очень благодарны за любую помощь!
Подробнее здесь: https://stackoverflow.com/questions/792 ... ts-library