Я пытаюсь получить данные со страницы «Чем заняться» в Trip Advisor.
Я пытаюсь получить название достопримечательности, количество отзывов и оценку по отзывам.
Я попробовал следующий код найден в предыдущем вопросе, опубликованном 4 года назад, но он больше не работает:
import requests
from bs4 import BeautifulSoup
# Define header to prevent errors
user_agent = "Mozilla/5.0 (Macintosh; Intel Mac OS X 10_15_7) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/125.0.0.0 Safari/537.36"
headers = {
'User-Agent': 'Mozilla/5.0 (Macintosh; Intel Mac OS X 10_15_7) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/125.0.0.0 Safari/537.36',
'Accept-Language': 'en-US,en;q=0.9',
'Accept-Encoding': 'gzip, deflate, br',
'Accept': 'text/html,application/xhtml+xml,application/xml;q=0.9,image/webp,image/apng,*/*;q=0.8',
'Connection': 'keep-alive',
'Upgrade-Insecure-Requests': '1'
}
# URL of the TripAdvisor "things to do" page for Miami, Florida
url = "https://www.tripadvisor.com/Attractions-g188644-Activities-oa0-Brussels.html"
try:
# Get response from url with timeout
response = requests.get(url, headers=headers, timeout=10)
response.raise_for_status() # Check if the request was successful
# Soupify response
soup = BeautifulSoup(response.text, "lxml")
# Find elements containing the names of the attractions
attractions = soup.findAll("div", {"class": "attraction_element"})
# Iterate over attractions and extract information
things_to_do = []
for attraction in attractions:
# Example: Extract the name of the attraction
name = attraction.find("a", {"class": "attraction_name"}).text.strip()
things_to_do.append(name)
# Print the list of attractions
for i, item in enumerate(things_to_do, start=1):
print(f"{i}. {item}")
except requests.exceptions.RequestException as e:
print(f"An error occurred: {e}")
Я получил ошибку 403 Ошибка клиента: запрещено для URL.
Можете ли вы помочь?
Я пытаюсь получить данные со страницы «Чем заняться» в Trip Advisor. Я пытаюсь получить название достопримечательности, количество отзывов и оценку по отзывам. Я попробовал следующий код найден в предыдущем вопросе, опубликованном 4 года назад, но он больше не работает: [code]import requests from bs4 import BeautifulSoup
# Define header to prevent errors user_agent = "Mozilla/5.0 (Macintosh; Intel Mac OS X 10_15_7) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/125.0.0.0 Safari/537.36" headers = { 'User-Agent': 'Mozilla/5.0 (Macintosh; Intel Mac OS X 10_15_7) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/125.0.0.0 Safari/537.36', 'Accept-Language': 'en-US,en;q=0.9', 'Accept-Encoding': 'gzip, deflate, br', 'Accept': 'text/html,application/xhtml+xml,application/xml;q=0.9,image/webp,image/apng,*/*;q=0.8', 'Connection': 'keep-alive', 'Upgrade-Insecure-Requests': '1' }
# URL of the TripAdvisor "things to do" page for Miami, Florida url = "https://www.tripadvisor.com/Attractions-g188644-Activities-oa0-Brussels.html"
try: # Get response from url with timeout response = requests.get(url, headers=headers, timeout=10) response.raise_for_status() # Check if the request was successful
# Find elements containing the names of the attractions attractions = soup.findAll("div", {"class": "attraction_element"})
# Iterate over attractions and extract information things_to_do = [] for attraction in attractions: # Example: Extract the name of the attraction name = attraction.find("a", {"class": "attraction_name"}).text.strip() things_to_do.append(name)
# Print the list of attractions for i, item in enumerate(things_to_do, start=1): print(f"{i}. {item}")
except requests.exceptions.RequestException as e: print(f"An error occurred: {e}") [/code] Я получил ошибку 403 Ошибка клиента: запрещено для URL. Можете ли вы помочь?
Пожалуйста, я пытаюсь преобразовать HTML в PDF, когда страница составляет более одной страницы, последняя страница не занимает всю страницу, а просто остановитесь в Div. Как я могу убедиться, что контент CSS, подобные цветам фона, пройдут весь путь...
При очистке данных с первой страницы я перехожу на вторую страницу и нажимаю на первую ссылку. После возврата парсер возвращается к первой странице вместо того, чтобы оставаться на второй странице. Почему не сохраняется текущая страница. Как нам...
При очистке данных с первой страницы я перехожу на вторую страницу и нажимаю на первую ссылку. После возврата парсер возвращается к первой странице вместо того, чтобы оставаться на второй странице. Почему не сохраняется текущая страница. Как нам...
I want to make Android app with TripAdvisor API. But it is required an app website? Is it possible to get API KEY of TripAdvisor API without web site? If yes, please give me a way to do it.