Ошибка ImportError: невозможно импортировать имя «ПсевдоЭлемент» из «cssselect.parser»? ⇐ Python
Ошибка ImportError: невозможно импортировать имя «ПсевдоЭлемент» из «cssselect.parser»?
импортировать asyncio импортировать JSON импортировать httpx из вложенного_просмотра импортировать вложенный_просмотр из селектора импорта парселя # создаем HTTPX-клиент с заголовками, напоминающими веб-браузер клиент = httpx.AsyncClient( http2=Верно, Follow_redirects = Правда, заголовки={ «Агент пользователя»: «Mozilla/5.0 (Macintosh; Intel Mac OS X 10_15_7) AppleWebKit/537.36 (KHTML, например Gecko) Chrome/91.0.4472.114 Safari/537.36», "Принять": "text/html,application/xhtml+xml,application/xml;q=0.9,image/avif,image/webp,image/apng,*/*;q=0.8,application/signed-exchange;v =b3;q=0,9", «Accept-Encoding»: «gzip, deflate, br», "Accept-Language": "en-US,en;q=0.9", }, ) def parse_nextjs(html: str) -> dict: """извлечь кеш nextjs со страницы""" селектор = Селектор (html) data = selector.css("script#__NEXT_DATA__::text").get() если нет данных: data = selector.css("script[data-name=query]::text").get() data = data.split("=", 1)[-1].strip().strip(";") данные = json.loads(данные) возвращать данные async def Scrape_product (url: str) -> dict: """очистите одну страницу продукта StockX для получения данных о продукте""" ответ = ожидайте client.get(url) утверждать ответ.status_code == 200 данные = parse_nextjs(response.text) # извлекаем все наборы данных продуктов из кэша страниц продукты =nested_lookup("продукт", данные) # найти текущий набор данных о продукте пытаться: product = next(p для p в продуктах, если p.get("urlKey") в str(response.url)) кроме StopIteration: поднять ValueError("Не удалось найти набор данных о продукте в кэше страниц", ответ) вернуть товар # пример использования: URL = "https://stockx.com/amiri-skel-top-low-white-black-white" print(asyncio.run(scrape_product(url))) Я НЕ ПОНИМАЮ, ЧТО НЕ ТАК, лол пожалуйста, если кто-нибудь может сказать мне, что не так, я надеюсь, что мне вернут номер/цену, но я не получаю этого, я получаю ошибки слева направо и по центру я перезагрузился, отключился, переустановил и ничего не нашел в Google
импортировать asyncio импортировать JSON импортировать httpx из вложенного_просмотра импортировать вложенный_просмотр из селектора импорта парселя # создаем HTTPX-клиент с заголовками, напоминающими веб-браузер клиент = httpx.AsyncClient( http2=Верно, Follow_redirects = Правда, заголовки={ «Агент пользователя»: «Mozilla/5.0 (Macintosh; Intel Mac OS X 10_15_7) AppleWebKit/537.36 (KHTML, например Gecko) Chrome/91.0.4472.114 Safari/537.36», "Принять": "text/html,application/xhtml+xml,application/xml;q=0.9,image/avif,image/webp,image/apng,*/*;q=0.8,application/signed-exchange;v =b3;q=0,9", «Accept-Encoding»: «gzip, deflate, br», "Accept-Language": "en-US,en;q=0.9", }, ) def parse_nextjs(html: str) -> dict: """извлечь кеш nextjs со страницы""" селектор = Селектор (html) data = selector.css("script#__NEXT_DATA__::text").get() если нет данных: data = selector.css("script[data-name=query]::text").get() data = data.split("=", 1)[-1].strip().strip(";") данные = json.loads(данные) возвращать данные async def Scrape_product (url: str) -> dict: """очистите одну страницу продукта StockX для получения данных о продукте""" ответ = ожидайте client.get(url) утверждать ответ.status_code == 200 данные = parse_nextjs(response.text) # извлекаем все наборы данных продуктов из кэша страниц продукты =nested_lookup("продукт", данные) # найти текущий набор данных о продукте пытаться: product = next(p для p в продуктах, если p.get("urlKey") в str(response.url)) кроме StopIteration: поднять ValueError("Не удалось найти набор данных о продукте в кэше страниц", ответ) вернуть товар # пример использования: URL = "https://stockx.com/amiri-skel-top-low-white-black-white" print(asyncio.run(scrape_product(url))) Я НЕ ПОНИМАЮ, ЧТО НЕ ТАК, лол пожалуйста, если кто-нибудь может сказать мне, что не так, я надеюсь, что мне вернут номер/цену, но я не получаю этого, я получаю ошибки слева направо и по центру я перезагрузился, отключился, переустановил и ничего не нашел в Google
-
- Похожие темы
- Ответы
- Просмотры
- Последнее сообщение
-
-
Ошибка ImportError: невозможно импортировать имя «url_encode» из «werkzeug».
Anonymous » » в форуме Python - 0 Ответы
- 48 Просмотры
-
Последнее сообщение Anonymous
-
-
-
Ошибка ImportError: невозможно импортировать имя «url_decode» из «werkzeug.urls».
Anonymous » » в форуме Python - 0 Ответы
- 41 Просмотры
-
Последнее сообщение Anonymous
-
-
-
Ошибка ImportError: невозможно импортировать имя ObsidianReader из llama_index.
Anonymous » » в форуме Python - 0 Ответы
- 32 Просмотры
-
Последнее сообщение Anonymous
-
-
-
Ошибка ImportError: невозможно импортировать имя ObsidianReader из llama_index.
Anonymous » » в форуме Python - 0 Ответы
- 48 Просмотры
-
Последнее сообщение Anonymous
-