У меня есть собственный фильтр дублирования, который я использую для загрузки/сохранения состояния сканирования в s3 при его запуске/остановке.
Я хочу удалить из фильтра дублирования URL-адреса, которые определенный http status_code, например 429.
Моя первоначальная идея заключалась в том, чтобы собрать все неудачные URL-адреса в методе Spider_closed и удалить все URL-адреса, отличные от 200, из просмотренных перед сохранением их в s3, но Я не могу заставить его работать и не уверен, что это лучший подход.
Вот мой класс dupefilter:
from scrapy.dupefilters import BaseDupeFilter
import hashlib
import pickle
class S3DupeFilter(BaseDupeFilter):
@classmethod
def from_crawler(cls, crawler):
bucket_name = ...
key_name = ...
logger = crawler.spider.logger
return cls(bucket_name, key_name, logger)
def __init__(self, bucket, key, logger):
super(S3DupeFilter, self).__init__()
self.bucket_name = bucket
self.key_name = key
self.logger = logger
self.seen = set()
self.load()
def request_seen(self, request):
fp = self.request_fingerprint(request)
if fp in self.seen:
return True
self.seen.add(fp)
return False
def close(self, reason):
self.save()
def load(self):
try:
self.seen = aws_s3_read_data(...)
if not self.seen:
self.seen = set()
self.logger.info(f"Loaded {len(self.seen)} fingerprints from S3")
except Exception as e:
self.logger.error(f"Error loading dupefilter from S3: {e}")
def save(self):
try:
serialized_seen = pickle.dumps(self.seen)
aws_s3_insert_data(...)
self.logger.info(f"Saved {len(self.seen)} fingerprints to S3")
except Exception as e:
self.logger.error(f"Error saving dupefilter to S3: {e}")
def request_fingerprint(self, request):
return hashlib.sha256(request.url.encode('utf-8')).hexdigest()
def open(self):
pass
Подробнее здесь: https://stackoverflow.com/questions/791 ... tatus-code
Scrapy – не фильтровать некоторые URL-адреса на основе http status_code ⇐ Python
Программы на Python
1730203192
Anonymous
У меня есть собственный фильтр дублирования, который я использую для загрузки/сохранения состояния сканирования в s3 при его запуске/остановке.
Я хочу удалить из фильтра дублирования URL-адреса, которые определенный http status_code, например 429.
Моя первоначальная идея заключалась в том, чтобы собрать все неудачные URL-адреса в методе Spider_closed и удалить все URL-адреса, отличные от 200, из просмотренных перед сохранением их в s3, но Я не могу заставить его работать и не уверен, что это лучший подход.
Вот мой класс dupefilter:
from scrapy.dupefilters import BaseDupeFilter
import hashlib
import pickle
class S3DupeFilter(BaseDupeFilter):
@classmethod
def from_crawler(cls, crawler):
bucket_name = ...
key_name = ...
logger = crawler.spider.logger
return cls(bucket_name, key_name, logger)
def __init__(self, bucket, key, logger):
super(S3DupeFilter, self).__init__()
self.bucket_name = bucket
self.key_name = key
self.logger = logger
self.seen = set()
self.load()
def request_seen(self, request):
fp = self.request_fingerprint(request)
if fp in self.seen:
return True
self.seen.add(fp)
return False
def close(self, reason):
self.save()
def load(self):
try:
self.seen = aws_s3_read_data(...)
if not self.seen:
self.seen = set()
self.logger.info(f"Loaded {len(self.seen)} fingerprints from S3")
except Exception as e:
self.logger.error(f"Error loading dupefilter from S3: {e}")
def save(self):
try:
serialized_seen = pickle.dumps(self.seen)
aws_s3_insert_data(...)
self.logger.info(f"Saved {len(self.seen)} fingerprints to S3")
except Exception as e:
self.logger.error(f"Error saving dupefilter to S3: {e}")
def request_fingerprint(self, request):
return hashlib.sha256(request.url.encode('utf-8')).hexdigest()
def open(self):
pass
Подробнее здесь: [url]https://stackoverflow.com/questions/79136670/scrapy-dont-filter-some-urls-based-on-http-status-code[/url]
Ответить
1 сообщение
• Страница 1 из 1
Перейти
- Кемерово-IT
- ↳ Javascript
- ↳ C#
- ↳ JAVA
- ↳ Elasticsearch aggregation
- ↳ Python
- ↳ Php
- ↳ Android
- ↳ Html
- ↳ Jquery
- ↳ C++
- ↳ IOS
- ↳ CSS
- ↳ Excel
- ↳ Linux
- ↳ Apache
- ↳ MySql
- Детский мир
- Для души
- ↳ Музыкальные инструменты даром
- ↳ Печатная продукция даром
- Внешняя красота и здоровье
- ↳ Одежда и обувь для взрослых даром
- ↳ Товары для здоровья
- ↳ Физкультура и спорт
- Техника - даром!
- ↳ Автомобилистам
- ↳ Компьютерная техника
- ↳ Плиты: газовые и электрические
- ↳ Холодильники
- ↳ Стиральные машины
- ↳ Телевизоры
- ↳ Телефоны, смартфоны, плашеты
- ↳ Швейные машинки
- ↳ Прочая электроника и техника
- ↳ Фототехника
- Ремонт и интерьер
- ↳ Стройматериалы, инструмент
- ↳ Мебель и предметы интерьера даром
- ↳ Cантехника
- Другие темы
- ↳ Разное даром
- ↳ Давай меняться!
- ↳ Отдам\возьму за копеечку
- ↳ Работа и подработка в Кемерове
- ↳ Давай с тобой поговорим...
Мобильная версия