Я пытаюсь загрузить несколько файлов из общедоступной корзины s3 в рамках курса Google Analytics. Однако я не получаю ссылки, возвращенные по моему запросу. Я не уверен, нужно ли мне использовать boto3 или другой пакет API, поскольку это общедоступный URL-адрес с видимыми ссылками. Читая документацию Boto3, я не уверен на 100%, как мне перечислить zip-файлы, перечисленные в ссылках на страницы. Извините, я новичок в этом деле.
На данный момент я получил вот что:
Код: Выделить всё
import requests
from bs4 import BeautifulSoup
r = requests.get('https://divvy-tripdata.s3.amazonaws.com/index.html')
data = r.text
soup = BeautifulSoup(data)
links = []
for link in soup.find_all('a'):
links.append(link.get('href'))
Запрос к URL-адресу возвращает 200, однако ссылки href[] из тегов «a» оказываются пустыми. Я пытаюсь получить все ссылки, чтобы создать цикл для загрузки файлов с помощью urllib.request. к базовому URL-адресу с именем /filename для каждого zip-файла.
Любая помощь будет принята с благодарностью и заранее спасибо!
Подробнее здесь:
https://stackoverflow.com/questions/757 ... -s3-bucket