У меня есть селектор css, который отлично работает при его выполнении в консоли Chrome JS, но не работает при запуске через BeautifulSoup в одном примере, но работает в другом (я не могу различить разницу между ними).
url_1 = 'https://www.amazon.com/s?k=bacopa&page=1'
url_2 = 'https://www.amazon.com/s?k=acorus+calamus&page=1'
Следующий запрос отлично работает в обоих случаях при выполнении в консоли Chrome.
document.querySelectorAll('div.s-result-item')
Затем запустив два URL-адреса через BeautifulSoup, я получаю вот такой результат.
url_1 (работает)
headers = {'User-Agent': 'Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/74.0.3729.169 Safari/537.36'}
r = requests.get(url_1, headers=headers)
soup = BeautifulSoup(r.content, 'html.parser')
listings = soup .select('div.s-result-item')
print(len(listings))
вывод: 53 (правильно)
url_2 (не работает)
headers = {'User-Agent': 'Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/74.0.3729.169 Safari/537.36'}
r = requests.get(url_2, headers=headers)
soup = BeautifulSoup(r.content, 'html.parser')
listings = soup.select('div.s-result-item')
print(len(listings))
вывод: 0 (неверно - ожидаемо: 49)
Кто-нибудь знает, что здесь может происходить и как я могу заставить селектор css работать с BeautifulSoup?
Попробуйте selenium library
загрузить веб-страницу
from selenium import webdriver
from bs4 import BeautifulSoup
url_1 = 'https://www.amazon.com/s?k=bacopa&page=1'
url_2 = 'https://www.amazon.com/s?k=acorus+calamus&page=1'
#set chrome webdriver path
driver = webdriver.Chrome('/usr/bin/chromedriver')
#download webpage
driver.get(url_2)
soup = BeautifulSoup(driver.page_source, 'html.parser')
listings = soup.find_all('div',{'class':'s-result-item'})
print(len(listings))
О/П:
url_1: 50
url_2 : 48
Я думаю, что это html. Измените парсер на «lxml». Вы также можете сократить свой селектор css до класса и повторно использовать соединение с объектом Session
для повышения эффективности.
import requests
from bs4 import BeautifulSoup as bs
urls = ['https://www.amazon.com/s?k=bacopa&page=1','https://www.amazon.com/s?k=acorus+calamus&page=1']
with requests.Session() as s:
for url in urls:
r = s.get(url, headers = {'User-Agent' : 'Mozilla/5.0'})
soup = bs(r.content, 'lxml')
listings = soup.select('.s-result-item')
print(len(listings))
@gloomyfit selenium работает медленно, потому что загружает все, что связано со страницей веб-сайта.