Как получить определенные текстовые гиперссылки на домашней странице с помощью BeautifulSoup?

Я хочу найти все гиперссылки, текстовое имя которых включает «статью» в https://www.geeksforgeeks.org/ например, внизу этой веб-страницы

Write an Article
Improve an Article

Я хочу получить все гиперссылки и распечатать их, поэтому я попытался,

from urllib.request import urlopen
from bs4 import BeautifulSoup
import os
import re

url = 'https://www.geeksforgeeks.org/'

reqs = requests.get(url)
soup = BeautifulSoup(reqs.text, "html.parser")
links = []
for link in soup.findAll('a',href = True):
    #print(link.get("href")

    if re.search('/article$', href):
        links.append(link.get("href"))

Однако в результате получается [] , как это решить?

Привет, у вас есть часть вашего html, чтобы мы могли воспроизвести ваш код? Это упростит отладку и поможет вам с вашим вопросом.

3dSpatialUser 18.03.2022 08:15

@3dSpatialUser, проверьте еще раз, пожалуйста

4daJKong 18.03.2022 08:25

Я голосую за то, чтобы закрыть этот вопрос, потому что предоставленный код не приводит к вашей проблеме с пустым ResultSet, есть несколько других проблем (модуль, переменные) - Просто подсказка: если вы хотите найти статью в тексте, почему вы ищете в href ?

HedgeHog 18.03.2022 08:41

@HedgeHog название гиперссылки - «статья» на веб-сайте.

4daJKong 18.03.2022 08:45
Почему в Python есть оператор "pass"?
Почему в Python есть оператор "pass"?
Оператор pass в Python - это простая концепция, которую могут быстро освоить даже новички без опыта программирования.
Некоторые методы, о которых вы не знали, что они существуют в Python
Некоторые методы, о которых вы не знали, что они существуют в Python
Python - самый известный и самый простой в изучении язык в наши дни. Имея широкий спектр применения в области машинного обучения, Data Science,...
Основы Python Часть I
Основы Python Часть I
Вы когда-нибудь задумывались, почему в программах на Python вы видите приведенный ниже код?
LeetCode - 1579. Удаление максимального числа ребер для сохранения полной проходимости графа
LeetCode - 1579. Удаление максимального числа ребер для сохранения полной проходимости графа
Алиса и Боб имеют неориентированный граф из n узлов и трех типов ребер:
Оптимизация кода с помощью тернарного оператора Python
Оптимизация кода с помощью тернарного оператора Python
И последнее, что мы хотели бы показать вам, прежде чем двигаться дальше, это
Советы по эффективной веб-разработке с помощью Python
Советы по эффективной веб-разработке с помощью Python
Как веб-разработчик, Python может стать мощным инструментом для создания эффективных и масштабируемых веб-приложений.
0
4
42
1
Перейти к ответу Данный вопрос помечен как решенный

Ответы 1

Ответ принят как подходящий

Вот что вы можете попробовать: Обратите внимание, что в приведенной вами ссылке больше ссылок с тестом article, но это дает представление о том, как с этим бороться.

В данном случае я просто проверил, есть ли слово article в тексте этого тега. Вы можете использовать поиск по регулярным выражениям, но для этого примера это излишество.

import requests
from bs4 import BeautifulSoup

url = 'https://www.geeksforgeeks.org/'
res = requests.get(url)

if res.status_code != 200:
    'no resquest'

soup = BeautifulSoup(res.content, "html.parser")

links_with_article = soup.findAll(lambda tag:tag.name= = "a" and "article" in tag.text.lower())

Обновлено:

Если вы знаете, что в href, т.е. в самой ссылке, есть слово:

soup.select("a[href*=article]")

это будет искать слово article в href всех элементов a.

Обновлено: получить только href:

hrefs = [link.get('href') for link in links_with_article]

Большое спасибо, это то, что я хочу, но он возвращает всю информацию, как я могу получить только рекламу?

4daJKong 18.03.2022 08:58

пожалуйста, посмотрите мое редактирование

3dSpatialUser 18.03.2022 09:07

Большое спасибо, у меня все еще есть небольшой вопрос, как я могу использовать регулярное выражение, чтобы переписать его? Я имею в виду, например, "4article", "5article"... Я пишу re.match ("/darticle$", tag.text.lower()), почему не верно?

4daJKong 18.03.2022 09:38

Ваш /d должен быть \d. Например, вы можете использовать: links_with_article = soup.findAll(lambda tag:tag.name= = "a" and re.search(r'\darticle', tag.text.lower())), чтобы найти статью. Я использовал поиск для поиска по всей строке, совпадение искалось только с начала строки.

3dSpatialUser 18.03.2022 09:45

Спасибо за вашу помощь еще раз, и я действительно ценю это!

4daJKong 18.03.2022 16:30

Другие вопросы по теме