Я использую Python для извлечения имени файла из ссылки с помощью rfind, как показано ниже:
url = "http://www.google.com/test.php"
print url[url.rfind("/") +1 : ]
Это нормально работает со ссылками без / в конце и возвращает "test.php". Я встречал ссылки с / в конце типа "http://www.google.com/test.php/". У меня проблемы с получением имени страницы, когда в конце стоит "/", может ли кто-нибудь помочь?
Ваше здоровье
Вы могли бы использовать
print url[url.rstrip("/").rfind("/") +1 : ]
Имена файлов с косой чертой в конце технически все еще являются определениями пути и указывают на то, что индексный файл должен быть прочитан. Если у вас действительно есть тот, который заканчивается на test.php/
, я бы счел это ошибкой. В любом случае вы можете удалить / с конца перед запуском кода следующим образом:
url = url.rstrip('/')
На самом деле это будет ... они оба разрешаются по одному и тому же пути и перенаправляются на reddit.com/r/gaming. Как указывалось в другом месте, строки запроса - это совершенно другая проблема (о которой OP не спрашивал)
Существует библиотека под названием urlparse, которая проанализирует URL-адрес для вас, но по-прежнему не удаляет / в конце, поэтому один из вышеперечисленных будет лучшим вариантом.
Просто убрать косую черту в конце не получится, так как у вас, вероятно, может быть такой URL:
http://www.google.com/test.php?filepath=tests/hey.xml
... в этом случае вы вернетесь "hey.xml". Вместо того, чтобы вручную проверять это, вы можете использовать urlparse, чтобы избавиться от параметров, а затем выполнить проверку, предложенную другими людьми:
from urlparse import urlparse
url = "http://www.google.com/test.php?something=heyharr/sir/a.txt"
f = urlparse(url)[2].rstrip("/")
print f[f.rfind("/")+1:]
Просто для удовольствия вы можете использовать Regexp:
import re
print re.search('/([^/]+)/?$', url).group(1)
Python - это не Perl, вам не всегда нужно обращаться к регулярным выражениям! Для простой обработки встроенные строковые методы, вероятно, будут более удобочитаемыми и быстрыми. (В этом случае на моей машине регулярные выражения были на 60% медленнее, на 160%, если не были предварительно скомпилированы. Не то чтобы это, вероятно, имеет значение для такого простого кода, но все же)
Я знаю. Я также поддерживаю предложение urlparse. Поскольку никто не упоминал регулярные выражения, я подумал, что упомяну о возможности.
Используйте полосу [r], чтобы удалить завершающие косые черты:
url.rstrip('/').rsplit('/', 1)[-1]
Если возможен более широкий диапазон возможных URL-адресов, включая URL-адреса с? Запросами, #anchors или без пути, сделайте это правильно с urlparse:
path= urlparse.urlparse(url).path
return path.rstrip('/').rsplit('/', 1)[-1] or '(root path)'
filter(None, url.split('/'))[-1]
(Но urlparse, вероятно, более читабелен, даже если более подробный.)
Это не будет вести себя правильно для translate.google.com/translate?sl=en&tl=es&u=http://…