import urllib.request, urllib.parse, urllib.error
import collections
collections.Callable = collections.abc.Callable
from bs4 import BeautifulSoup
import ssl
# 忽略SSL证书错误
ctx = ssl.create_default_context()
ctx.check_hostname = False
ctx.verify_mode = ssl.CERT_NONE
url = input('输入URL:')
count = input('输入次数:')
position = input('输入位置:')
print('正在获取:', url)
for i in range(0,int(count)):
html = urllib.request.urlopen(url, context=ctx).read()
soup = BeautifulSoup(html, 'html.parser')
# 获取标签
tags = soup('a',limit=int(position))
for tag in tags:
url = tag.get('href',None)
print('正在获取:', tag.get('href',None))
在这段代码中,请解释一下limit函数的作用是什么?
我删除了limit后得到了完全不同的结果。
Copyright 2014-2025 https://www.php.cn/ All Rights Reserved | php.cn | 湘ICP备2023035733号
@boris-verkhovskiy 是正确的。根据文档: "它告诉Beautiful Soup在找到一定数量的结果后停止收集。"