恩。我最近在弄个爬虫的程序,主要是弄来玩玩
是用python写的程序。目前遇到的问题是爬虫爬一会儿就会被返回
403 forbidden
这时,我依然可以使用浏览器访问该网页(爬虫处理到的页面)
于是我想到了修改USER-AGENT来伪装浏览器访问的效果
但是依旧是程序403,且浏览器可以访问。
请问,这是怎么回事,有什么办法可以解决吗?谢谢!
关于连接部分的代码是这样:(python3)
import urllib.request
req = urllib.request.Request('http://www.xxx.com')
req.add_header("User-Agent","Mozilla/5.0 (Windows NT 6.1; rv:7.0) Gecko/20100101 Firefox/7.0")
rec = urllib.request.urlopen(req).read().decode('utf8')
然后就会返回403了
谢谢!
Copyright 2014-2026 https://www.php.cn/ All Rights Reserved | php.cn | 湘ICP备2023035733号
跟你的USER-AGENT没什么关系,一般网站都会自动屏蔽一段时间内访问量过大的ip。所以你有两个解决方案
短时间里访问次数过多造成的,设置规则,隔段时间访问
请问 怎么解决 页面资料分页的问题。