python - 最近各电商打得很火啊!我也就学习学习爬虫。遇到些问题,关于User-Agent,关于403
迷茫
迷茫 2017-04-17 11:34:14
[Python讨论组]

恩。我最近在弄个爬虫的程序,主要是弄来玩玩
是用python写的程序。目前遇到的问题是爬虫爬一会儿就会被返回
403 forbidden
这时,我依然可以使用浏览器访问该网页(爬虫处理到的页面)
于是我想到了修改USER-AGENT来伪装浏览器访问的效果
但是依旧是程序403,且浏览器可以访问。
请问,这是怎么回事,有什么办法可以解决吗?谢谢!
关于连接部分的代码是这样:(python3)

import urllib.request
req = urllib.request.Request('http://www.xxx.com')
req.add_header("User-Agent","Mozilla/5.0 (Windows NT 6.1; rv:7.0) Gecko/20100101 Firefox/7.0")
rec = urllib.request.urlopen(req).read().decode('utf8')

然后就会返回403了
谢谢!

迷茫
迷茫

业精于勤,荒于嬉;行成于思,毁于随。

全部回复(3)
PHPz

跟你的USER-AGENT没什么关系,一般网站都会自动屏蔽一段时间内访问量过大的ip。所以你有两个解决方案

  1. 慢点抓,设置一个sleep时间,隔一段时间访问一次
  2. 使用多个服务器抓取,这样可以有多个ip,不过访问速度也不要太快了
PHP中文网

短时间里访问次数过多造成的,设置规则,隔段时间访问

ringa_lee

请问 怎么解决 页面资料分页的问题。

热门教程
更多>
最新下载
更多>
网站特效
网站源码
网站素材
前端模板
关于我们 免责申明 举报中心 意见反馈 讲师合作 广告合作 最新更新
php中文网:公益在线php培训,帮助PHP学习者快速成长!
关注服务号 技术交流群
PHP中文网订阅号
每天精选资源文章推送

Copyright 2014-2026 https://www.php.cn/ All Rights Reserved | php.cn | 湘ICP备2023035733号