网页爬虫 - python抓取图片出现无法连接的错误.
迷茫
迷茫 2017-04-17 15:55:19
[Python讨论组]

我尝试抓取一些网站的照片

f = open(name+'.jpg', 'wb+')
headers = {'User-Agent': 'Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/44.0.2403.157 Safari/537.36',
           'refer': 'http://www.meizitu.com/'}
f.write(requests.get(url, headers=headers).content)
f.close()
print(time.ctime())

传入的url是传入的参数,前面还有一个用BeautifulSoup解析获得url的函数,只是抓取了三到五张的图片TimeoutError: [WinError 10060] 由于连接方在一段时间后没有正确答复或连接的主机没有反应,连接尝试失败。我对网络知识并不了解,google的结果也没有找到很好的解决方案。希望可以找到解决方案

迷茫
迷茫

业精于勤,荒于嬉;行成于思,毁于随。

全部回复(4)
伊谢尔伦

可能是你抓取的网站做了一些频率限制,遇到这种情况可以有几个办法:

  1. 降低抓取频率

  2. 模拟不同的访问请求,比如使用代理IP,变换user-agent,referer,cookie等

伊谢尔伦

可能是抓太快被封了,也可能是Referer没设置对:
refer 应该是Referer

阿神

既然用python写 去网上找那些免费代理,抓到代理地址 挂代理 抓取试下。
用匿名代理

高洛峰

在pc和phone上打开你要爬取的网站试试,有可能是目标网站暂时无法打开导致的,并不是你的代码或者代理设置有问题。

热门教程
更多>
最新下载
更多>
网站特效
网站源码
网站素材
前端模板
关于我们 免责申明 举报中心 意见反馈 讲师合作 广告合作 最新更新 English
php中文网:公益在线php培训,帮助PHP学习者快速成长!
关注服务号 技术交流群
PHP中文网订阅号
每天精选资源文章推送
PHP中文网APP
随时随地碎片化学习

Copyright 2014-2025 https://www.php.cn/ All Rights Reserved | php.cn | 湘ICP备2023035733号