python - scrapy如何使用同一个session来访问几个url
黄舟
黄舟 2017-04-17 17:54:43
[Python讨论组]

需要提交的表单里面有个验证码,我需要先把验证码下下来再转换成文本放上去,然后 post 到一个 URL 里。这里面应该要用同一个 session 才可以完成。 requests 里面用 session 就很方便,想请问下在 scrapy 里怎么使用同一个 session?
这样用meta不行。

def start_requests(self):
    cookie_jar = CookieJar()
    yield scrapy.Request(self.getUrl, meta={'cookiejar': cookie_jar}, callback=self.downloadPic)

def downloadPic(self, response):
    yield scrapy.Request(self.vcodeUrl, meta={'cookiejar': response.meta['cookiejar']}, callback=self.getAndHandlePic

def getAndHandlePic(self, response):
    # handle picture, not the point here
    pic = self.handlePic(response.body)
    yield FormRequest(self.postUrl, formdata={'a':a, 'pic':pic}, meta={'cookiejar': response.meta['cookiejar']}, callback=self.parse)

def parse(self, response):
   # do process source code
黄舟
黄舟

人生最曼妙的风景,竟是内心的淡定与从容!

全部回复(4)
怪我咯

把headers所有东西加进去

高洛峰

是cookie吧,scrapy是默认开启共享cookie的

阿神

cookie可以直接放到header里面,然后后面的请求都会带着同样的cookie

阿神

请问楼主,问题解决了么?可否指点一下?谢谢

热门教程
更多>
最新下载
更多>
网站特效
网站源码
网站素材
前端模板
关于我们 免责申明 意见反馈 讲师合作 广告合作 最新更新 English
php中文网:公益在线php培训,帮助PHP学习者快速成长!
关注服务号 技术交流群
PHP中文网订阅号
每天精选资源文章推送
PHP中文网APP
随时随地碎片化学习

Copyright 2014-2025 https://www.php.cn/ All Rights Reserved | php.cn | 湘ICP备2023035733号