requests - python 如何使用多进程在后台执行网页请求已保证cookies不失效?
ringa_lee
ringa_lee 2017-04-18 09:41:31
[Python讨论组]

用python写爬虫,服务端似乎会定时清理登陆状态,如果爬虫休息了一下就需要重新登陆。
因此,我想后台用 while 每隔10s访问一次。

def keep_alive():
    while 1:
        session.get('https:\\xxx.com')
        # print('alive')
        time.sleep(10)
keep_alive_process = Process(target=keep_alive())
keep_alive_process.start()
ee().cmdloop()

 

不知道是不是使用了cmd模块的原因,虽然没有用join(),但还是阻塞了,程序无法执行下去,请问如何才能在后台执行?

ringa_lee
ringa_lee

ringa_lee

全部回复(1)
怪我咯

这行改一下
keep_alive_process = Process(target=keep_alive)
再试试

热门教程
更多>
最新下载
更多>
网站特效
网站源码
网站素材
前端模板
关于我们 免责申明 意见反馈 讲师合作 广告合作 最新更新 English
php中文网:公益在线php培训,帮助PHP学习者快速成长!
关注服务号 技术交流群
PHP中文网订阅号
每天精选资源文章推送
PHP中文网APP
随时随地碎片化学习

Copyright 2014-2025 https://www.php.cn/ All Rights Reserved | php.cn | 湘ICP备2023035733号