python爬虫中使用urli库可以使用opener\”发送多个请求,这些请求是能共享处理cookie的,小编之前也提过python爬虫中使用request库会比urllib库更加⽅便,使用使用requests也能达到共享cookie的目的,即使用request库get方法和使用requests库提供的session对象都可以处理。
方法一:使用request库get方法
resp = requests.get(\'http://www.baidu.com/\') print(resp.cookies) print(resp.cookies.get_dict())
方法二:使用requests库提供的 session对象
import requests url = \"http://www.renren.com/PLogin.do\" data = {\"email\":\"970138074@qq.com\",\'password\':\"pythonspider\"} headers = { \'User-Agent\': \"Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/62.0.3202.94 Safari/537.36\" } #登录 session = requests.session() session.post(url,data=data,headers=headers) #访问 resp = session.get(\'http://www.renren.com/256450404/profile\') print(resp.text) ```
知识点扩展:
我们知道了requests中的session对象能够在请求之间保持cookie,它极大地方便了我们去使用cookie。当我们想设置方法级别中的请求时,可以如下面示例一样操作。
import requests s = requests.session() # 第一步:发送一个请求,用于设置请求中的cookies cookies = dict(cookies_are=\'cookie1\') # tips: http://httpbin.org能够用于测试http请求和响应 r1 = s.get(url=\'http://httpbin.org/cookies\', cookies=cookies) print(r1.text) # 第二步:发送一个请求,用于再次设置请求中的cookies cookies = dict(cookies_are=\'cookie2\') r2 = s.get(url=\'http://httpbin.org/cookies\', cookies=cookies) print(r2.text)
运行后
# r1.text { \"cookies\": { \"cookies_are\": \"cookie1\" } } # t2.text { \"cookies\": { \"cookies_are\": \"cookie2\" } }
© 版权声明
THE END
暂无评论内容