• 售前

  • 售后

热门帖子
入门百科

python爬虫用request库处理cookie的实例解说

[复制链接]
贺长云 显示全部楼层 发表于 2021-10-25 20:13:22 |阅读模式 打印 上一主题 下一主题
python爬虫中使用urli库可以使用opener"发送多个哀求,这些哀求是能共享处置处罚cookie的,小编之前也提过python爬虫中使用request库会比urllib库更加⽅便,使用使用requests也能达到共享cookie的目标,纵然用request库get方法和使用requests库提供的session对象都可以处置处罚。
方法一:使用request库get方法
  1. resp = requests.get('http://www.baidu.com/')
  2. print(resp.cookies)
  3. print(resp.cookies.get_dict())
复制代码
方法二:使用requests库提供的 session对象
  1. import requests
  2. url = "http://www.renren.com/PLogin.do"
  3. data = {"email":"970138074@qq.com",'password':"pythonspider"}
  4. headers = { 'User-Agent': "Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36
  5. (KHTML, like Gecko) Chrome/62.0.3202.94 Safari/537.36" }
  6. #登录
  7. session = requests.session() session.post(url,data=data,headers=headers)
  8. #访问
  9. resp = session.get('http://www.renren.com/256450404/profile')
  10. print(resp.text) ```
复制代码
知识点扩展:
我们知道了requests中的session对象可以或许在哀求之间保持cookie,它极大地方便了我们去使用cookie。当我们想设置方法级别中的哀求时,可以如下面示例一样操纵。
  1. import requests
  2. s = requests.session()
  3. # 第一步:发送一个请求,用于设置请求中的cookies
  4. cookies = dict(cookies_are='cookie1')
  5. # tips: http://httpbin.org能够用于测试http请求和响应
  6. r1 = s.get(url='http://httpbin.org/cookies', cookies=cookies)
  7. print(r1.text)
  8. # 第二步:发送一个请求,用于再次设置请求中的cookies
  9. cookies = dict(cookies_are='cookie2')
  10. r2 = s.get(url='http://httpbin.org/cookies', cookies=cookies)
  11. print(r2.text)
复制代码
运行后
  1. # r1.text
  2. {
  3. "cookies": {
  4. "cookies_are": "cookie1"
  5. }
  6. }
  7. # t2.text
  8. {
  9. "cookies": {
  10. "cookies_are": "cookie2"
  11. }
  12. }
复制代码
到此这篇关于python爬虫用request库处置处罚cookie的实例讲解的文章就先容到这了,更多相关python爬虫怎样使用request库处置处罚cookie内容请搜刮脚本之家从前的文章或继承浏览下面的相关文章盼望各人以后多多支持脚本之家!

帖子地址: 

回复

使用道具 举报

分享
推广
火星云矿 | 预约S19Pro,享500抵1000!
您需要登录后才可以回帖 登录 | 立即注册

本版积分规则

草根技术分享(草根吧)是全球知名中文IT技术交流平台,创建于2021年,包含原创博客、精品问答、职业培训、技术社区、资源下载等产品服务,提供原创、优质、完整内容的专业IT技术开发社区。
  • 官方手机版

  • 微信公众号

  • 商务合作