爬虫 第二讲 urllib模块和requests模块

2021/4/20 10:28:29

本文主要是介绍爬虫 第二讲 urllib模块和requests模块,对大家解决编程问题具有一定的参考价值,需要的程序猿们随着小编来一起学习吧!

一、urllib模块

在这里插入图片描述

1.什么是urllib模块?

python内置的网络请求模块

2.urllib.request模块

python2 :urllib2、urllib
python3 :把urllib和urllib2合并

3.常用的方法

  • urllib.request.urlopen(“网址”) 作用 :向网站发起一个请求并获取响应
  • 字节流 = response.read()
  • 字符串 = response.read().decode(“utf-8”)
  • urllib.request.Request(“网址”,headers=“字典”)
  • urlopen()不支持重构User-Agent

4.响应对象

  • read() 读取服务器响应的内容
  • getcode() 返回HTTP的响应码
  • geturl() 返回实际数据的URL(防止重定向问题)
    urllib.parse模块

5.常用方法

  • urlencode(字典)
  • quote(字符串) (这个里面的参数是个字符串)

6.请求方式

  • GET 特点 :查询参数在URL地址中显示
  • POST
  • 在Request方法中添加data参数 urllib.request.Request(url,data=data,headers=headers)
  • data :表单数据以bytes类型提交,不能是str

二、requests模块

1.安装

  • pip install requests
  • 在开发工具中安装

2.request常用方法

  • requests.get(网址)

3.响应对象response的方法

  • response.text 返回unicode格式的数据(str)
  • response.content 返回字节流数据(二进制)
  • response.content.decode(‘utf-8’) 手动进行解码
  • response.url 返回url
  • response.encode() = ‘编码’

4.requests模块发送 POST请求

cookie

cookie :通过在客户端记录的信息确定用户身份
HTTP是一种无连接协议,客户端和服务器交互仅仅限于 请求/响应过程,结束后断开,下一次请求时,服务器会认为是一个新的客户端,为了维护他们之间的连接,让服务器知道这是前一个用户发起的请求,必须在一个地方保存客户端信息。

session

session :通过在服务端记录的信息确定用户身份 这里这个session就是一个指的是会话

5.处理不信任的SSL证书

什么是SSL证书?

  • SSL证书是数字证书的一种,类似于驾驶证、护照和营业执照的电子副本。因为配置在服务器上,也称为SSL服务器证书。SSL 证书就是遵守 SSL协议,由受信任的数字证书颁发机构CA,在验证服务器身份后颁发,具有服务器身份验证和数据传输加密功能

测试网站 https://inv-veri.chinatax.gov.cn/

6.requests 模块源码分析



这篇关于爬虫 第二讲 urllib模块和requests模块的文章就介绍到这儿,希望我们推荐的文章对大家有所帮助,也希望大家多多支持为之网!


扫一扫关注最新编程教程