欢迎您访问程序员文章站本站旨在为大家提供分享程序员计算机编程知识!
您现在的位置是: 首页

爬虫利器:Requests库使用

程序员文章站 2022-04-26 10:29:29
...

Requests:让HTTP服务人类。

本文中的有些内容来自官方网站,也有一部分是我的理解,算是个笔记版本吧。

1、requests是什么

写了一些爬虫,从urllib库转到requests库,到目前为止,个人感觉requests库是最简单易用的HTTP库,以下这段话来自requests官网:

Requests 唯一的一个非转基因的 Python HTTP 库,人类可以安全享用。

警告:非专业使用其他 HTTP 库会导致危险的副作用,包括:安全缺陷症、冗余代码症、重新发明*症、啃文档症、抑郁、头疼、甚至死亡。

字里行间透露着requests库的自信,它确实做到了。

以下为Requests库的功能特性,完全满足今日web的需求:

  • Keep-Alive & 连接池
  • 国际化域名和 URL
  • 带持久 Cookie 的会话
  • 浏览器式的 SSL 认证
  • 自动内容解码
  • 基本/摘要式的身份认证
  • 优雅的 key/value Cookie
  • 自动解压
  • Unicode 响应体
  • HTTP(S) 代理支持
  • 文件分块上传
  • 流下载
  • 连接超时
  • 分块请求
  • 支持 .netrc

2、安装及更新

2.1 安装

最简单的安装方式是pip安装,只需执行以下一条指令:


pip install requests

也可以通过git使用源码安装,需要执行以下两条指令:

git clone git://github.com/kennethreitz/requests.git
python setup.py install

2.2 更新

使用pip进行更新:

pip install --upgrade requests

3、使用

3.1 发送请求

我们以http://httpbin.org/网站作为测试目标,该网站专门为HTTP客户端提高测试服务。

使用该库要在文件开始部分导入Requests模块:

import requests

HTTP的请求类型有POST,GET,PUT,DELETE,HEAD 以及 OPTIONS,其中POST和GET是最常使用的,用requests实现这几种请求代码如下:

r = requests.get('https://httpbin.org/get')
r = requests.put("http://httpbin.org/put")
r = requests.delete("http://httpbin.org/delete")
r = requests.head("http://httpbin.org/get")
r = requests.options("http://httpbin.org/get")

我们得到了一个名为rResponse对象,我们可以从这个对象中获取想要的信息,例如状态码(r.status_code)、文本内容(r.text)等。

3.2 传递URL参数

经常可以看到一些网址中有一个?, 后面还跟着几个参数,这种URL其实传递了某种数据,例如http://httpbin.org/get?key=val。Requests允许使用params 关键字参数,以一个字符串字典来提供这些参数。如果想传递key1=val1key2=val2httpbin.org/get,那么可以使用如下代码:

payload = {'key1': 'val1', 'key2': 'val2', 'key3': None}
r = requests.get("http://httpbin.org/get", params=payload)
print(r.url)

执行结果为:http://httpbin.org/get?key1=val1&key2=val2

注:字典中值为None的键不会被添加到URL的查询字符串中。

还可以将一个列表作为值传入:

payload = {'key1': 'val1', 'key2': ['val2', 'val3']}
r = requests.get("http://httpbin.org/get", params=payload)
print(r.url)

执行结果为:http://httpbin.org/get?key1=val1&key2=val2&key2=val3

3.3 响应内容

3.3.1 文本响应内容

在3.1中已经提到Response对象包含很多信息,其中r.text为服务器响应内容:

r = requests.get("http://httpbin.org/get")
print(r.text)

执行结果为:

{
  "args": {}, 
  "headers": {
    "Accept": "*/*", 
    "Accept-Encoding": "gzip, deflate", 
    "Connection": "close", 
    "Host": "httpbin.org", 
    "User-Agent": "python-requests/2.18.4"
  }, 
  "origin": "114.244.178.208", 
  "url": "http://httpbin.org/get"
}

Requests可以自动对大多数unicode字符集无缝解码。

请求发出后,Requests会基于HTTP头部对响应的编码做出有根据的推测。我们可以通过r.encoding得到编码,也可以使用r.encoding属性改变编码。

3.3.2 二进制响应内容

上面r.text获得的是响应内容的文本,我们也可以以字节的方式访问请求响应体,对于非文本请求r.content,Requests会自动解码gzipdeflate传输编码的响应内容。

3.3.3 JSON响应内容

Requests内置一个JSON解码器,使用方法如下:

r = requests.get("http://httpbin.org/get")
print(r.json())

如果JSON解码失败,r.json()会抛出一个异常。需要注意的是,成功调用r.json()并不意味着响应成功,因为某些服务器会在失败的响应中包含一个JSON对象,这种JSON会被解码返回。如果要判断请求是否成功,我们可以使用r.raise_for_status()或者检查r.status_code是否和预期相同。

3.3.4 原始响应内容

有时候我们可能需要获取服务器的原始套接字响应,那么我们应该使用r.raw,使用时要确保在初始请求中设置了stream=True

r = requests.get("http://httpbin.org/get", stream=True)
print(r.raw)
print(r.raw.read(10))

执行结果如下:

<urllib3.response.HTTPResponse object at 0x0000021D55814320>
b'{\n  "args"'

4、定制请求头

请求某些服务器时需要加上请求头,Requests的请求接口有一个名为headers的参数,只需传给它一个字典即可:

headers = {'user-agent': 'my-app/0.0.1'}
r = requests.get("http://httpbin.org/get", headers=headers)

注意: 定制 header 的优先级低于某些特定的信息源,例如:

  • 如果在 .netrc 中设置了用户认证信息,使用 headers= 设置的授权就不会生效。而如果设置了 auth= 参数,.netrc 的设置就无效了。
  • 如果被重定向到别的主机,授权 header 就会被删除。
  • 代理授权 header 会被 URL 中提供的代理身份覆盖掉。
  • 在我们能判断内容长度的情况下,header 的 Content-Length 会被改写。

更进一步讲,Requests 不会基于定制 header 的具体情况改变自己的行为。只不过在最后的请求中,所有的 header 信息都会被传递进去。

注意: 所有的 header 值必须是 string、bytestring 或者 unicode。尽管传递 unicode header 也是允许的,但不建议这样做。

5、响应状态码

我们可以响应状态码得知此次请求的结果,一般200为请求成功, Requests还附带了一个内置的状态码查询对象requests.codes

r = requests.get('http://httpbin.org/get')
print(r.status_code)
print(r.status_code == requests.codes.ok)

执行结果为:

200
True

如果发送了一个错误请求(一个 4XX 客户端错误,或者 5XX 服务器错误响应),我们可以通过 Response.raise_for_status()来抛出异常:

r = requests.get('http://httpbin.org/status/404')
print(r.status_code)
r.raise_for_status()

执行结果为:

404
---------------------------------------------------------------------------
HTTPError                                 Traceback (most recent call last)
<ipython-input-19-351ffd673854> in <module>()
      1 r = requests.get('http://httpbin.org/status/404')
      2 print(r.status_code)
----> 3 r.raise_for_status()

E:\Anaconda3\lib\site-packages\requests\models.py in raise_for_status(self)
    933 
    934         if http_error_msg:
--> 935             raise HTTPError(http_error_msg, response=self)
    936 
    937     def close(self):

HTTPError: 404 Client Error: NOT FOUND for url: http://httpbin.org/status/404

6、响应头

不只请求会有请求头,响应也有响应头:

r = requests.get('http://httpbin.org/get')
print(r.headers)
print(r.headers['Connection'])
print(r.headers['connection'])
print(r.headers['conNecTion'])

执行结果:

{
    "Connection": "keep-alive", 
    "Server": "meinheld/0.6.1", 
    "Date": "Thu, 25 Jan 2018 13:47:59 GMT", 
    "Content-Type": "application/json", 
    "Access-Control-Allow-Origin": "*", 
    "Access-Control-Allow-Credentials": "true", 
    "X-Powered-By": "Flask", 
    "X-Processed-Time": "0.00102591514587", 
    "Content-Length": "268", 
    "Via": "1.1 vegur"
}
keep-alive
keep-alive
keep-alive

可以看出该服务器响应头为Python字典形式,但是这个字典比较特殊:它是仅为HTTP头部而生的,是大小写不敏感的。我们可以以任意大小写形式来访问响应头字段,由上面的例子也可以看出。

7、超时

requests在发送请求时可以附带一个timeout参数,如果服务器在timeout秒内没有应答,将会引发一个异常,更精确地说,是在timeout秒内没有从基础套接字上接收到任何字节的数据时。如果我们不使用这个参数,我们的程序可能会永远失去响应。

r = requests.get('http://httpbin.org/get', timeout=0.01)

这样就可以得到一个超时异常:

timeout  Traceback (most recent call last)
ConnectTimeout: HTTPConnectionPool(host='httpbin.org', port=80): Max retries exceeded with url: /get (Caused by ConnectTimeoutError(<urllib3.connection.HTTPConnection object at 0x000002BADB2A40F0>, 'Connection to httpbin.org timed out. (connect timeout=0.01)'))

8、错误与异常

遇到网络问题(如:DNS 查询失败、拒绝连接等)时,Requests 会抛出一个ConnectionError 异常。

如果 HTTP 请求返回了不成功的状态码, Response.raise_for_status() 会抛出一个 HTTPError 异常。

若请求超时,则抛出一个 Timeout 异常。

若请求超过了设定的最大重定向次数,则会抛出一个 TooManyRedirects 异常。

所有Requests显式抛出的异常都继承自 requests.exceptions.RequestException

9、 代理

某些网站对同一IP的访问频率和次数做了限制,如果想要突破这些限制,频繁替换代理是一种最简单的解决办法。Requests库也为我们提供了代理的使用,只要在发送请求时指定proxies参数即可:

proxies = {
  "http": "http://10.111.1.14:1212",
  "https": "http://10.110.1.10:1213",
}

r = requests.get("http://httpbin.org/get", proxies=proxies)

如果使用的代理需要使用HTTP Basic Auth,可以使用http://user:aaa@qq.com/语法:

proxies = {
    "http": "http://user:aaa@qq.com:3128/",
}

如果要为某个特定主机设置代理,使用scheme://hostname作为key,它会为指定的主机进行匹配代理:

proxies = {'http://10.20.1.128': 'http://10.10.1.10:5323'}

至此,Requests库的常用功能介绍完毕,如果想要进阶功能的使用教程,请移步官方网站:

Requests高级用法


爬虫利器:Requests库使用