python反爬之用户代理
程序员文章站
2022-10-04 17:38:56
# requests是第三方库,需要安装 pip install requests import requests import random # 通常很多网站都会设置检测请求头中的User-Agent,所以在编写爬虫代码时一般都会加上user-agent url = 'http://www.zhi... ......
# requests是第三方库,需要安装 pip install requests
import requests
import random
# 通常很多网站都会设置检测请求头中的user-agent,所以在编写爬虫代码时一般都会加上user-agent
url = 'http://www.zhihu.com'
# 如果同一个user-agent请求次数过多,可能也可能被检测出来,所以我们可以写一个列表,里面存放很多的user-agent,每次请求在列表中随机抽取一个
user_list = ["mozilla/5.0 (windows; u; windows nt 5.1; en-us) applewebkit/534.7 (khtml, like gecko) chrome/7.0.514.0 safari/534.7",
"mozilla/5.0 (windows; u; windows nt 6.0; en-us) applewebkit/534.14 (khtml, like gecko) chrome/9.0.601.0 safari/534.14",
"mozilla/5.0 (windows; u; windows nt 6.1; en-us) applewebkit/534.14 (khtml, like gecko) chrome/10.0.601.0 safari/534.14",
"mozilla/5.0 (windows; u; windows nt 6.1; en-us) applewebkit/534.20 (khtml, like gecko) chrome/11.0.672.2 safari/534.20",
"mozilla/5.0 (windows nt 6.1; wow64) applewebkit/534.27 (khtml, like gecko) chrome/12.0.712.0 safari/534.27",
"mozilla/5.0 (windows nt 6.1; wow64) applewebkit/535.1 (khtml, like gecko) chrome/13.0.782.24 safari/535.1",
"mozilla/5.0 (windows nt 6.0) applewebkit/535.2 (khtml, like gecko) chrome/15.0.874.120 safari/535.2",
"mozilla/5.0 (windows nt 6.1; wow64) applewebkit/535.7 (khtml, like gecko) chrome/16.0.912.36 safari/535.7",
"mozilla/5.0 (windows; u; windows nt 6.0 x64; en-us; rv:1.9pre) gecko/2008072421 minefield/3.0.2pre",
"mozilla/5.0 (windows; u; windows nt 5.1; en-us; rv:1.9.0.10) gecko/2009042316 firefox/3.0.10",
"mozilla/5.0 (windows; u; windows nt 6.0; en-gb; rv:1.9.0.11) gecko/2009060215 firefox/3.0.11 (.net clr 3.5.30729)",
"mozilla/5.0 (windows; u; windows nt 6.0; en-us; rv:1.9.1.6) gecko/20091201 firefox/3.5.6 gtb5",
"mozilla/5.0 (windows; u; windows nt 5.1; tr; rv:1.9.2.8) gecko/20100722 firefox/3.6.8 ( .net clr 3.5.30729; .net4.0e)",
"mozilla/5.0 (windows nt 6.1; rv:2.0.1) gecko/20100101 firefox/4.0.1"]
headers = {
'user-agent':random.choice(user_list)
}
# 可以打印查看每次选出了哪一个user-agent
print(headers)
r = requests.get(url=url,headers=headers)
# 也可以试一下,如果不加headers会不会返回正确的状态码
print(r.status_code)
'''
常见的状态码及含义:
200 ok 一切正常
301 moved permanently 重定向到新的url,永久性
302 found 重定向到临时的url,非永久性
304 not modified 请求的资源未更新
400 bad request 非法请求
401 unauthorized 请求未经授权
403 forbidden 禁止访问
404 not found 没有找到对应页面
500 internal server error 服务器内部出现错误
501 not implemented 服务器不支持实现请求所需要的功能
'''
上一篇: 浅谈pc和移动端的响应式