欢迎您访问程序员文章站本站旨在为大家提供分享程序员计算机编程知识!
您现在的位置是: 首页

Python爬虫-urllib库

程序员文章站 2022-05-03 20:04:51
...

通过构建一个request请求发送,然后获取回应response,也就是网页代码

import urllib2

request = urllib2.Request("www.baidu.com")

response = urllib2.urlopen(request)

pageCode = response.read().decode('gbk')



数据传送分为两种方式:GET和POST

GET:直接以链接的方式访问,链接中包含了所有参数,如果包含密码的话,是一种不安全的选择,不适合传送大量数据

POST:POST则不会在链接上显示你提交了什么,可以传说大量数据、、


GET:

import urllib
import urllib2
 
values={}
values['username'] = "[email protected]"
values['password']="XXXX"
data = urllib.urlencode(values) 
url = "http://passport.csdn.net/account/login"
geturl = url + "?"+data
request = urllib2.Request(geturl)
response = urllib2.urlopen(request)
print response.read()

POST:

import urllib
import urllib2
 
values = {}
values['username'] = "[email protected]"
values['password'] = "XXXX"
data = urllib.urlencode(values) 
url = "http://passport.csdn.net/account/login?from=http://my.csdn.net/my/mycsdn"
request = urllib2.Request(url,data)
response = urllib2.urlopen(request)
print response.read()

urlopen函数还可以设置超时时间,解决网站反应过慢的问题:

import urllib2
response = urllib2.urlopen('http://www.baidu.com', timeout=10)

是否开启Debug Log

import urllib2
httpHandler = urllib2.HTTPHandler(debuglevel=1)
httpsHandler = urllib2.HTTPSHandler(debuglevel=1)
opener = urllib2.build_opener(httpHandler, httpsHandler)
urllib2.install_opener(opener)
response = urllib2.urlopen('http://www.baidu.com')


有些网站不允许程序直接访问,它会通过一些检测来判断是否进行响应。其中十分基本的就是检验headers,因此我们需要设置headers来完全模拟浏览器。

agent是请求的身份,如果没有不设置的话,服务器不一定会响应。

import urllib2  
 
url = 'http://www.server.com/login'
user_agent = 'Mozilla/4.0 (compatible; MSIE 5.5; Windows NT)'  
values = {'username' : 'cqc',  'password' : 'XXXX' }  
headers = { 'User-Agent' : user_agent }  
data = urllib.urlencode(values)  
request = urllib2.Request(url, data, headers)  
response = urllib2.urlopen(request)  
page = response.read() 

为了对付盗链,很多服务器会识别headers中的refer字段是不是自己,如果不是,那么就不响应,所以我们也需要设置该字段。

headers = { 'User-Agent' : 'Mozilla/4.0 (compatible; MSIE 5.5; Windows NT)'  ,
                        'Referer':'http://www.zhihu.com/articles' }  

有些网站会通过统计访问者的ip,如果某IP短时间内访问太多,则会禁止该ip访问一段时间。这个时候可以使用ip代理,每隔一段时间换一个代理,这样就可以绕过该限制。

enable_proxy = True
proxy_handler = urllib2.ProxyHandler({"http" : 'http://some-proxy.com:8080'})
null_proxy_handler = urllib2.ProxyHandler({})
if enable_proxy:
    opener = urllib2.build_opener(proxy_handler)
else:
    opener = urllib2.build_opener(null_proxy_handler)
urllib2.install_opener(opener)



headers的具体格式:

User-Agent : 有些服务器或 Proxy 会通过该值来判断是否是浏览器发出的请求
Content-Type : 在使用 REST 接口时,服务器会检查该值,用来确定 HTTP Body 中的内容该怎样解析。
application/xml : 在 XML RPC,如 RESTful/SOAP 调用时使用
application/json : 在 JSON RPC 调用时使用
application/x-www-form-urlencoded : 浏览器提交 Web 表单时使用
在使用服务器提供的 RESTful 或 SOAP 服务时, Content-Type 设置错误会导致服务器拒绝服务




相关标签: python