Python爬虫-urllib库
通过构建一个request请求发送,然后获取回应response,也就是网页代码
import urllib2
request = urllib2.Request("www.baidu.com")
response = urllib2.urlopen(request)
pageCode = response.read().decode('gbk')
数据传送分为两种方式:GET和POST
GET:直接以链接的方式访问,链接中包含了所有参数,如果包含密码的话,是一种不安全的选择,不适合传送大量数据
POST:POST则不会在链接上显示你提交了什么,可以传说大量数据、、
GET:
import urllib
import urllib2
values={}
values['username'] = "[email protected]"
values['password']="XXXX"
data = urllib.urlencode(values)
url = "http://passport.csdn.net/account/login"
geturl = url + "?"+data
request = urllib2.Request(geturl)
response = urllib2.urlopen(request)
print response.read()
POST:
import urllib
import urllib2
values = {}
values['username'] = "[email protected]"
values['password'] = "XXXX"
data = urllib.urlencode(values)
url = "http://passport.csdn.net/account/login?from=http://my.csdn.net/my/mycsdn"
request = urllib2.Request(url,data)
response = urllib2.urlopen(request)
print response.read()
urlopen函数还可以设置超时时间,解决网站反应过慢的问题:
import urllib2
response = urllib2.urlopen('http://www.baidu.com', timeout=10)
是否开启Debug Log
import urllib2
httpHandler = urllib2.HTTPHandler(debuglevel=1)
httpsHandler = urllib2.HTTPSHandler(debuglevel=1)
opener = urllib2.build_opener(httpHandler, httpsHandler)
urllib2.install_opener(opener)
response = urllib2.urlopen('http://www.baidu.com')
有些网站不允许程序直接访问,它会通过一些检测来判断是否进行响应。其中十分基本的就是检验headers,因此我们需要设置headers来完全模拟浏览器。
agent是请求的身份,如果没有不设置的话,服务器不一定会响应。
import urllib2
url = 'http://www.server.com/login'
user_agent = 'Mozilla/4.0 (compatible; MSIE 5.5; Windows NT)'
values = {'username' : 'cqc', 'password' : 'XXXX' }
headers = { 'User-Agent' : user_agent }
data = urllib.urlencode(values)
request = urllib2.Request(url, data, headers)
response = urllib2.urlopen(request)
page = response.read()
为了对付盗链,很多服务器会识别headers中的refer字段是不是自己,如果不是,那么就不响应,所以我们也需要设置该字段。
headers = { 'User-Agent' : 'Mozilla/4.0 (compatible; MSIE 5.5; Windows NT)' ,
'Referer':'http://www.zhihu.com/articles' }
有些网站会通过统计访问者的ip,如果某IP短时间内访问太多,则会禁止该ip访问一段时间。这个时候可以使用ip代理,每隔一段时间换一个代理,这样就可以绕过该限制。
enable_proxy = True
proxy_handler = urllib2.ProxyHandler({"http" : 'http://some-proxy.com:8080'})
null_proxy_handler = urllib2.ProxyHandler({})
if enable_proxy:
opener = urllib2.build_opener(proxy_handler)
else:
opener = urllib2.build_opener(null_proxy_handler)
urllib2.install_opener(opener)
headers的具体格式:
User-Agent : 有些服务器或 Proxy 会通过该值来判断是否是浏览器发出的请求
Content-Type : 在使用 REST 接口时,服务器会检查该值,用来确定 HTTP Body 中的内容该怎样解析。
application/xml : 在 XML RPC,如 RESTful/SOAP 调用时使用
application/json : 在 JSON RPC 调用时使用
application/x-www-form-urlencoded : 浏览器提交 Web 表单时使用
在使用服务器提供的 RESTful 或 SOAP 服务时, Content-Type 设置错误会导致服务器拒绝服务
上一篇: 【python】urllib库(爬虫)
下一篇: 【爬虫】 02 将爬取到的网页写入文件中