欢迎您访问程序员文章站本站旨在为大家提供分享程序员计算机编程知识!
您现在的位置是: 首页

urllib2.HTTPError: HTTP Error 403: Forbidden

程序员文章站 2022-05-29 22:26:04
...

<span style="font-size:18px;">应用例子:

#coding:utf-8  
import urllib2  

request = urllib2.Request('http://blog.csdn.net/nevasun')  

#在请求加上头信息,伪装成浏览器访问  
request.add_header('User-      Agent','Mozilla/5.0 (Windows; U; Windows NT 6.1; en-US; rv:1.9.1.6) Gecko/20091201 Firefox/3.5.6')  

opener = urllib2.build_opener()  
f= opener.open(request)  
print f.read().decode('utf-8')  
</span>  `

在终端运行提示urllib2.HTTPError: HTTP Error 403: Forbidden,怎么回事呢?
这是由于网站禁止爬虫,可以在请求加上头信息,伪装成浏览器访问。添加和修改:
[python] headers = {'User-Agent':'Mozilla/5.0 (Windows; U; Windows NT 6.1; en-US; rv:1.9.1.6) Gecko/20091201 Firefox/3.5.6'}
req = urllib2.Request("http://blog.csdn.net/nevasun", headers=headers) 再试一下,HTTP Error 403没有了,但是中文全都是乱码。又是怎么回事?

这是由于网站是utf-8编码的,需要转换成本地系统的编码格式:
import sys, urllib2
headers = {'User-Agent':'Mozilla/5.0 (Windows; U; Windows NT 6.1; en-US; rv:1.9.1.6) Gecko/20091201 Firefox/3.5.6'}
req = urllib2.Request("http://blog.csdn.net/nevasun", headers=headers)
content = urllib2.urlopen(req).read()
# UTF-8
type = sys.getfilesystemencoding()

   # local encode format  print content.decode("UTF-8").encode(type)  
  # convert encode format import sys, urllib2

OK,大功告成,可以抓取中文页面了。下一步就是在GAE上做个简单的应用了~