首页 > 代码库 > python 3.4 爬虫,伪装浏览器(403 Forbidden)

python 3.4 爬虫,伪装浏览器(403 Forbidden)

在使用python抓取网页图片的时候,偶尔会遇到403错误。这可能是因为服务器禁止了爬虫。这种情况下如果想继续爬取图片的时候,就需要在请求中加入header信息,伪装成浏览器。

如果你使用的是python3.4版本,那么如果你想在网上找到在请求中加入header的方法,估计要费些周折。经过一番实验,确定下面的代码是可以的。

‘‘‘Created on 2014-9-23@author: holiday‘‘‘import urllib.requestimport osurl = "http://img0.imgtn.bdimg.com/it/u=4054848240,1657436512&fm=21&gp=0.jpg"# headers = [(‘User-Agent‘,‘Mozilla/5.0 (Windows NT 6.1) AppleWebKit/537.11 (KHTML, like Gecko) Chrome/23.0.1271.64 Safari/537.11‘),# (‘Accept‘,‘text/html;q=0.9,*/*;q=0.8‘),# (‘Accept-Charset‘,‘ISO-8859-1,utf-8;q=0.7,*;q=0.3‘),# (‘Accept-Encoding‘,‘gzip‘),# (‘Connection‘,‘close‘),# (‘Referer‘,None )]#注意如果依然不能抓取的话,这里可以设置抓取网站的hostheaders = [(Host,img0.imgtn.bdimg.com),(Connection, keep-alive),(Cache-Control, max-age=0),(Accept, text/html,application/xhtml+xml,application/xml;q=0.9,image/webp,*/*;q=0.8),(User-Agent, Mozilla/5.0 (Windows NT 6.1; WOW64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/36.0.1985.125 Safari/537.36),(Accept-Encoding,gzip,deflate,sdch),(Accept-Language, zh-CN,zh;q=0.8),(If-None-Match, 90101f995236651aa74454922de2ad74),(Referer,http://image.baidu.com/i?tn=baiduimage&ps=1&ct=201326592&lm=-1&cl=2&nc=1&word=%E4%BA%A4%E9%80%9A&ie=utf-8),(If-Modified-Since, Thu, 01 Jan 1970 00:00:00 GMT)]opener = urllib.request.build_opener()opener.addheaders = headersdata = opener.open(url)# print(data)path = "c:/151.jpg"  f = open(path,"wb")  f.write(data.read())  f.close()

值得庆幸的是,这里面还加入了下载的部分。所访问的图片会保存在c盘下的151.jpg。

值得注意的是

(Referer,http://image.baidu.com/i?tn=baiduimage&ps=1&ct=201326592&lm=-1&cl=2&nc=1&word=%E4%BA%A4%E9%80%9A&ie=utf-8),

头中的这行代码告诉了服务器我是从这个页面跳转过去的。(这当然不是真的)然后骗过服务器。

一开始就因为这句话没加一直没有成功。

python 3.4 爬虫,伪装浏览器(403 Forbidden)