首页 > 代码库 > python 3.4 爬虫,伪装浏览器(403 Forbidden)
python 3.4 爬虫,伪装浏览器(403 Forbidden)
在使用python抓取网页图片的时候,偶尔会遇到403错误。这可能是因为服务器禁止了爬虫。这种情况下如果想继续爬取图片的时候,就需要在请求中加入header信息,伪装成浏览器。
如果你使用的是python3.4版本,那么如果你想在网上找到在请求中加入header的方法,估计要费些周折。经过一番实验,确定下面的代码是可以的。
‘‘‘Created on 2014-9-23@author: holiday‘‘‘import urllib.requestimport osurl = "http://img0.imgtn.bdimg.com/it/u=4054848240,1657436512&fm=21&gp=0.jpg"# headers = [(‘User-Agent‘,‘Mozilla/5.0 (Windows NT 6.1) AppleWebKit/537.11 (KHTML, like Gecko) Chrome/23.0.1271.64 Safari/537.11‘),# (‘Accept‘,‘text/html;q=0.9,*/*;q=0.8‘),# (‘Accept-Charset‘,‘ISO-8859-1,utf-8;q=0.7,*;q=0.3‘),# (‘Accept-Encoding‘,‘gzip‘),# (‘Connection‘,‘close‘),# (‘Referer‘,None )]#注意如果依然不能抓取的话,这里可以设置抓取网站的hostheaders = [(‘Host‘,‘img0.imgtn.bdimg.com‘),(‘Connection‘, ‘keep-alive‘),(‘Cache-Control‘, ‘max-age=0‘),(‘Accept‘, ‘text/html,application/xhtml+xml,application/xml;q=0.9,image/webp,*/*;q=0.8‘),(‘User-Agent‘, ‘Mozilla/5.0 (Windows NT 6.1; WOW64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/36.0.1985.125 Safari/537.36‘),(‘Accept-Encoding‘,‘gzip,deflate,sdch‘),(‘Accept-Language‘, ‘zh-CN,zh;q=0.8‘),(‘If-None-Match‘, ‘90101f995236651aa74454922de2ad74‘),(‘Referer‘,‘http://image.baidu.com/i?tn=baiduimage&ps=1&ct=201326592&lm=-1&cl=2&nc=1&word=%E4%BA%A4%E9%80%9A&ie=utf-8‘),(‘If-Modified-Since‘, ‘Thu, 01 Jan 1970 00:00:00 GMT‘)]opener = urllib.request.build_opener()opener.addheaders = headersdata = opener.open(url)# print(data)path = "c:/151.jpg" f = open(path,"wb") f.write(data.read()) f.close()
值得庆幸的是,这里面还加入了下载的部分。所访问的图片会保存在c盘下的151.jpg。
值得注意的是
(‘Referer‘,‘http://image.baidu.com/i?tn=baiduimage&ps=1&ct=201326592&lm=-1&cl=2&nc=1&word=%E4%BA%A4%E9%80%9A&ie=utf-8‘),
头中的这行代码告诉了服务器我是从这个页面跳转过去的。(这当然不是真的)然后骗过服务器。
一开始就因为这句话没加一直没有成功。
python 3.4 爬虫,伪装浏览器(403 Forbidden)
声明:以上内容来自用户投稿及互联网公开渠道收集整理发布,本网站不拥有所有权,未作人工编辑处理,也不承担相关法律责任,若内容有误或涉及侵权可进行投诉: 投诉/举报 工作人员会在5个工作日内联系你,一经查实,本站将立刻删除涉嫌侵权内容。