首页 > 代码库 > 第一课:网络爬虫准备
第一课:网络爬虫准备
本课知识路线
Requests框架:自动爬取HTML页面与自动网络请求提交
robots.txt:网络爬虫排除标准
BeautifulSoup框架:解析HTML页面
Re框架:正则框架,提取页面关键信息
Scrapy框架:网络爬虫原理介绍,专业爬虫框架介绍
#抓取百度页面 import requests r = requests.get(‘http://www.baidu.com‘) print(r.status_code) #状态码,抓取成功200 r.encoding = ‘utf-8‘ #把编码改为utf-8 print(r.text) #输出抓取内容
Requests库的七个主要方法
requests.request():构造一个请求,支持以下方法的基础方法
requests.get():获取HTML页面的主要方法,对应HTTP的GET
requests.head():获取HTML页面的头部信息方法,对应HTTP的HEAD
requests.post():向HTML页面提交POST请求方法,对应HTTP的POST
requests.put():向HTML页面提交PUT请求方法,对应HTTP的PUT
requests.patch():向HTML页面提交局部修改请求方法,对应HTTP的PATCH
requests.delete():向HTML页面提交删除请求方法,对应HTTP的DELETE
第一课:网络爬虫准备
声明:以上内容来自用户投稿及互联网公开渠道收集整理发布,本网站不拥有所有权,未作人工编辑处理,也不承担相关法律责任,若内容有误或涉及侵权可进行投诉: 投诉/举报 工作人员会在5个工作日内联系你,一经查实,本站将立刻删除涉嫌侵权内容。