首页 > 代码库 > 爬取微信公众号内容——绘制词云
爬取微信公众号内容——绘制词云
写在前面的话
前段时间写了一篇通过搜狗引擎获取微信公众号的文章,最近又看了一个网易云歌词绘制词云的程序
然后我就想,能否把这两者结合起来呢
还好经历几多波折终于把这个东西给弄出来了。
其实中间的实现不是很难, 关键是环境搭建实在是太困难了
好了,先把代码以及效果图奉献上吧
代码
weixin_spider.py
#!/usr/bin/python # coding: utf-8 #这三行代码是防止在python2上面编码错误的,在python3上面不要要这样设置 import sys reload(sys) sys.setdefaultencoding(‘utf-8‘) from urllib import quote from pyquery import PyQuery as pq from selenium import webdriver import requests import time import re import json import os #搜索入口地址,以公众为关键字搜索该公众号 def get_search_result_by_keywords(sogou_search_url): # 爬虫伪装头部设置 headers = {‘User-Agent‘: ‘Mozilla/5.0 (Windows NT 6.3; WOW64; rv:51.0) Gecko/20100101 Firefox/51.0‘} # 设置操作超时时长 timeout = 5 # 爬虫模拟在一个request.session中完成 s = requests.Session() log(u‘搜索地址为:%s‘ % sogou_search_url) return s.get(sogou_search_url, headers=headers, timeout=timeout).content #获得公众号主页地址 def get_wx_url_by_sougou_search_html(sougou_search_html): doc = pq(sougou_search_html) return doc(‘div[class=txt-box]‘)(‘p[class=tit]‘)(‘a‘).attr(‘href‘) #使用webdriver 加载公众号主页内容,主要是js渲染的部分 def get_selenium_js_html(url): browser = webdriver.PhantomJS(executable_path=r‘D:\Python2.7\Scripts\phantomjs.exe‘) browser.get(url) time.sleep(3) # 执行js得到整个页面内容 html = browser.execute_script("return document.documentElement.outerHTML") browser.close() return html #获取公众号文章内容 def parse_wx_articles_by_html(selenium_html): doc = pq(selenium_html) return doc(‘div[class="weui_media_box appmsg"]‘) #将获取到的文章转换为字典 def switch_arctiles_to_list(articles): #定义存贮变量 articles_list = [] i = 1 #遍历找到的文章,解析里面的内容 if articles: for article in articles.items(): log(u‘开始整合(%d/%d)‘ % (i, len(articles))) #处理单个文章 articles_list.append(parse_one_article(article)) i += 1 return articles_list #解析单篇文章 def parse_one_article( article): article_dict = {} #获取标题 title = article(‘h4[class="weui_media_title"]‘).text().strip() ###log(u‘标题是: %s‘ % title) #获取标题对应的地址 url = ‘http://mp.weixin.qq.com‘ + article(‘h4[class="weui_media_title"]‘).attr(‘hrefs‘) log(u‘地址为: %s‘ % url) #获取概要内容 summary = article(‘.weui_media_desc‘).text() log(u‘文章简述: %s‘ % summary) #获取文章发表时间 date = article(‘.weui_media_extra_info‘).text().strip() log(u‘发表时间为: %s‘ % date) #获取封面图片 pic = parse_cover_pic(article) #返回字典数据 return { ‘title‘: title, ‘url‘: url, ‘summary‘: summary, ‘date‘: date, ‘pic‘: pic } #查找封面图片,获取封面图片地址 def parse_cover_pic( article): pic = article(‘.weui_media_hd‘).attr(‘style‘) p = re.compile(r‘background-image:url\((.*?)\)‘) rs = p.findall(pic) log( u‘封面图片是:%s ‘ % rs[0] if len(rs) > 0 else ‘‘) return rs[0] if len(rs) > 0 else ‘‘ #自定义log函数,主要是加上时间 def log(msg): print u‘%s: %s‘ % (time.strftime(‘%Y-%m-%d_%H-%M-%S‘), msg) #验证函数 def need_verify(selenium_html): ‘ 有时候对方会封锁ip,这里做一下判断,检测html中是否包含id=verify_change的标签,有的话,代表被重定向了,提醒过一阵子重试 ‘ return pq(selenium_html)(‘#verify_change‘).text() != ‘‘ #创建公众号命名的文件夹 def create_dir(keywords): if not os.path.exists(keywords): os.makedirs(keywords) #爬虫主函数 def run(keywords): ‘ 爬虫入口函数 ‘ #Step 0 : 创建公众号命名的文件夹 create_dir(keywords) # 搜狐微信搜索链接入口 sogou_search_url = ‘http://weixin.sogou.com/weixin?type=1&query=%s&ie=utf8&s_from=input&_sug_=n&_sug_type_=‘ % quote(keywords) # Step 1:GET请求到搜狗微信引擎,以微信公众号英文名称作为查询关键字 log(u‘开始获取,微信公众号英文名为:%s‘ % keywords) log(u‘开始调用sougou搜索引擎‘) sougou_search_html = get_search_result_by_keywords(sogou_search_url) # Step 2:从搜索结果页中解析出公众号主页链接 log(u‘获取sougou_search_html成功,开始抓取公众号对应的主页wx_url‘) wx_url = get_wx_url_by_sougou_search_html(sougou_search_html) log(u‘获取wx_url成功,%s‘ % wx_url) # Step 3:Selenium+PhantomJs获取js异步加载渲染后的html log(u‘开始调用selenium渲染html‘) selenium_html = get_selenium_js_html(wx_url) # Step 4: 检测目标网站是否进行了封锁 if need_verify(selenium_html): log(u‘爬虫被目标网站封锁,请稍后再试‘) else: # Step 5: 使用PyQuery,从Step 3获取的html中解析出公众号文章列表的数据 log(u‘调用selenium渲染html完成,开始解析公众号文章‘) articles = parse_wx_articles_by_html(selenium_html) log(u‘抓取到微信文章%d篇‘ % len(articles)) # Step 6: 把微信文章数据封装成字典的list log(u‘开始整合微信文章数据为字典‘) articles_list = switch_arctiles_to_list(articles) return [content[‘title‘] for content in articles_list]
weixin_wordcloud.py
# coding: utf8 from wordcloud import WordCloud import weixin_spider import matplotlib.pyplot as plt import time if __name__ == ‘__main__‘: print u‘‘‘ **************************************************************** ** Welcome to Spider of weixin gongzhonghao for wordcloud ** ** Created on 2017-05-03 ** ** @author: Jimy _Fengqi ** **************************************************************** ‘‘‘ gongzhonghao=raw_input(u‘input weixin gongzhonghao:‘) if not gongzhonghao: gongzhonghao=‘python‘ text = " ".join(weixin_spider.run(gongzhonghao)) print text wordcloud = WordCloud(random_state=1, font_path = r‘C:/Users/Windows/fonts/simkai.ttf‘).generate(text)#处理获取到的title,准备绘制词云 print ‘start drawing.....‘ plt.figure() plt.imshow(wordcloud, interpolation=‘bilinear‘) plt.axis(‘off‘) plt.show()
结果
运行结果以及效果图如下:**************************************************************** ** Welcome to Spider of weixin gongzhonghao for wordcloud ** ** Created on 2017-05-03 ** ** @author: Jimy _Fengqi ** **************************************************************** input weixin gongzhonghao: 2017-05-03_17-12-05: 开始获取,微信公众号英文名为:python 2017-05-03_17-12-05: 开始调用sougou搜索引擎 2017-05-03_17-12-05: 搜索地址为:http://weixin.sogou.com/weixin?type=1&query=python&ie=utf8&s_from=input&_sug_=n&_sug_type_= 2017-05-03_17-12-05: 获取sougou_search_html成功,开始抓取公众号对应的主页wx_url 2017-05-03_17-12-05: 获取wx_url成功,http://mp.weixin.qq.com/profile?src=http://www.mamicode.com/3×tamp=1493802721&ver=1&signature=Eu9LOYSA47p6WE0mojhMtFR-gSr7zsQOYo6*w5VxrUjAAes2nWKzZmHcIVVOotmCKZQHqx1-oJty0W7zXgciDA==>
总结
使用wordcloud 需要安装很多东西目前所知
wordcloud
numpy
scipy
其他缺少资源也可以在下面的地址查找
http://www.lfd.uci.edu/~gohlke/pythonlibs/#numpy
爬取微信公众号内容——绘制词云
声明:以上内容来自用户投稿及互联网公开渠道收集整理发布,本网站不拥有所有权,未作人工编辑处理,也不承担相关法律责任,若内容有误或涉及侵权可进行投诉: 投诉/举报 工作人员会在5个工作日内联系你,一经查实,本站将立刻删除涉嫌侵权内容。