python如何下载微信公众号相关文章
- 更新时间:2020-06-04 09:30:39
- 编辑:扶翠茵
本文实例为大家分享了python下载微信公众号相关文章的具体代码,供大家参考,具体内容如下
目的:从零开始学自动化测试公众号中下载“pytest"一系列文档
1、搜索微信号文章关键字搜索
2、对搜索结果前N页进行解析,获取文章标题和对应URL
主要使用的是requests和bs4中的Beautifulsoup
Weixin.py
import requests from urllib.parse import quote from bs4 import BeautifulSoup import re from WeixinSpider.HTML2doc import MyHTMLParser class WeixinSpider(object): def __init__(self, gzh_name, pageno,keyword): self.GZH_Name = gzh_name self.pageno = pageno self.keyword = keyword.lower() self.page_url = [] self.article_list = [] self.headers = { 'User-Agent': 'Mozilla/5.0 (Windows NT 10.0; WOW64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/70.0.3538.110 Safari/537.36'} self.timeout = 5 # [...] 用来表示一组字符,单独列出:[amk] 匹配 'a','m'或'k' # re+ 匹配1个或多个的表达式。 self.pattern = r'[\\/:*?"<>|\r\n]+' def get_page_url(self): for i in range(1,self.pageno+1): # https://weixin.sogou.com/weixin?query=从零开始学自动化测试&_sug_type_=&s_from=input&_sug_=n&type=2&page=2&ie=utf8 url = "https://weixin.sogou.com/weixin?query=%s&_sug_type_=&s_from=input&_sug_=n&type=2&page=%s&ie=utf8" \ % (quote(self.GZH_Name),i) self.page_url.append(url) def get_article_url(self): article = {} for url in self.page_url: response = requests.get(url,headers=self.headers,timeout=self.timeout) result = BeautifulSoup(response.text, 'html.parser') articles = result.select('ul[class="news-list"] > li > div[class="txt-box"] > h3 > a ') for a in articles: # print(a.text) # print(a["href"]) if self.keyword in a.text.lower(): new_text=re.sub(self.pattern,"",a.text) article[new_text] = a["href"] self.article_list.append(article) headers = {'User-Agent': 'Mozilla/5.0 (Windows NT 10.0; WOW64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/70.0.3538.110 Safari/537.36'} timeout = 5 gzh_name = 'pytest文档' My_GZH = WeixinSpider(gzh_name,5,'pytest') My_GZH.get_page_url() # print(My_GZH.page_url) My_GZH.get_article_url() # print(My_GZH.article_list) for article in My_GZH.article_list: for (key,value) in article.items(): url=value html_response = requests.get(url,headers=headers,timeout=timeout) myHTMLParser = MyHTMLParser(key) myHTMLParser.feed(html_response.text) myHTMLParser.doc.save(myHTMLParser.docfile)
HTML2doc.py
from html.parser import HTMLParser import requests from docx import Document import re from docx.shared import RGBColor import docx class MyHTMLParser(HTMLParser): def __init__(self,docname): HTMLParser.__init__(self) self.docname=docname self.docfile = r"D:\pytest\%s.doc"%self.docname self.doc=Document() self.title = False self.code = False self.text='' self.processing =None self.codeprocessing =None self.picindex = 1 self.headers = { 'User-Agent': 'Mozilla/5.0 (Windows NT 10.0; WOW64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/70.0.3538.110 Safari/537.36'} self.timeout = 5 def handle_startendtag(self, tag, attrs): # 图片的处理比较复杂,首先需要找到对应的图片的url,然后下载并写入doc中 if tag == "img": if len(attrs) == 0: pass else: for (variable, value) in attrs: if variable == "data-type": picname = r"D:\pytest\%s%s.%s" % (self.docname, self.picindex, value) # print(picname) if variable == "data-src": picdata = requests.get(value, headers=self.headers, timeout=self.timeout) # print(value) self.picindex = self.picindex + 1 # print(self.picindex) with open(picname, "wb") as pic: pic.write(picdata.content) try: self.doc.add_picture(picname) except docx.image.exceptions.UnexpectedEndOfFileError as e: print(e) def handle_starttag(self, tag, attrs): if re.match(r"h(\d)", tag): self.title = True if tag =="p": self.processing = tag if tag == "code": self.code = True self.codeprocessing = tag def handle_data(self, data): if self.title == True: self.doc.add_heading(data, level=2) # if self.in_div == True and self.tag == "p": if self.processing: self.text = self.text + data if self.code == True: p =self.doc.add_paragraph() run=p.add_run(data) run.font.color.rgb = RGBColor(111,111,111) def handle_endtag(self, tag): self.title = False # self.code = False if tag == self.processing: self.doc.add_paragraph(self.text) self.processing = None self.text='' if tag == self.codeprocessing: self.code =False
运行结果:
缺少部分文档,如pytest文档4,是因为搜狗微信文章搜索结果中就没有
以上就是本文的全部内容,希望对大家的学习有所帮助,也希望大家多多支持码农之家。
相关教程
-
详解怎样通过50行Python代码获取公众号全部文章
这篇文章主要介绍了如何通过50行Python代码获取公众号全部文章,文中通过示例代码介绍的非常详细,对大家的学习或者工作具有一定的参考学习价值,需要的朋友可以参考下
发布时间:2020-01-29
-
python爬取指定微信公众号文章方法
这篇文章主要为大家详细介绍了python爬取指定微信公众号文章,具有一定的参考价值,感兴趣的小伙伴们可以参考一下
发布时间:2019-06-09
-
Python高级编程(第2版)
Python作为一种高-级程序设计语言,本书于Python 3.5版本进行讲解,深度揭示了Python编程的高级技巧,适合想要进一步提高自身Python编程技能的读者阅读,也适合对Python编程感兴趣的读者参考学习
大小:76.8 MBPython编程电子书
-
Python机器学习
Python机器学习中文版(Sebastian Raschka著),一共13章,含机器学习算法、模型评估、集成学习、web应用、神经网络等,想要学习机器语言的可以下载学习
大小:42.1MBPython电子书
-
面向ArcGIS的Python脚本编程
Python作为一种高级程序设计语言,凭借其简洁、易读及可扩展性日渐成为程序设计领域备受推崇的语言。使用Python作为ArcGIS的脚本语言将大大提升ArcGIS数据处理的效率,更好地实现ArcGIS内部的
大小:49.9 MBPython电子书
-
跟老齐学Python:从入门到精通
《跟老齐学Python:从入门到精通》是面向编程零基础读者的Python入门教程,内容涵盖了Python的基础知识和初步应用。以比较轻快的风格,向零基础的学习者介绍一门时下比较流行、并且用途比
大小:7.17 MB学Python电子书
-
Python金融大数据分析
大小:47.8 MBPython电子书
-
Python数据可视化之matplotlib实践
全方位解读应用matplotlib绘图各种各样数据图表的方式,并灵便设定图型 选用很多实例,使用户能够 依据本身要求灵便应用matplotlib中的涵数、面向对象方法和制图句子 这书依靠Matplotlib解读进
大小:96.7 MBPython电子书
-
Python编程:从入门到实践
《Python编程:从入门到实践》是Python3.5编程入门图书(从入门到实践),机器学习,数据处理,网络爬虫热门编程语言,从基本概念到完整项目开发,帮助零基础读者迅速掌握Python编程。
大小:9.85MPython入门电子书
-
你也能看得懂的Python算法书
很杰出:凝聚力4位创作者10年程序编写工作经验,陪你理解优化算法的精粹 很趣味:全书选用栩栩如生幽默的語言,让优化算法已不好学 很实战演练:全书包含36个案例,9类别优化算法,很有
大小:54 KBPython算法电子书
-
Python Linux系统管理与自动化运维
很多工程师学习Python,学完就忘,忘了再学,循环往复,就是因为实践不充分导致的。本书包含了大量的实战案例,可以很好地作为Python的进阶教材,读者也可以举一反三,编写自己的管理程序
大小:170.5 MBPython运维电子书
-
笨办法学python3
大小:6 MBpython3