python爬虫BeautifulSoup简单使用
- 更新时间:2020-03-10 16:01:24
- 编辑:牛烨华
会用到的功能的简单介绍
1、from bs4 import BeautifulSoup
#导入库
2、请求头herders
headers={'User-Agent': 'Mozilla/5.0 (Windows NT 6.3; WOW64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/57.0.2987.110 Safari/537.36','referer':"www.mmjpg.com" } all_url = 'http://www.mmjpg.com/' 'User-Agent':请求方式 'referer':从哪个链接跳转进来的
3、建立连接
start_html = requests.get(all_url, headers=headers) all_url:起始的地址,也就是访问的第一个页面 headers:请求头,告诉服务器是谁来了。 requests.get:一个方法能获取all_url的页面内容并且返回内容。
4、解析获取的页面
Soup = BeautifulSoup(start_html.text, 'lxml') BeautifulSoup:解析页面 lxml:解析器 start_html.text:页面的内容
5、处理获取的页面
all_a = Soup.find('div', class_='pic').find_all('a')[-2] Soup.find()查找某一个 find_all()查找所有的,返回一个列表 .find('img')['src'] :获取img的src链接属性 class__:获取目标的类名 div/a:类型条件为div/a的 [-2]可以用来去掉最后多匹配的标签,这里表示去掉最后两个a标签
6、获取目标内容
<a href =# >内容</a> a[i]/get_text():获取第i个a标签里面的内容
7、可能用到的其他功能介绍:
1、文件夹创建与切换
os.makedirs(os.path.join("E:\name", filename)) #在目录E:\name下创建名为filename的文件夹 os.chdir("E:\name\\" + filename) #切换工作路径到E:\name\filename下
2、文件保存
f = open(name+'.jpg', 'ab')##写入多媒体文件必须要 b 这个参数! f.write(img.content) ##多媒体文件要是用conctent! f.close()
案例:爬取妹纸图
import requests from bs4 import BeautifulSoup import os #导入所需要的模块 class mzitu(): def all_url(self, url): html = self.request(url)## all_a = BeautifulSoup(html.text, 'lxml').find('div', class_='all').find_all('a') for a in all_a: title = a.get_text() print('------开始保存:', title) path = str(title).replace("?", '_') ##替换掉带有的? self.mkdir(path) ##调用mkdir函数创建文件夹!这儿path代表的是标题title href = a['href'] self.html(href) def html(self, href): ##获得图片的页面地址 html = self.request(href) max_span = BeautifulSoup(html.text, 'lxml').find('div', class_='pagenavi').find_all('span')[-2].get_text() #这个上面有提到 for page in range(1, int(max_span) + 1): page_url = href + '/' + str(page) self.img(page_url) ##调用img函数 def img(self, page_url): ##处理图片页面地址获得图片的实际地址 img_html = self.request(page_url) img_url = BeautifulSoup(img_html.text, 'lxml').find('div', class_='main-image').find('img')['src'] self.save(img_url) def save(self, img_url): ##保存图片 name = img_url[-9:-4] img = self.request(img_url) f = open(name + '.jpg', 'ab') f.write(img.content) f.close() def mkdir(self, path): ##创建文件夹 path = path.strip() isExists = os.path.exists(os.path.join("E:\mzitu2", path)) if not isExists: print('建了一个名字叫做', path, '的文件夹!') os.makedirs(os.path.join("E:\mzitu2", path)) os.chdir(os.path.join("E:\mzitu2", path)) ##切换到目录 return True else: print( path, '文件夹已经存在了!') return False def request(self, url): ##这个函数获取网页的response 然后返回 headers = { 'User-Agent': 'Mozilla/5.0 (Windows NT 6.3; WOW64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/57.0.2987.110 Safari/537.36', 'referer':#伪造一个访问来源 "http://www.mzitu.com/100260/2" } content = requests.get(url, headers=headers) return content #设置启动函数 def main(): Mzitu = mzitu() ##实例化 Mzitu.all_url('http://www.mzitu.com/all') ##给函数all_url传入参数 main()
相关教程
-
Python爬取APP下载链接的实现方法
这篇文章主要实现的是批量下载安卓APP。显然用手点是不科学的。于是尝试用Python写了一个半自动化的脚本。所谓半自动化,就是把下载链接批量抓取下来,然后一起贴到迅雷里进行下载,这样
发布时间:2019-08-26
-
python能做软件开发吗
可以。使用Python开发过软件的都会相信,Python的确有能力开发高性能的企业软件,而且Python也可以轻松适应不断变化的业务需求(这不是故意提高Python地位)。目前Python的优势越来越被大企业认
发布时间:2019-07-10
-
《编程的乐趣:用Python解算法谜题》配套源码
非常少有入门程序编写的人想要以便程序编写而程序编写,这书自主创新地根据求出趣味的迷题来专家教授用户程序编写,为枯燥乏味的编程学习全过程引入了较强的挑战性,迷题是来源于真
大小:67 KBPython算法配套资源
-
精通Python网络爬虫:核心技术、框架与项目实战
大小:13267 MB MPython爬虫
-
Python科学计算
本书详细介绍Python科学计算中最常用的扩展库NumPy、SciPy、matplotlib、Pandas、SymPy、TTK、Mayavi、OpenCV、Cython,涉及数值计算、界面制作、三维可视化、图像处理、提高运算效率等多方面的内容。所
大小:59.5 MBPython电子书
-
Python金融大数据分析
大小:47.8 MBPython电子书
-
人人都懂设计模式:从生活中领悟设计模式(Python实现)
Python时期大话设计模式,定义通俗化保持简易程序流程强大接近实战演练,从經典设计模式到衍化的各种各样程序编写体制再到工作经验,程序员侧睡及BAT众权威专家力荐,程序猿牢固的基础
大小:31.6 MBPython设计模式
-
Python机器学习
Python机器学习中文版(Sebastian Raschka著),一共13章,含机器学习算法、模型评估、集成学习、web应用、神经网络等,想要学习机器语言的可以下载学习
大小:42.1MBPython电子书
-
Python程序设计基础
本书共13章:第1章详细介绍Python基础知识与定义,Python开发工具配备与应用,拓展库安裝与应用;第2章解读Python运算符与关系式及其内嵌涵数的使用方法;第3章解读目录、元组、词典、结合等
大小:39.7 MBPython编程电子书