当前位置:当前位置:主页 > 计算机电子书 > Python > Python pdf电子书
Python程序开发(中级)

Python程序开发(中级) PDF 超清版

  • 更新:2022-03-30
  • 大小:89.7 MB
  • 类别:Python
  • 作者:中慧云启科技集团有限公司
  • 出版:人民邮电出版社
  • 格式:PDF

  • 资源介绍
  • 学习心得
  • 相关内容

Python程序开发(中级)》是由人民邮电出版社出版的一本关于Python方面的书籍,作者是中慧云启科技集团有限公司,主要介绍了关于Python、程序开发方面的知识内容,目前在Python类书籍综合评分为:7.9分。

书籍介绍

python考试自学入门基础教程,py程序开发与设计爬虫入门实战,1+X建议用书,案例丰富,附赠PPT、源代码、习题与答案等资源

编辑推荐

1.1X证书制度试点培训用书;

目前软件技术专业开始python程序设计基础这一门课程,此外人工智能、大数据分析其他专业也都需要本门课程的基础知识体系做支撑,且本书直接对应证书初级的python程序设计专业知识考察点。

2.丰富的案例和技术支持;
教材配套丰富的实操案例,简单易上手,切合企业开发实际技术要求。

3.附赠PPT、源代码、习题与答案等资源

内容简介

面向职业院校和应用型、职教本科院校开展1X证书制度试点工作是落实《国家职业教育改革实施方案》的重要内容之一。为了便于X证书标准融入院校学历教育,中慧云启科技集团有限公司组织编写了《Python程序开发(中级)》。

本书以《Python程序开发职业技能等级标准》为编写依据,内容包括数据库存储、PythonWeb开发、网络爬虫3个部分,涵盖了关系型数据库MySQL、非关系型数据库、Django框架、模拟用户操作、Scrapy爬虫框架、分布式爬虫、反爬虫等内容。本书以模块化的结构组织各章节,以任务驱动的方式安排教材内容,以培养院校学生能力为目的,充分体现了“做中学,学中做”的思想。

本书可用于1X证书制度试点工作中的Python程序开发职业技能的教学和培训,也可以作为期望从事Python程序开发职业的应届毕业生和社会在职人员的参考用书。

作者简介

中慧云启科技集团有限公司是一家专业从事中高职业院校软件实训教学综合解决方案,集研发、生产、销售、培训和技术服务于一体的国家高新技术企业公司。中慧举办Web前端开发技能竞赛四届,该赛项类别分为全国行业赛和省赛,提升教育行业教学改革和IT人才建设。同时,中慧为世界技能大赛全国选拔赛网站设计与开发项目提供技术支持,提升中国在世界技能大赛WebTechnologies项目的声望和地位。书籍的作者由中慧科技的讲师、高级工程师,山东科技职业学院教授Web前端开发的教师团队共同组成,从企业用人需求,课证赛融通、高职教学需求几个方面出发,共同编写。

目录

  • 第一篇数据库存储
  • 第1章关系型数据库2
  • 1.1数据库基本概念2
  • 1.1.1数据库简介2
  • 1.1.2关系型数据库3
  • 1.2MySQL数据库简介及安装3
  • 1.2.1MySQL数据库简介3
  • 1.2.2MySQL数据库安装3
  • 1.2.3数据库可视化工具Navicat安装8
  • 1.3MySQL数据库基础11
  • 1.3.1数据类型11
  • 1.3.2约束12
  • 1.4MySQL数据库管理13
  • 1.4.1服务启动与数据库连接13
  • 1.4.2数据库的基本操作14
  • 1.4.3表的基本操作15
  • 1.5MySQL数据库操作17
  • 1.5.1插入数据17
  • 1.5.2查询数据18
  • 1.5.3修改数据18
  • 1.5.4删除数据19
  • 1.5.5高级查询19
  • 1.6Python与MySQL的交互21
  • 1.6.1安装Python环境下的MySQL操作模块21
  • 1.6.2MySQLdb操作MySQL22
  • 1.6.3PyMySQL操作MySQL26
  • 1.7项目实战——基于MySQLdb的学生信息管理28
  • 本章小结32
  • 习题33
  • 第2章非关系型数据库35
  • 2.1非关系型数据库35
  • 2.2MongoDB数据库36
  • 2.2.1MongoDB数据库简介36
  • 2.2.2MongoDB安装36
  • 2.2.3启动MongoDB39
  • 2.2.4Navicat可视化操作MongoDB40
  • 2.3MongoDB数据库操作42
  • 2.3.1数据库操作42
  • 2.3.2集合操作43
  • 2.3.3文档操作44
  • 2.4MongoDB与Python的交互46
  • 2.4.1pymongo模块安装46
  • 2.4.2pymongo连接数据库46
  • 2.4.3pymongo读写数据库47
  • 2.5项目实战——基于pymongo实现学生信息管理50
  • 2.6Redis53
  • 2.6.1Redis简介53
  • 2.6.2Redis安装53
  • 2.6.3Redis管理56
  • 2.7Redis基本命令57
  • 2.8Redis数据结构60
  • 2.8.1String60
  • 2.8.2List62
  • 2.8.3Hash64
  • 2.8.4Set65
  • 2.8.5SortedSet67
  • 2.9Redis与Python的交互68
  • 2.9.1Pythonredis模块安装68
  • 2.9.2连接Redis69
  • 2.9.3Python操作Redis69
  • 2.10项目实战——Pythonredis模拟用户注册、登录70
  • 本章小结72
  • 习题72
  • 第二篇PythonWeb开发
  • 第3章Django框架76
  • 3.1Django基本知识76
  • 3.1.1Django简介76
  • 3.1.2Django的MTV模型77
  • 3.2Django框架准备78
  • 3.2.1Django安装78
  • 3.2.2创建Django项目80
  • 3.2.3启动项目81
  • 3.3Django模型82
  • 3.3.1DjangoORM简介82
  • 3.3.2使用Django模型创建数据库表结构83
  • 3.3.3使用Django模型完成数据库操作86
  • 3.4Django模板91
  • 3.4.1模板应用实例91
  • 3.4.2Django模板的基本语法92
  • 3.4.3模板继承100
  • 3.5Django表单102
  • 3.5.1表单处理——GET方法102
  • 3.5.2表单处理——POST方法103
  • 3.6Django视图104
  • 3.6.1视图简介104
  • 3.6.2请求对象105
  • 3.6.3响应对象109
  • 3.7Django路由111
  • 3.7.1路径111
  • 3.7.2反向解析113
  • 3.7.3路由命名空间114
  • 3.7.4练习——创建路由实例115
  • 3.8DjangoAdmin管理工具116
  • 3.8.1Admin管理工具116
  • 3.8.2练习——使用管理工具添加数据118
  • 3.9Django中间件123
  • 3.9.1Django自带中间件123
  • 3.9.2项目实战——添加跨域请求的中间件124
  • 3.10DjangoCookie与Session126
  • 3.10.1Cookie127
  • 3.10.2Session128
  • 3.10.3练习——用户登录将token信息存储到Session中129
  • 3.11RESTful接口介绍132
  • 3.11.1REST架构的理解132
  • 3.11.2RESTful接口设计规范133
  • 3.12项目实战——学生信息管理系统134
  • 3.12.1项目目标134
  • 3.12.2流程分析134
  • 3.12.3开发前的准备135
  • 3.12.4创建与初始化项目135
  • 3.12.5配置数据库并实现数据库访问136
  • 3.12.6开发接口前的预操作139
  • 3.12.7开发系统的管理员登录与登出接口141
  • 3.12.8开发系统的学生信息管理功能147
  • 3.12.9开发系统的课程信息管理功能153
  • 3.12.10开发系统的成绩信息管理功能158
  • 本章小结163
  • 习题163
  • 第三篇网络爬虫
  • 第4章模拟用户操作166
  • 4.1爬虫与Selenium166
  • 4.2安装Selenium167
  • 4.2.1安装Selenium库167
  • 4.2.2浏览器驱动的安装与配置168
  • 4.2.3验证安装170
  • 4.3使用Selenium定位及操作元素170
  • 4.3.1定位元素170
  • 4.3.2信息获取174
  • 4.3.3鼠标操作176
  • 4.3.4键盘操作180
  • 4.3.5提交表单182
  • 4.4多线程爬虫184
  • 4.4.1进程与线程184
  • 4.4.2Python多线程模块184
  • 4.4.3多线程爬取网页186
  • 4.5项目实战——用Selenium抓取电商网站数据188
  • 本章小结191
  • 习题192
  • 第5章Scrapy爬虫框架194
  • 5.1Scrapy框架介绍194
  • 5.1.1网络爬虫的原理194
  • 5.1.2Scrapy框架的整体架构和组成195
  • 5.1.3安装Scrapy框架196
  • 5.2Scrapy框架的使用198
  • 5.2.1创建Scrapy工程198
  • 5.2.2使用Spider提取数据201
  • 5.2.3使用Item封装数据205
  • 5.2.4使用ItemPipeline处理数据206
  • 5.3爬虫数据持久化207
  • 5.3.1数据保存到文件207
  • 5.3.2数据保存到数据库208
  • 5.4Scrapy的中间件213
  • 5.4.1SpiderMiddlewares介绍213
  • 5.4.2DownloaderMiddlewares介绍215
  • 5.5项目实战——用Scrapy抓取股票信息219
  • 本章小结223
  • 习题224
  • 第6章分布式爬虫226
  • 6.1Scrapy-redis框架介绍226
  • 6.1.1分布式爬虫的应用场景和原理226
  • 6.1.2Scrapy-redis框架的整体架构和组成227
  • 6.1.3安装Scrapy-redis框架229
  • 6.2Scrapy-redis框架的使用231
  • 6.2.1创建分布式爬虫工程231
  • 6.2.2继承RedisSpider提取数据232
  • 6.2.3分布式爬虫的配置234
  • 6.3项目实战——分布式爬取当当网图书数据235
  • 本章小结241
  • 习题241
  • 第7章反爬虫243
  • 7.1爬虫与反爬虫243
  • 7.2常见的反爬虫方式243
  • 7.2.1headers反爬虫243
  • 7.2.2基于用户行为的反爬虫247
  • 7.2.3动态页面的反爬虫248
  • 7.3常见的反爬虫应对方案248
  • 7.3.1修改请求头248
  • 7.3.2修改爬虫的间隔时间249
  • 7.3.3使用代理249
  • 本章小结250
  • 习题250
  • 参考文献252

资源获取

相关资源

网友留言