python feapder编写爬虫和数据解析

  • 更新时间:2021-08-03 09:12:31
  • 编辑:魏萦思
本站精选了一篇相关的编程文章,网友桓于娜根据主题投稿了本篇教程内容,涉及到Python相关内容,已被288网友关注,内容中涉及的知识点可以在下方直接下载获取。

参考资料

正文内容

我们整理一篇关于《python feapder编写爬虫和数据解析》技术文章,好东西应该跟大家分享,把代码做了调试发布出来,为了大家阅读方便。

python feapder编写爬虫和数据解析

1、首先,让MysqlDB初始化数据库。

from feapder.db.mysqldb import MysqlDB
 
class TophubSpider(feapder.AirSpider):
 
    def __init__(self, *args, **kwargs):
        super().__init__(*args, **kwargs)
        self.db = MysqlDB()

2、在start_requests方法中,指定爬取主链接地址,使用关键词download_midware配置。

import feapder
from fake_useragent import UserAgent
 
def start_requests(self):
    yield feapder.Request("https://tophub.today/", download_midware=self.download_midware)
 
def download_midware(self, request):
    # 随机UA
    # 依赖:pip3 install fake_useragent
    ua = UserAgent().random
    request.headers = {'User-Agent': ua}
    return request

3、抓取主页标题和链接地址。

使用内置方法xpath分析数据。

def parse(self, request, response):
    # print(response.text)
    card_elements = response.xpath('//div[@class="cc-cd"]')
 
    # 过滤出对应的卡片元素【什么值得买】
    buy_good_element = [card_element for card_element in card_elements if
                        card_element.xpath('.//div[@class="cc-cd-is"]//span/text()').extract_first() == '什么值得买'][0]
 
    # 获取内部文章标题及地址
    a_elements = buy_good_element.xpath('.//div[@class="cc-cd-cb nano"]//a')
 
    for a_element in a_elements:
        # 标题和链接
        title = a_element.xpath('.//span[@class="t"]/text()').extract_first()
        href = a_element.xpath('.//@href').extract_first()
 
        # 再次下发新任务,并带上文章标题
        yield feapder.Request(href, download_midware=self.download_midware, callback=self.parser_detail_page,
                              title=title)

以上就是python feapder编写爬虫和数据解析的方法,希望对大家有所帮助。

相关教程

  • python里pop是什么意思

    pop() 函数用于移除列表中的一个元素(默认最后一个元素),并且返回该元素的值。它的语法是list.pop(obj=list[-1]),参数是obj -- 可选参数,要移除列表元素的对象。

    发布时间:2019-06-26

  • python2.7+selenium2实现淘宝滑块自动认证功能

    这篇文章主要为大家详细介绍了python2.7+selenium2实现淘宝滑块自动认证功能,具有一定的参考价值,感兴趣的小伙伴们可以参考一下

    发布时间:2019-08-26

用户留言