400 028 6601

建站动态

根据您的个性需求进行定制 先人一步 抢占小程序红利时代

如何实现URL字段的解析

这期内容当中小编将会给大家带来有关如何实现URL字段的解析,文章内容丰富且以专业的角度为大家分析和叙述,阅读完这篇文章希望大家可以有所收获。

创新互联建站专注于南丹网站建设服务及定制,我们拥有丰富的企业做网站经验。 热诚为您提供南丹营销型网站建设,南丹网站制作、南丹网页设计、南丹网站官网定制、成都微信小程序服务,打造南丹网络公司原创品牌,更为您提供南丹网站排名全网营销落地服务。

1.修改爬取的目标地址

我们知道如果想要爬取网站的数据需要在spiders文件中创建一个蜘蛛,创建后这个蜘蛛中会自动生成一个类,类名也是由蜘蛛名加Spider组成,如上一节中爬去csdn网站生成的:CsDNSpider类,这个类中的name也就是蜘蛛的名称,allowed_domains是允许爬取网站的域名,start_urls是需要爬取的目标网站的网址,如果需要更改爬取的目标页面,只需要修改start_urls就可以了;

import scrapy
class CsdnSpider(scrapy.Spider):
    name = 'csdn'
    allowed_domains = ['www.csdn.net']
    start_urls = ['http://www.csdn.net/']
    def parse(self, response):
        pass

2.解析标题的超链接a标签的跳转地址和标题内容

import scrapy
class CsdnSpider(scrapy.Spider):
    name = 'csdn'
    allowed_domains = ['www.csdn.net']
    start_urls = ['http://www.csdn.net/']
    def parse(self, response):
       urls = response.css('.company_list .company_name a::attr(href)').extract()
       print(urls)

这个回调函数是我们自己定义的,也会传递一个response对象,通过这个response对象对css选择器获取的元素进行解析,这样我们就可以拿到每个解析页面的标题内容了;

import scrapy
from scrapy.http import Request
from urllib import parse
class CsdnSpider(scrapy.Spider):
    name = 'csdn'
    allowed_domains = ['www.csdn.net']
    start_urls = ['http://www.csdn.net/']
    def parse(self, response):
       # 获取url
       urls = response.css('.company_list .company_name a::attr(href)').extract()
       # print(urls)
       # 解析页面
       for url in urls:
           yield Request(url = parse.urljoin(response.url, url), callback=self.parse_analyse, dont_filter=True)
    # 回调函数
    def parse_analyse(self, response):
        title = response.css('.company_list .company_name a::text').extract_first()
        print(title)

3.Request对象的介绍

上述就是小编为大家分享的如何实现URL字段的解析了,如果刚好有类似的疑惑,不妨参照上述分析进行理解。如果想知道更多相关知识,欢迎关注创新互联行业资讯频道。


名称栏目:如何实现URL字段的解析
标题链接:http://mbwzsj.com/article/pgpcpi.html

其他资讯

让你的专属顾问为你服务