W3Cschool
恭喜您成為首批注冊(cè)用戶
獲得88經(jīng)驗(yàn)值獎(jiǎng)勵(lì)
scrapy.spiders.
CSVFeedSpider
[源代碼]這個(gè)spider與xmlFeedSpider非常相似,只是它迭代行,而不是節(jié)點(diǎn)。在每次迭代中被調(diào)用的方法是 ?parse_row()
? .
parse_row
(response, row)[源代碼]接收響應(yīng)和dict(代表每一行),其中為csv文件的每個(gè)提供的(或檢測(cè)到的)頭文件都有一個(gè)鍵。這個(gè)蜘蛛還提供了超越的機(jī)會(huì) adapt_response
和 process_results
用于預(yù)處理和后處理目的的方法。
我們來(lái)看一個(gè)類似于前一個(gè)的例子,但是使用 CSVFeedSpider ::
from scrapy.spiders import CSVFeedSpider
from myproject.items import TestItem
class MySpider(CSVFeedSpider):
name = 'example.com'
allowed_domains = ['example.com']
start_urls = ['http://www.example.com/feed.csv']
delimiter = ';'
quotechar = "'"
headers = ['id', 'name', 'description']
def parse_row(self, response, row):
self.logger.info('Hi, this is a row!: %r', row)
item = TestItem()
item['id'] = row['id']
item['name'] = row['name']
item['description'] = row['description']
return item
Copyright©2021 w3cschool編程獅|閩ICP備15016281號(hào)-3|閩公網(wǎng)安備35020302033924號(hào)
違法和不良信息舉報(bào)電話:173-0602-2364|舉報(bào)郵箱:jubao@eeedong.com
掃描二維碼
下載編程獅App
編程獅公眾號(hào)
聯(lián)系方式:
更多建議: