scrapy 2.3 可用工具命令

2021-06-09 10:05 更新

可用工具命令

本節(jié)包含可用的內(nèi)置命令列表,其中包含說明和一些用法示例。記住,您可以通過運(yùn)行以下命令獲取有關(guān)每個(gè)命令的更多信息:

scrapy <command> -h

您可以使用以下命令查看所有可用命令:

scrapy -h

有兩種命令,一種是只從零碎項(xiàng)目(特定于項(xiàng)目的命令)內(nèi)部工作的命令,另一種是不使用活動(dòng)零碎項(xiàng)目(全局命令)的命令,盡管從項(xiàng)目?jī)?nèi)部運(yùn)行時(shí)它們的行為可能略有不同(因?yàn)樗鼈儗⑹褂庙?xiàng)目覆蓋設(shè)置)。

全局命令:

  • ?startproject?
  • ?genspider?
  • ?settings?
  • ?runspider?
  • ?shell?
  • ?fetch?
  • ?view?
  • ?version?

僅Project命令:

  • ?crawl?
  • ?check?
  • ?list?
  • ?edit?
  • ?parse?
  • ?bench?

啟動(dòng)項(xiàng)目

  • Syntax: ?scrapy startproject <project_name> [project_dir]?
  • 需要項(xiàng)目: no

創(chuàng)建一個(gè)名為 ?project_name? 下 ?project_dir? 目錄。如果 ?project_dir? 沒有指定, ?project_dir? 將與 ?project_name? .

使用實(shí)例:

$ scrapy startproject myproject

基因蜘蛛

  • Syntax: ?scrapy genspider [-t template] <name> <domain>?
  • 需要項(xiàng)目: no

在當(dāng)前文件夾或當(dāng)前項(xiàng)目的 ?spiders? 文件夾(如果從項(xiàng)目?jī)?nèi)部調(diào)用)。這個(gè) ?<name>? 參數(shù)設(shè)置為spider的 ?name? ,同時(shí) ?<domain>? 用于生成 ?allowed_domains? 和 ?start_urls? 蜘蛛的屬性。

使用實(shí)例:

$ scrapy genspider -l
Available templates:
  basic
  crawl
  csvfeed
  xmlfeed

$ scrapy genspider example example.com
Created spider 'example' using template 'basic'

$ scrapy genspider -t crawl scrapyorg scrapy.org
Created spider 'scrapyorg' using template 'crawl'

這只是一個(gè)基于預(yù)先定義的模板創(chuàng)建spider的快捷命令,但肯定不是創(chuàng)建spider的唯一方法。您可以自己創(chuàng)建蜘蛛源代碼文件,而不是使用這個(gè)命令。

爬行

  • Syntax: ?scrapy crawl <spider>?
  • 需要項(xiàng)目: yes

開始用蜘蛛爬行。

用法示例:

$ scrapy crawl myspider
[ ... myspider starts crawling ... ]

檢查

  • Syntax: ?scrapy check [-l] <spider>?
  • 需要項(xiàng)目: yes

運(yùn)行合同檢查。

用法示例:

$ scrapy check -l
first_spider
  * parse
  * parse_item
second_spider
  * parse
  * parse_item

$ scrapy check
[FAILED] first_spider:parse_item
>>> 'RetailPricex' field is missing

[FAILED] first_spider:parse
>>> Returned 92 requests, expected 0..4

列表

  • Syntax: ?scrapy list?
  • 需要項(xiàng)目: yes

列出當(dāng)前項(xiàng)目中所有可用的spider。每行輸出一個(gè)蜘蛛。

使用實(shí)例:

$ scrapy list
spider1
spider2

編輯

  • Syntax: ?scrapy edit <spider>?
  • 需要項(xiàng)目: yes

使用中定義的編輯器編輯給定的蜘蛛 EDITOR 環(huán)境變量或(如果未設(shè)置) ?EDITOR? 設(shè)置。

這個(gè)命令僅作為最常見情況下的快捷方式提供,開發(fā)人員當(dāng)然可以自由選擇任何工具或IDE來編寫和調(diào)試spider。

使用實(shí)例:

$ scrapy edit spider1

取來

  • Syntax: ?scrapy fetch <url>?
  • 需要項(xiàng)目: no

使用ScrapyDownloader下載給定的URL,并將內(nèi)容寫入標(biāo)準(zhǔn)輸出。

這個(gè)命令的有趣之處在于它獲取了蜘蛛如何下載它的頁面。例如,如果蜘蛛 ?USER_AGENT? 覆蓋用戶代理的屬性,它將使用該屬性。

所以這個(gè)命令可以用來“查看”蜘蛛如何獲取特定的頁面。

如果在項(xiàng)目之外使用,則不會(huì)應(yīng)用特定的每蜘蛛行為,它只會(huì)使用默認(rèn)的scrapy下載器設(shè)置。

支持的選項(xiàng):

  • ?--spider=SPIDER? :繞過Spider自動(dòng)檢測(cè)并強(qiáng)制使用特定Spider
  • ?--headers? :打印響應(yīng)的HTTP頭而不是響應(yīng)的正文
  • ?--no-redirect? :不遵循HTTP 3xx重定向(默認(rèn)為遵循它們)

用法示例:

$ scrapy fetch --nolog http://www.example.com/some/page.html
[ ... html content here ... ]

$ scrapy fetch --nolog --headers http://www.example.com/
{'Accept-Ranges': ['bytes'],
 'Age': ['1263   '],
 'Connection': ['close     '],
 'Content-Length': ['596'],
 'Content-Type': ['text/html; charset=UTF-8'],
 'Date': ['Wed, 18 Aug 2010 23:59:46 GMT'],
 'Etag': ['"573c1-254-48c9c87349680"'],
 'Last-Modified': ['Fri, 30 Jul 2010 15:30:18 GMT'],
 'Server': ['Apache/2.2.3 (CentOS)']}

看法

  • Syntax: ?scrapy view <url>?
  • 需要項(xiàng)目: no

在瀏覽器中打開給定的URL,因?yàn)槟膹U蜘蛛會(huì)“看到”它。有時(shí)候蜘蛛看到的頁面與普通用戶不同,所以這可以用來檢查蜘蛛“看到”什么,并確認(rèn)它是你所期望的。

支持的選項(xiàng):

  • ?--spider=SPIDER? :繞過Spider自動(dòng)檢測(cè)并強(qiáng)制使用特定Spider
  • ?--no-redirect:不遵循HTTP 3xx重定向(默認(rèn)為遵循它們)

使用實(shí)例:

$ scrapy view http://www.example.com/some/page.html
[ ... browser starts ... ]

  • Syntax: ?scrapy shell [url]?
  • 需要項(xiàng)目: no

為給定的URL(如果給定)啟動(dòng)scrapy shell;如果沒有給定URL,則為空。還支持Unix風(fēng)格的本地文件路徑,無論是相對(duì)于 ./ 或 ../ 前綴或絕對(duì)文件路徑。見 Scrapy shell 更多信息。

支持的選項(xiàng):

  • ?--spider=SPIDER? :繞過Spider自動(dòng)檢測(cè)并強(qiáng)制使用特定Spider
  • ?-c code? :評(píng)估shell中的代碼,打印結(jié)果并退出
  • ?--no-redirect? :不遵循HTTP 3xx重定向(默認(rèn)為遵循它們);這只影響在命令行上作為參數(shù)傳遞的URL;一旦進(jìn)入shell, ?fetch(url)? 默認(rèn)情況下仍將遵循HTTP重定向。

使用實(shí)例:

$ scrapy shell http://www.example.com/some/page.html
[ ... scrapy shell starts ... ]

$ scrapy shell --nolog http://www.example.com/ -c '(response.status, response.url)'
(200, 'http://www.example.com/')

# shell follows HTTP redirects by default
$ scrapy shell --nolog http://httpbin.org/redirect-to?url=http%3A%2F%2Fexample.com%2F -c '(response.status, response.url)'
(200, 'http://example.com/')

# you can disable this with --no-redirect
# (only for the URL passed as command line argument)
$ scrapy shell --no-redirect --nolog http://httpbin.org/redirect-to?url=http%3A%2F%2Fexample.com%2F -c '(response.status, response.url)'
(302, 'http://httpbin.org/redirect-to?url=http%3A%2F%2Fexample.com%2F')

解析

  • Syntax: ?scrapy parse <url> [options]?
  • 需要項(xiàng)目: yes

獲取給定的URL,并使用處理它的spider,使用 ?--callback? 選項(xiàng),或 ?parse? 如果沒有給出。

支持的選項(xiàng):

  • ?--spider=SPIDER? :繞過Spider自動(dòng)檢測(cè)并強(qiáng)制使用特定Spider
  • ?--a NAME=VALUE? :set spider參數(shù)(可以重復(fù))
  • ?--callback? 或 ?-c? :用作分析響應(yīng)的回調(diào)的spider方法
  • ?--meta? 或 ?-m? :將傳遞給回調(diào)請(qǐng)求的附加請(qǐng)求元。這必須是有效的JSON字符串。示例:--meta='“foo”:“bar”'
  • ?--cbkwargs? :將傳遞給回調(diào)的其他關(guān)鍵字參數(shù)。這必須是有效的JSON字符串。示例:--cbkwargs='“foo”:“bar”'
  • ?--pipelines? :通過管道處理項(xiàng)目
  • ?--rules? 或 ?-r? 使用 ?CrawlSpider? 發(fā)現(xiàn)用于解析響應(yīng)的回調(diào)(即spider方法)的規(guī)則
  • ?--noitems? :不顯示爬取的項(xiàng)目
  • ?--nolinks? :不顯示提取的鏈接
  • ?--nocolour? :避免使用Pygments對(duì)輸出著色
  • ?--depth? 或 ?-d? :應(yīng)遞歸執(zhí)行請(qǐng)求的深度級(jí)別(默認(rèn)值:1)
  • ?--verbose? 或 ?-v? :顯示每個(gè)深度級(jí)別的信息
  • ?--output? 或 ?-o? :將刮取的項(xiàng)目轉(zhuǎn)儲(chǔ)到文件2.3 新版功能.

使用實(shí)例:

$ scrapy parse http://www.example.com/ -c parse_item
[ ... scrapy log lines crawling example.com spider ... ]

>>> STATUS DEPTH LEVEL 1 <<<
# Scraped Items  ------------------------------------------------------------
[{'name': 'Example item',
 'category': 'Furniture',
 'length': '12 cm'}]

# Requests  -----------------------------------------------------------------
[]

設(shè)置

  • Syntax: ?scrapy settings [options]?
  • 需要項(xiàng)目: no

獲取 Scrapy 設(shè)置的值。

如果在項(xiàng)目中使用,它將顯示項(xiàng)目設(shè)置值,否則它將顯示該設(shè)置的默認(rèn) Scrapy 值。

示例用法:

$ scrapy settings --get BOT_NAME
scrapybot
$ scrapy settings --get DOWNLOAD_DELAY
0

運(yùn)行蜘蛛

  • Syntax: ?scrapy runspider <spider_file.py>?
  • 需要項(xiàng)目: no

運(yùn)行一個(gè)包含在python文件中的spider,而不必創(chuàng)建一個(gè)項(xiàng)目。

示例用法:

$ scrapy runspider myspider.py
[ ... spider starts crawling ... ]

版本

  • ?Syntax: scrapy version [-v]?
  • 需要項(xiàng)目: no

打印殘缺版本。如果使用 ?-v? 它還打印python、twisted和platform信息,這對(duì)bug報(bào)告很有用。

長(zhǎng)凳

  • Syntax: ?scrapy bench?
  • 需要項(xiàng)目: no

運(yùn)行一個(gè)快速基準(zhǔn)測(cè)試。 標(biāo)桿管理 .

以上內(nèi)容是否對(duì)您有幫助:
在線筆記
App下載
App下載

掃描二維碼

下載編程獅App

公眾號(hào)
微信公眾號(hào)

編程獅公眾號(hào)