亚洲中字慕日产2020,大陆极品少妇内射AAAAAA,无码av大香线蕉伊人久久,久久精品国产亚洲av麻豆网站

資訊專欄INFORMATION COLUMN

從零開(kāi)始的Python爬蟲(chóng)速成指南

gotham / 917人閱讀

摘要:內(nèi)容如下是我們準(zhǔn)備爬的初始頁(yè)這個(gè)是解析函數(shù),如果不特別指明的話,抓回來(lái)的頁(yè)面會(huì)由這個(gè)函數(shù)進(jìn)行解析。爬取多個(gè)頁(yè)面的原理相同,注意解析翻頁(yè)的地址設(shè)定終止條件指定好對(duì)應(yīng)的頁(yè)面解析函數(shù)即可。后面的數(shù)字表示的是優(yōu)先級(jí)。指明每?jī)蓚€(gè)請(qǐng)求之間的間隔。

本文主要內(nèi)容:以最短的時(shí)間寫(xiě)一個(gè)最簡(jiǎn)單的爬蟲(chóng),可以抓取論壇的帖子標(biāo)題和帖子內(nèi)容。

本文受眾:沒(méi)寫(xiě)過(guò)爬蟲(chóng)的萌新。

入門(mén) 0.準(zhǔn)備工作

需要準(zhǔn)備的東西: Python、scrapy、一個(gè)IDE或者隨便什么文本編輯工具。

1.技術(shù)部已經(jīng)研究決定了,你來(lái)寫(xiě)爬蟲(chóng)。

隨便建一個(gè)工作目錄,然后用命令行建立一個(gè)工程,工程名為miao,可以替換為你喜歡的名字。

scrapy startproject miao

隨后你會(huì)得到如下的一個(gè)由scrapy創(chuàng)建的目錄結(jié)構(gòu)

在spiders文件夾中創(chuàng)建一個(gè)python文件,比如miao.py,來(lái)作為爬蟲(chóng)的腳本。
內(nèi)容如下:

import scrapy


class NgaSpider(scrapy.Spider):
    name = "NgaSpider"
    host = "http://bbs.ngacn.cc/"
    # start_urls是我們準(zhǔn)備爬的初始頁(yè)
    start_urls = [
        "http://bbs.ngacn.cc/thread.php?fid=406",
    ]

    # 這個(gè)是解析函數(shù),如果不特別指明的話,scrapy抓回來(lái)的頁(yè)面會(huì)由這個(gè)函數(shù)進(jìn)行解析。
    # 對(duì)頁(yè)面的處理和分析工作都在此進(jìn)行,這個(gè)示例里我們只是簡(jiǎn)單地把頁(yè)面內(nèi)容打印出來(lái)。
    def parse(self, response):
        print response.body
        
2.跑一個(gè)試試?

如果用命令行的話就這樣:

cd miao
scrapy crawl NgaSpider

你可以看到爬蟲(chóng)君已經(jīng)把你壇星際區(qū)第一頁(yè)打印出來(lái)了,當(dāng)然由于沒(méi)有任何處理,所以混雜著html標(biāo)簽和js腳本都一并打印出來(lái)了。

解析

接下來(lái)我們要把剛剛抓下來(lái)的頁(yè)面進(jìn)行分析,從這坨html和js堆里把這一頁(yè)的帖子標(biāo)題提煉出來(lái)。
其實(shí)解析頁(yè)面是個(gè)體力活,方法多的是,這里只介紹xpath。

0.為什么不試試神奇的xpath呢

看一下剛才抓下來(lái)的那坨東西,或者用chrome瀏覽器手動(dòng)打開(kāi)那個(gè)頁(yè)面然后按F12可以看到頁(yè)面結(jié)構(gòu)。
每個(gè)標(biāo)題其實(shí)都是由這么一個(gè)html標(biāo)簽包裹著的。舉個(gè)例子:

[合作模式] 合作模式修改設(shè)想

可以看到href就是這個(gè)帖子的地址(當(dāng)然前面要拼上論壇地址),而這個(gè)標(biāo)簽包裹的內(nèi)容就是帖子的標(biāo)題了。
于是我們用xpath的絕對(duì)定位方法,把class="topic"的部分摘出來(lái)。

1.看看xpath的效果

在最上面加上引用:

from scrapy import Selector

把parse函數(shù)改成:

    def parse(self, response):
        selector = Selector(response)
        # 在此,xpath會(huì)將所有class=topic的標(biāo)簽提取出來(lái),當(dāng)然這是個(gè)list
        # 這個(gè)list里的每一個(gè)元素都是我們要找的html標(biāo)簽
        content_list = selector.xpath("http://*[@class="topic"]")
        # 遍歷這個(gè)list,處理每一個(gè)標(biāo)簽
        for content in content_list:
            # 此處解析標(biāo)簽,提取出我們需要的帖子標(biāo)題。
            topic = content.xpath("string(.)").extract_first()
            print topic
            # 此處提取出帖子的url地址。
            url = self.host + content.xpath("@href").extract_first()
            print url

再次運(yùn)行就可以看到輸出你壇星際區(qū)第一頁(yè)所有帖子的標(biāo)題和url了。

遞歸

接下來(lái)我們要抓取每一個(gè)帖子的內(nèi)容。
這里需要用到python的yield。

yield Request(url=url, callback=self.parse_topic)

此處會(huì)告訴scrapy去抓取這個(gè)url,然后把抓回來(lái)的頁(yè)面用指定的parse_topic函數(shù)進(jìn)行解析。

至此我們需要定義一個(gè)新的函數(shù)來(lái)分析一個(gè)帖子里的內(nèi)容。

完整的代碼如下:

import scrapy
from scrapy import Selector
from scrapy import Request


class NgaSpider(scrapy.Spider):
    name = "NgaSpider"
    host = "http://bbs.ngacn.cc/"
    # 這個(gè)例子中只指定了一個(gè)頁(yè)面作為爬取的起始url
    # 當(dāng)然從數(shù)據(jù)庫(kù)或者文件或者什么其他地方讀取起始url也是可以的
    start_urls = [
        "http://bbs.ngacn.cc/thread.php?fid=406",
    ]

    # 爬蟲(chóng)的入口,可以在此進(jìn)行一些初始化工作,比如從某個(gè)文件或者數(shù)據(jù)庫(kù)讀入起始url
    def start_requests(self):
        for url in self.start_urls:
            # 此處將起始url加入scrapy的待爬取隊(duì)列,并指定解析函數(shù)
            # scrapy會(huì)自行調(diào)度,并訪問(wèn)該url然后把內(nèi)容拿回來(lái)
            yield Request(url=url, callback=self.parse_page)

    # 版面解析函數(shù),解析一個(gè)版面上的帖子的標(biāo)題和地址
    def parse_page(self, response):
        selector = Selector(response)
        content_list = selector.xpath("http://*[@class="topic"]")
        for content in content_list:
            topic = content.xpath("string(.)").extract_first()
            print topic
            url = self.host + content.xpath("@href").extract_first()
            print url
            # 此處,將解析出的帖子地址加入待爬取隊(duì)列,并指定解析函數(shù)
            yield Request(url=url, callback=self.parse_topic)
         # 可以在此處解析翻頁(yè)信息,從而實(shí)現(xiàn)爬取版區(qū)的多個(gè)頁(yè)面

    # 帖子的解析函數(shù),解析一個(gè)帖子的每一樓的內(nèi)容
    def parse_topic(self, response):
        selector = Selector(response)
        content_list = selector.xpath("http://*[@class="postcontent ubbcode"]")
        for content in content_list:
            content = content.xpath("string(.)").extract_first()
            print content
        # 可以在此處解析翻頁(yè)信息,從而實(shí)現(xiàn)爬取帖子的多個(gè)頁(yè)面

到此為止,這個(gè)爬蟲(chóng)可以爬取你壇第一頁(yè)所有的帖子的標(biāo)題,并爬取每個(gè)帖子里第一頁(yè)的每一層樓的內(nèi)容。
爬取多個(gè)頁(yè)面的原理相同,注意解析翻頁(yè)的url地址、設(shè)定終止條件、指定好對(duì)應(yīng)的頁(yè)面解析函數(shù)即可。

Pipelines——管道

此處是對(duì)已抓取、解析后的內(nèi)容的處理,可以通過(guò)管道寫(xiě)入本地文件、數(shù)據(jù)庫(kù)。

0.定義一個(gè)Item

在miao文件夾中創(chuàng)建一個(gè)items.py文件。

from scrapy import Item, Field


class TopicItem(Item):
    url = Field()
    title = Field() 
    author = Field()  
    
class ContentItem(Item):
    url = Field() 
    content = Field()
    author = Field()  

此處我們定義了兩個(gè)簡(jiǎn)單的class來(lái)描述我們爬取的結(jié)果。

1. 寫(xiě)一個(gè)處理方法

在miao文件夾下面找到那個(gè)pipelines.py文件,scrapy之前應(yīng)該已經(jīng)自動(dòng)生成好了。

我們可以在此建一個(gè)處理方法。

class FilePipeline(object):

    ## 爬蟲(chóng)的分析結(jié)果都會(huì)由scrapy交給此函數(shù)處理
    def process_item(self, item, spider):
        if isinstance(item, TopicItem):
            ## 在此可進(jìn)行文件寫(xiě)入、數(shù)據(jù)庫(kù)寫(xiě)入等操作
            pass
        if isinstance(item, ContentItem):
            ## 在此可進(jìn)行文件寫(xiě)入、數(shù)據(jù)庫(kù)寫(xiě)入等操作
            pass
        ## ... 
        return item
2.在爬蟲(chóng)中調(diào)用這個(gè)處理方法。

要調(diào)用這個(gè)方法我們只需在爬蟲(chóng)中調(diào)用即可,例如原先的內(nèi)容處理函數(shù)可改為:

    def parse_topic(self, response):
        selector = Selector(response)
        content_list = selector.xpath("http://*[@class="postcontent ubbcode"]")
        for content in content_list:
            content = content.xpath("string(.)").extract_first()
            ## 以上是原內(nèi)容
            ## 創(chuàng)建個(gè)ContentItem對(duì)象把我們爬取的東西放進(jìn)去
            item = ContentItem()
            item["url"] = response.url
            item["content"] = content
            item["author"] = "" ## 略
            ## 這樣調(diào)用就可以了
            ## scrapy會(huì)把這個(gè)item交給我們剛剛寫(xiě)的FilePipeline來(lái)處理
            yield item
3.在配置文件里指定這個(gè)pipeline

找到settings.py文件,在里面加入

ITEM_PIPELINES = {
            "miao.pipelines.FilePipeline": 400,
        }

這樣在爬蟲(chóng)里調(diào)用

yield item

的時(shí)候都會(huì)由經(jīng)這個(gè)FilePipeline來(lái)處理。后面的數(shù)字400表示的是優(yōu)先級(jí)。
可以在此配置多個(gè)Pipeline,scrapy會(huì)根據(jù)優(yōu)先級(jí),把item依次交給各個(gè)item來(lái)處理,每個(gè)處理完的結(jié)果會(huì)傳遞給下一個(gè)pipeline來(lái)處理。
可以這樣配置多個(gè)pipeline:

ITEM_PIPELINES = {
            "miao.pipelines.Pipeline00": 400,
            "miao.pipelines.Pipeline01": 401,
            "miao.pipelines.Pipeline02": 402,
            "miao.pipelines.Pipeline03": 403,
            ## ...
        }
Middleware——中間件

通過(guò)Middleware我們可以對(duì)請(qǐng)求信息作出一些修改,比如常用的設(shè)置UA、代理、登錄信息等等都可以通過(guò)Middleware來(lái)配置。

0.Middleware的配置

與pipeline的配置類似,在setting.py中加入Middleware的名字,例如

DOWNLOADER_MIDDLEWARES = {
            "miao.middleware.UserAgentMiddleware": 401,
            "miao.middleware.ProxyMiddleware": 402,
        }
1.破網(wǎng)站查UA, 我要換UA

某些網(wǎng)站不帶UA是不讓訪問(wèn)的。
在miao文件夾下面建立一個(gè)middleware.py

import random


agents = [
    "Mozilla/5.0 (Windows; U; Windows NT 6.1; en-US) AppleWebKit/532.5 (KHTML, like Gecko) Chrome/4.0.249.0 Safari/532.5",
    "Mozilla/5.0 (Windows; U; Windows NT 5.2; en-US) AppleWebKit/532.9 (KHTML, like Gecko) Chrome/5.0.310.0 Safari/532.9",
    "Mozilla/5.0 (Windows; U; Windows NT 5.1; en-US) AppleWebKit/534.7 (KHTML, like Gecko) Chrome/7.0.514.0 Safari/534.7",
    "Mozilla/5.0 (Windows; U; Windows NT 6.0; en-US) AppleWebKit/534.14 (KHTML, like Gecko) Chrome/9.0.601.0 Safari/534.14",
    "Mozilla/5.0 (Windows; U; Windows NT 6.1; en-US) AppleWebKit/534.14 (KHTML, like Gecko) Chrome/10.0.601.0 Safari/534.14",
    "Mozilla/5.0 (Windows; U; Windows NT 6.1; en-US) AppleWebKit/534.20 (KHTML, like Gecko) Chrome/11.0.672.2 Safari/534.20",
    "Mozilla/5.0 (Windows NT 6.1; WOW64) AppleWebKit/534.27 (KHTML, like Gecko) Chrome/12.0.712.0 Safari/534.27",
    "Mozilla/5.0 (Windows NT 6.1; WOW64) AppleWebKit/535.1 (KHTML, like Gecko) Chrome/13.0.782.24 Safari/535.1",
]


class UserAgentMiddleware(object): 

    def process_request(self, request, spider):
        agent = random.choice(agents)
        request.headers["User-Agent"] = agent

這里就是一個(gè)簡(jiǎn)單的隨機(jī)更換UA的中間件,agents的內(nèi)容可以自行擴(kuò)充。

2.破網(wǎng)站封IP,我要用代理

比如本地127.0.0.1開(kāi)啟了一個(gè)8123端口的代理,同樣可以通過(guò)中間件配置讓爬蟲(chóng)通過(guò)這個(gè)代理來(lái)對(duì)目標(biāo)網(wǎng)站進(jìn)行爬取。
同樣在middleware.py中加入:

class ProxyMiddleware(object):

    def process_request(self, request, spider): 
        # 此處填寫(xiě)你自己的代理
        # 如果是買的代理的話可以去用API獲取代理列表然后隨機(jī)選擇一個(gè)
        proxy = "http://127.0.0.1:8123"
        request.meta["proxy"] = proxy

很多網(wǎng)站會(huì)對(duì)訪問(wèn)次數(shù)進(jìn)行限制,如果訪問(wèn)頻率過(guò)高的話會(huì)臨時(shí)禁封IP。
如果需要的話可以從網(wǎng)上購(gòu)買IP,一般服務(wù)商會(huì)提供一個(gè)API來(lái)獲取當(dāng)前可用的IP池,選一個(gè)填到這里就好。

一些常用配置

在settings.py中的一些常用配置

# 間隔時(shí)間,單位秒。指明scrapy每?jī)蓚€(gè)請(qǐng)求之間的間隔。
DOWNLOAD_DELAY = 5 

# 當(dāng)訪問(wèn)異常時(shí)是否進(jìn)行重試
RETRY_ENABLED = True 
# 當(dāng)遇到以下http狀態(tài)碼時(shí)進(jìn)行重試
RETRY_HTTP_CODES = [500, 502, 503, 504, 400, 403, 404, 408]
# 重試次數(shù)
RETRY_TIMES = 5

# Pipeline的并發(fā)數(shù)。同時(shí)最多可以有多少個(gè)Pipeline來(lái)處理item
CONCURRENT_ITEMS = 200
# 并發(fā)請(qǐng)求的最大數(shù)
CONCURRENT_REQUESTS = 100
# 對(duì)一個(gè)網(wǎng)站的最大并發(fā)數(shù)
CONCURRENT_REQUESTS_PER_DOMAIN = 50
# 對(duì)一個(gè)IP的最大并發(fā)數(shù)
CONCURRENT_REQUESTS_PER_IP = 50
我就是要用Pycharm

如果非要用Pycharm作為開(kāi)發(fā)調(diào)試工具的話可以在運(yùn)行配置里進(jìn)行如下配置:
Configuration頁(yè)面:
Script填你的scrapy的cmdline.py路徑,比如我的是

/usr/local/lib/python2.7/dist-packages/scrapy/cmdline.py

然后在Scrpit parameters中填爬蟲(chóng)的名字,本例中即為:

crawl NgaSpider

最后是Working diretory,找到你的settings.py文件,填這個(gè)文件所在的目錄。
示例:

按小綠箭頭就可以愉快地調(diào)試了。

參考

這里提供了對(duì)scrapy非常詳細(xì)的介紹。
http://scrapy-chs.readthedocs...

以下是幾個(gè)比較重要的地方:

scrapy的架構(gòu):
http://scrapy-chs.readthedocs...
xpath語(yǔ)法:
http://www.w3school.com.cn/xp...
Pipeline管道配置:
http://scrapy-chs.readthedocs...
Middleware中間件的配置:
http://scrapy-chs.readthedocs...
settings.py的配置:
http://scrapy-chs.readthedocs...

文章版權(quán)歸作者所有,未經(jīng)允許請(qǐng)勿轉(zhuǎn)載,若此文章存在違規(guī)行為,您可以聯(lián)系管理員刪除。

轉(zhuǎn)載請(qǐng)注明本文地址:http://www.ezyhdfw.cn/yun/38351.html

相關(guān)文章

  • 從零開(kāi)始打造個(gè)人專屬命令行工具集——yargs完全指南

    摘要:自阮大神的文章發(fā)布以來(lái),有了一些改動(dòng),添加有很多有用的功能,特別是這個(gè)功能,對(duì)打造命令行工具集合非常有用,所以寫(xiě)一個(gè)新版本的教程還是有必要的。 前言 使用命令行程序?qū)Τ绦騿T來(lái)說(shuō)很常見(jiàn),就算是前端工程師或者開(kāi)發(fā)gui的,也需要使用命令行來(lái)編譯程序或者打包程序 熟練使用命令行工具能極大的提高開(kāi)發(fā)效率,linux自帶的命令行工具都非常的有用,但是這些工具都是按照通用需求開(kāi)發(fā)出來(lái)的,如果有一些...

    wanghui 評(píng)論0 收藏0
  • 前端每周清單第 18 期:Firefox、Chrome、React、Angular發(fā)布新版本;提升R

    摘要:本文即以簡(jiǎn)單的回歸擬合為例,從最基礎(chǔ)的庫(kù)安裝數(shù)據(jù)導(dǎo)入數(shù)據(jù)預(yù)處理到模型訓(xùn)練模型預(yù)測(cè)介紹了如何使用進(jìn)行簡(jiǎn)單的機(jī)器學(xué)習(xí)任務(wù)。 前端每周清單第 18 期:Firefox、Chrome、React、Angular發(fā)布新版本;提升RN應(yīng)用性能的方法 為InfoQ中文站特供稿件,首發(fā)地址為這里;如需轉(zhuǎn)載,請(qǐng)與InfoQ中文站聯(lián)系。從屬于筆者的 Web 前端入門(mén)與工程實(shí)踐的前端每周清單系列系列;部分...

    Lemon_95 評(píng)論0 收藏0
  • Day12 - 鍵盤(pán)輸入序列驗(yàn)證指南

    摘要:監(jiān)測(cè)字符串變化聲明字符串輸入變化的獲取對(duì)象更新顯示數(shù)據(jù)事件監(jiān)聽(tīng)通過(guò)監(jiān)聽(tīng)鍵盤(pán)輸入的變化,當(dāng)鍵盤(pán)彈起時(shí),調(diào)用函數(shù)。 (Node+Vue+微信公眾號(hào)開(kāi)發(fā))企業(yè)級(jí)產(chǎn)品全棧開(kāi)發(fā)速成周末班首期班(10.28號(hào)正式開(kāi)班,歡迎搶座) 作者:?liyuechun 簡(jiǎn)介:JavaScript30 是 Wes Bos 推出的一個(gè) 30 天挑戰(zhàn)。項(xiàng)目免費(fèi)提供了 30 個(gè)視頻教程、30 個(gè)挑戰(zhàn)的起始文檔和 3...

    joy968 評(píng)論0 收藏0
  • Python爬蟲(chóng)建站入門(mén)手記——從零開(kāi)始建立采集站點(diǎn)(一:環(huán)境搭建)

    摘要:從今天起,我將在這里更新一個(gè)系列的簡(jiǎn)單爬蟲(chóng)到建立網(wǎng)站的實(shí)踐手記。內(nèi)容將會(huì)從最簡(jiǎn)單的開(kāi)始,環(huán)境搭建,基本爬蟲(chóng),入庫(kù),用建立可供用戶訪問(wèn)的網(wǎng)站,網(wǎng)站部署。第一部分,買,裝環(huán)境。我們爬蟲(chóng)站點(diǎn)的所有文件都放在里面。 從今天起,我將在這里更新一個(gè)系列的python簡(jiǎn)單爬蟲(chóng)到建立網(wǎng)站的實(shí)踐手記。 內(nèi)容將會(huì)從最簡(jiǎn)單的開(kāi)始,環(huán)境搭建,基本爬蟲(chóng),入庫(kù),用Django建立可供用戶訪問(wèn)的網(wǎng)站,網(wǎng)站部署。 ...

    HackerShell 評(píng)論0 收藏0

發(fā)表評(píng)論

0條評(píng)論

最新活動(dòng)
閱讀需要支付1元查看
<