亚洲中字慕日产2020,大陆极品少妇内射AAAAAA,无码av大香线蕉伊人久久,久久精品国产亚洲av麻豆网站

資訊專欄INFORMATION COLUMN

手把手教你寫電商爬蟲-第五課 京東商品評(píng)論爬蟲 一起來對(duì)付反爬蟲

forsigner / 865人閱讀

摘要:和前面幾節(jié)課類似的分析這節(jié)課就不做了,對(duì)于分頁,請求什么的,大家可以直接參考前面的四節(jié)課,這一刻主要特別的是,我們在采集商品的同時(shí),會(huì)將京東的商品評(píng)價(jià)采集下來。

系列教程:

手把手教你寫電商爬蟲-第一課 找個(gè)軟柿子捏捏

手把手教你寫電商爬蟲-第二課 實(shí)戰(zhàn)尚妝網(wǎng)分頁商品采集爬蟲

手把手教你寫電商爬蟲-第三課 實(shí)戰(zhàn)尚妝網(wǎng)AJAX請求處理和內(nèi)容提取

手把手教你寫電商爬蟲-第四課 淘寶網(wǎng)商品爬蟲自動(dòng)JS渲染

四節(jié)課過去了,咱們在爬蟲界也都算見過世面的人,現(xiàn)在再來一些什么ajax加載之類的小魚小蝦應(yīng)該不在話下了,即使是淘寶這種大量的ajax,我們祭上我們的核武器,也輕松應(yīng)對(duì)了,這一課主要是來看看除了技術(shù)上的頁面處理外,我們還會(huì)遇上更棘手的問題,就是反爬蟲,當(dāng)然現(xiàn)在有各種各樣的反爬蟲,今天就先介紹最簡單的一種:限制IP。

今天咱們的對(duì)手依然是業(yè)界大佬,馬云最忌憚的男人,宅男心中愛恨交錯(cuò)的對(duì)象 - JD.COM

也不用我安利,特別是程序員,有幾個(gè)沒給京東送過錢的。廢話不多說,先上工具:

1、神箭手云爬蟲,2、Chrome瀏覽器 3、Chrome的插件XpathHelper 不知道是干嘛的同學(xué)請移步第一課

打開網(wǎng)站瞅一眼:

好了,相信我,截這張圖絕對(duì)不是在虐你們這些單身狗。我們就是科學(xué)的研究一下這個(gè)頁面,沒啥特別的:大廠風(fēng),硬仗準(zhǔn)備。

先來挑一個(gè)分類吧,這次挑一個(gè)大家都熟悉的互聯(lián)網(wǎng)書類:

http://search.jd.com/Search?keyword=Python&enc=utf-8&book=y&wq=Python&pvid=33xo9lni.p4a1qb

你們的最愛,python從入門到放棄的全部資料。

和前面幾節(jié)課類似的分析這節(jié)課就不做了,對(duì)于分頁,ajax請求什么的,大家可以直接參考前面的四節(jié)課,這一刻主要特別的是,我們在采集商品的同時(shí),會(huì)將京東的商品評(píng)價(jià)采集下來。同時(shí)呢,我們也探討下該如何應(yīng)對(duì)京東對(duì)IP的限制,OK,先直接上代碼:

var configs = {  
    domains: ["search.jd.com","item.jd.com","club.jd.com"],  
    scanUrls: ["http://search.jd.com/Search?keyword=Python&enc=utf-8&qrst=1&rt=1&stop=1&book=y&vt=2&page=1&s=1&click=0"],  
    contentUrlRegexes: ["http://item.jd.com/d+.html"],  
    helperUrlRegexes: ["http://search.jd.com/Search?keyword=Python&enc=utf-8&qrst=1&rt=1&stop=1&book=y&vt=2&page=d+&s=1&click=0"],//可留空  
    fields: [  
        {  
            // 第一個(gè)抽取項(xiàng)  
            name: "title",  
            selector: "http://div[@id="name"]/h1",//默認(rèn)使用XPath  
            required: true //是否不能為空  
        },  
        {  
            // 第一個(gè)抽取項(xiàng)  
            name: "productid",  
            selector: "http://div[contains(@class,"fl")]/span[2]",//默認(rèn)使用XPath  
            required: true //是否不能為空  
        },  
        {  
            name: "comments",  
            sourceType: SourceType.AttachedUrl,  
            attachedUrl: "http://club.jd.com/productpage/p-{productid}-s-0-t-3-p-0.html",  
            selectorType: SelectorType.JsonPath,  
            selector: "$.comments",  
            repeated: true,  
            children:[  
                {  
                    name: "com_content",  
                    selectorType: SelectorType.JsonPath,  
                    selector: "$.content"  
                },  
                {  
                    name: "com_nickname",  
                    selectorType: SelectorType.JsonPath,  
                    selector: "$.nickname"  
                },  
            ]  
        }  
    ]  
};  
configs.onProcessHelperUrl = function(url, content, site){  
    if(!content.indexOf("抱歉,沒有找到")){  
        var currentPage = parseInt(url.substring(url.indexOf("&page=") + 6));  
        if(currentPage == 0){  
            currentPage = 1;  
        }  
        var page = currentPage + 2;  
        var nextUrl = url.replace("&page=" + currentPage, "&page=" + page);  
        site.addUrl(nextUrl);  
    }  
    return true;  
};  
var crawler = new Crawler(configs);  
crawler.start();  

這里主要給大家講一下這個(gè)評(píng)論的配置,由于評(píng)論是多項(xiàng),且評(píng)論還有子項(xiàng),在框架中,是通過children關(guān)鍵字來配置的。具體參照代碼既可,我們可以在子項(xiàng)中在定義不同的字段,像這里的comments抽取項(xiàng)會(huì)有content和nickname兩個(gè)子抽取項(xiàng),分別對(duì)應(yīng)的是評(píng)論的內(nèi)容和昵稱。

這里是一個(gè)簡化的版本,由于京東頁面相對(duì)很復(fù)雜,我們在抽取評(píng)論的時(shí)候,只抽取前一部分評(píng)論,當(dāng)然我們還可以拿到更多的信息,包括評(píng)論數(shù),評(píng)論人的等級(jí)等等,這里大家就自行探索吧。

最后,由于京東會(huì)對(duì)IP進(jìn)行封鎖,雖然說神箭手會(huì)自動(dòng)分布式開啟爬蟲,不過依然扛不住京東大叔的封鎖,因此這里需要通過接入代理IP解決這樣的問題,類似開啟js渲染,爬取速度會(huì)大大下降,需要大家耐心等待結(jié)果嘍,代碼如下:

configs.enableProxy = true;  

大功告成,開啟爬蟲,喝杯咖啡,京東商品的評(píng)論就可以看到啦:

評(píng)論因?yàn)槭菙?shù)字,因此會(huì)存儲(chǔ)的時(shí)候,會(huì)直接存儲(chǔ)成json格式:

對(duì)爬蟲感興趣的童鞋可以加qq群討論:342953471。

文章版權(quán)歸作者所有,未經(jīng)允許請勿轉(zhuǎn)載,若此文章存在違規(guī)行為,您可以聯(lián)系管理員刪除。

轉(zhuǎn)載請注明本文地址:http://www.ezyhdfw.cn/yun/37939.html

相關(guān)文章

  • 把手你寫電商爬蟲-五課 京東商品評(píng)論爬蟲 起來對(duì)付爬蟲

    摘要:和前面幾節(jié)課類似的分析這節(jié)課就不做了,對(duì)于分頁,請求什么的,大家可以直接參考前面的四節(jié)課,這一刻主要特別的是,我們在采集商品的同時(shí),會(huì)將京東的商品評(píng)價(jià)采集下來。 系列教程: 手把手教你寫電商爬蟲-第一課 找個(gè)軟柿子捏捏 手把手教你寫電商爬蟲-第二課 實(shí)戰(zhàn)尚妝網(wǎng)分頁商品采集爬蟲 手把手教你寫電商爬蟲-第三課 實(shí)戰(zhàn)尚妝網(wǎng)AJAX請求處理和內(nèi)容提取 手把手教你寫電商爬蟲-第四課 淘寶網(wǎng)商品爬...

    jsummer 評(píng)論0 收藏0
  • 互聯(lián)網(wǎng)金融爬蟲怎么寫-第課 p2p網(wǎng)貸爬蟲(XPath入門)

    摘要:之前寫了一個(gè)電商爬蟲系列的文章,簡單的給大家展示了一下爬蟲從入門到進(jìn)階的路徑,但是作為一個(gè)永遠(yuǎn)走在時(shí)代前沿的科技工作者,我們從來都不能停止。金融數(shù)據(jù)實(shí)在是價(jià)值大,維度多,來源廣。由于也是一種,因此通常來說,在中抽取某個(gè)元素是通過來做的。 相關(guān)教程: 手把手教你寫電商爬蟲-第一課 找個(gè)軟柿子捏捏 手把手教你寫電商爬蟲-第二課 實(shí)戰(zhàn)尚妝網(wǎng)分頁商品采集爬蟲 手把手教你寫電商爬蟲-第三課 實(shí)戰(zhàn)...

    kk_miles 評(píng)論0 收藏0
  • 互聯(lián)網(wǎng)金融爬蟲怎么寫-第課 p2p網(wǎng)貸爬蟲(XPath入門)

    摘要:之前寫了一個(gè)電商爬蟲系列的文章,簡單的給大家展示了一下爬蟲從入門到進(jìn)階的路徑,但是作為一個(gè)永遠(yuǎn)走在時(shí)代前沿的科技工作者,我們從來都不能停止。金融數(shù)據(jù)實(shí)在是價(jià)值大,維度多,來源廣。由于也是一種,因此通常來說,在中抽取某個(gè)元素是通過來做的。 相關(guān)教程: 手把手教你寫電商爬蟲-第一課 找個(gè)軟柿子捏捏 手把手教你寫電商爬蟲-第二課 實(shí)戰(zhàn)尚妝網(wǎng)分頁商品采集爬蟲 手把手教你寫電商爬蟲-第三課 實(shí)戰(zhàn)...

    jlanglang 評(píng)論0 收藏0
  • 把手你寫電商爬蟲-第四課 淘寶網(wǎng)商品爬蟲自動(dòng)JS渲染

    摘要:老規(guī)矩,爬之前首先感謝淘寶公布出這么多有價(jià)值的數(shù)據(jù),才讓我們這些爬蟲們有東西可以搜集啊,不過淘寶就不用我來安利了廣大剁手黨相信睡覺的時(shí)候都能把網(wǎng)址打出來吧。 系列教程: 手把手教你寫電商爬蟲-第一課 找個(gè)軟柿子捏捏 手把手教你寫電商爬蟲-第二課 實(shí)戰(zhàn)尚妝網(wǎng)分頁商品采集爬蟲 手把手教你寫電商爬蟲-第三課 實(shí)戰(zhàn)尚妝網(wǎng)AJAX請求處理和內(nèi)容提取 都已經(jīng)三節(jié)課了,大家活動(dòng)活動(dòng)手腳,咱們開始一場...

    Tecode 評(píng)論0 收藏0

發(fā)表評(píng)論

0條評(píng)論

最新活動(dòng)
閱讀需要支付1元查看
<