亚洲中字慕日产2020,大陆极品少妇内射AAAAAA,无码av大香线蕉伊人久久,久久精品国产亚洲av麻豆网站

資訊專欄INFORMATION COLUMN

python在Scikit-learn中用決策樹和隨機(jī)森林預(yù)測NBA獲勝者

learning / 3032人閱讀

摘要:在本文中,我們將以的決策樹和隨機(jī)森林預(yù)測獲勝者。用決策樹和隨機(jī)森林預(yù)測獲勝者導(dǎo)入數(shù)據(jù)集并解析日期導(dǎo)入熊貓作為。這將幫助我們查看決策樹分類器的預(yù)測是否正確?;煜仃囷@示了我們決策樹的正確和不正確的分類。

在本文中,我們將以Scikit-learn的決策樹和隨機(jī)森林預(yù)測NBA獲勝者。美國國家籃球協(xié)會(NBA)是北美主要的男子職業(yè)籃球聯(lián)賽,被廣泛認(rèn)為是首屈一指的男子職業(yè)籃球聯(lián)賽在世界上。它有30個團(tuán)隊(duì)(美國29個,加拿大1個)。

在 常規(guī)賽期間,每支球隊(duì)打82場比賽,每場41場。一支球隊(duì)每年會有四次面對對手(16場比賽)。每個小組在其四次(24場比賽)中的其他兩個小組中的六個小組中進(jìn)行比賽,其余四個小組三次(12場)進(jìn)行比賽。最后,每個隊(duì)都會在另一場比賽中兩次參加所有的球隊(duì)(30場比賽)。

用決策樹和隨機(jī)森林預(yù)測NBA獲勝者

#導(dǎo)入數(shù)據(jù)集并解析日期導(dǎo)入熊貓作為pd df = pd 。read_csv (“NBA_2017_regularGames.csv” ,parse_dates = [ “Date” ])

從游戲玩法的描述中,我們可以計(jì)算機(jī)會率。在每場比賽中,主隊(duì)和客隊(duì)都有可能贏得一半時間

預(yù)測類

在下面的代碼中,我們將指定我們的分類類。這將幫助我們查看決策樹分類器的預(yù)測是否正確。如果主隊(duì)獲勝,我們將指定我們的等級為1,如果訪客隊(duì)在另一個名為“主隊(duì)贏”的列中獲勝,我們將指定為0。

df [ “主隊(duì)獲勝” ] = df [ “訪客積分” ] < df [ “主隊(duì)積分” ]


主隊(duì)勝率:58.4%

#該數(shù)組現(xiàn)在擁有scikit-learn可以讀取的格式的類值。

特征工程

我們將創(chuàng)建以下功能來幫助我們預(yù)測NBA 2017年的獲勝者。

無論是來訪者還是主隊(duì)都贏得了最后一場比賽。

一般認(rèn)為哪個團(tuán)隊(duì)更好?

scikit-learn軟件包實(shí)現(xiàn)CART(分類和回歸樹)算法作為其默認(rèn) 決策樹類

決策樹實(shí)現(xiàn)提供了一種方法來停止構(gòu)建樹,以防止過度使用以下選項(xiàng):

? min_samples_split: can create arbitrary small leaves in order to create a new node in the decision tree? min_samples_leaf: guarantees a minimum number of samples in a leaf resultingfrom a node

建議使用min_samples_split或min_samples_leaf來控制葉節(jié)點(diǎn)處的采樣數(shù)。一個非常小的數(shù)字通常意味著樹將過度擬合,而大量的數(shù)據(jù)將阻止樹學(xué)習(xí)數(shù)據(jù)。

決策的另一個參數(shù)是創(chuàng)建決策的標(biāo)準(zhǔn)?;岬牟患兒托畔⑹找媸莾煞N流行的:

? Gini impurity: measures how often a decision node would incorrectly predict a sample"s class?`Information gain: indicate how much extra information is gained by the decision node

功能選擇

我們通過指定我們希望使用的列并使用數(shù)據(jù)框視圖的values參數(shù),從數(shù)據(jù)集中提取要素以與我們的scikit-learn的DecisionTreeClassifier一起使用。我們使用cross_val_score函數(shù)來測試結(jié)果。

X_features_only = df [[ "Home Win Streak" ,"Visitor Win Streak" ,"Home Team Ranks Higher" ,"Home Team Won Last" ,"Home Last Win" ,"Visitor Last Win" ]]  


結(jié)果準(zhǔn)確性:56.0%

通過選擇我們制作的功能,精確度下降到56%。是否有可能通過添加更多功能來提高準(zhǔn)確性。

混淆矩陣顯示了我們決策樹的正確和不正確的分類。對角線1,295分別表示主隊(duì)的真正負(fù)數(shù)和真正的正數(shù)。左下角的1表示假陰性的數(shù)量。而右上角的195,誤報(bào)的數(shù)量。我們也可以查看大約0.602的準(zhǔn)確性分?jǐn)?shù),這表明決策樹模型已經(jīng)將60.2%的樣本正確地歸類為主隊(duì)獲勝與否。

導(dǎo)入pydotplus 圖

出于探索的目的,測試較少數(shù)量的變量以便首先獲得決策樹輸出的感覺會很有幫助。最終的樹開始于X的分裂,我們的第一個解釋變量,主隊(duì)隊(duì)列更高。如果主隊(duì)排名較高的值小于4.5,那么主隊(duì)就會松動,因?yàn)槲覀兊亩兞烤哂刑摷俚戎堤潛p值和真實(shí)同贏。

文章版權(quán)歸作者所有,未經(jīng)允許請勿轉(zhuǎn)載,若此文章存在違規(guī)行為,您可以聯(lián)系管理員刪除。

轉(zhuǎn)載請注明本文地址:http://www.ezyhdfw.cn/yun/41883.html

相關(guān)文章

  • 隨機(jī)森林算法入門(python)

    摘要:翻譯自昨天收到推送了一篇介紹隨機(jī)森林算法的郵件,感覺作為介紹和入門不錯,就順手把它翻譯一下。隨機(jī)森林引入的隨機(jī)森林算法將自動創(chuàng)建隨機(jī)決策樹群?;貧w隨機(jī)森林也可以用于回歸問題。結(jié)語隨機(jī)森林相當(dāng)起來非常容易。 翻譯自:http://blog.yhat.com/posts/python-random-forest.html 昨天收到y(tǒng)hat推送了一篇介紹隨機(jī)森林算法的郵件,感覺作為介紹和入門...

    張遷 評論0 收藏0
  • ApacheCN 人工智能知識樹 v1.0

    摘要:貢獻(xiàn)者飛龍版本最近總是有人問我,把這些資料看完一遍要用多長時間,如果你一本書一本書看的話,的確要用很長時間。為了方便大家,我就把每本書的章節(jié)拆開,再按照知識點(diǎn)合并,手動整理了這個知識樹。 Special Sponsors showImg(https://segmentfault.com/img/remote/1460000018907426?w=1760&h=200); 貢獻(xiàn)者:飛龍版...

    劉厚水 評論0 收藏0
  • 如何Python中從零開始實(shí)現(xiàn)隨機(jī)森林

    摘要:在本教程中,您將了解如何在中從頭開始實(shí)現(xiàn)隨機(jī)森林算法。如何將隨機(jī)森林算法應(yīng)用于預(yù)測建模問題。如何在中從頭開始實(shí)現(xiàn)隨機(jī)森林圖片來自,保留部分權(quán)利。這被稱為隨機(jī)森林算法。如何更新決策樹的創(chuàng)建以適應(yīng)隨機(jī)森林過程。 歡迎大家前往云+社區(qū),獲取更多騰訊海量技術(shù)實(shí)踐干貨哦~ 決策樹可能會受到高度變異的影響,使得結(jié)果對所使用的特定測試數(shù)據(jù)而言變得脆弱。 根據(jù)您的測試數(shù)據(jù)樣本構(gòu)建多個模型(稱為套袋)可...

    MasonEast 評論0 收藏0

發(fā)表評論

0條評論

最新活動
閱讀需要支付1元查看
<