成人免费xxxxx在线视频软件_久久精品久久久_亚洲国产精品久久久_天天色天天色_亚洲人成一区_欧美一级欧美三级在线观看

數據挖掘從入門到放棄之決策樹

大數據 數據分析
決策樹是直觀運用概率分析的樹形分類器,是很常用的分類方法,屬于監管學習,決策樹分類過程是從根節點開始,根據特征屬性值選擇輸出分支,直到到達葉子節點,將葉子節點存放的類別作為決策結果。

[[433731]]

決策樹算法理解

決策樹是直觀運用概率分析的樹形分類器,是很常用的分類方法,屬于監管學習,決策樹分類過程是從根節點開始,根據特征屬性值選擇輸出分支,直到到達葉子節點,將葉子節點存放的類別作為決策結果。

比如說買瓜的時候,根據瓜的某些特征屬性直觀判斷瓜的好壞,下圖依次根據紋理清晰度、根蒂、色澤、觸感4個進行分類,生活中我們會將某個最重要或最明顯的分類屬性放在第一位,然后是次重要屬性,這很符合我們平常的判斷思維,這就是決策樹!

在特征屬性非常大的時候,就出現了首選哪個特征屬性進行分類?如何剪枝?分類的層次是多少?....系列問題,這些就是決策樹構建的核心問題,而且不可能再通過生活直覺判,這時候就要運用數學思維。根據上面問題的不同解決方案,決策樹又分為了ID3(熵增益)、C4.5(熵增益率)、CART幾種同類算法。

熵增益(ID3)

通信層面,信息熵衡量信息的不確定性,信息熵越大表明信息越不準確,可以用信息熵的減少值來衡量信息的價值。在決策樹模型中把信息確定性叫做熵增益,有了熵增益后,我們就可以根據熵增益來判斷特征值的重要程度,從而選取最重要的特征作為第一次切分,再根據相同的方法用其他特征進行切分,直到得到得到每個劃分的葉子節點。信息熵的定義是:

以某個特征屬性值切分后子集熵的和稱為條件A下的熵,也叫做條件熵,可以如下表示:

分類前的信息熵減去條件熵,得到熵增益:

比如說有以下數據集(相親結果表lol..)

6條數據中相中(4個)與不想中(2個),暫且不關系如何進行分類,我們首先計算這個分類結果的信息熵:

其次,我們計算“富”屬性的條件信息熵,6條數據中“富”與否各半,其中3個“富”都被分類到“相中”,3個“不富”都被分到“不想中”:

兩者之差就是我們想要得到的熵增益:

計算各個特征屬性的熵增益后,比較哪個熵增益最大,就選擇該屬性做第一分類特征。

熵增益率(C4.5)

按照熵增益最大準則的ID3算法,遇到全部都是非重復值(類似ID)屬性容易造成過擬合,因為如果根據ID這個屬性進行劃分發現此時的熵增益是最大的:

信息增益率定義為:

其中info就是該特征屬性中,屬性值的信息熵:

按照上面的例子計算,“富”的增益率為:

剪枝處理

當訓練數據量大、特征數量較多時構建的決策樹過于龐大時,可能對訓練集依賴過多,也就是對訓練數據過度擬合。從訓練數據集上看,擬合效果很好,但對于測試數據集或者新的實例來說,并不一定能夠準確預測出其結果。因此,對于決策樹的構建還需要最后一步--決策樹的修剪,主要分為2種:預剪枝(Pre-Pruning)和后剪枝(Post-Pruning),這里先不講。

鳶尾花(iris)分類模型

Iris 鳶尾花數據集是一個經典數據集,在統計學習和機器學習領域都經常被用作示例。數據集內包含 3 類共 150 條記錄,每類各 50 個數據,每條記錄都有 4 項特征:花萼長度、花萼寬度、花瓣長度、花瓣寬度,可以通過這4個特征預測鳶尾花卉屬于(iris-setosa, iris-versicolour, iris-virginica)中的哪一品種,數據集地址:https://github.com/yezonggang/iris

  1. import pandas as pd 
  2. from pandas import DataFrame 
  3. import numpy as np 
  4. import matplotlib.pyplot as plt 
  5. %matplotlib inline 
  6. import seaborn as sns 
  7. from sklearn.tree import DecisionTreeClassifier 
  8. from sklearn import metrics  
  9.   
  10. baseUrl="C:\\Users\\71781\\Desktop\\2020\\ML-20200422\\iris\\" 
  11. iris_df=pd.read_csv(baseUrl+"iris.csv"
  12. iris_df.head() 
  13. iris_df.describe() 

數據分布探索:

  1. # pandas 自帶的散點圖 
  2. iris_df.plot(kind="scatter", x="Sepal.Length", y="Sepal.Width"

  1. # seaborn 的聯合分布圖 
  2. sns.jointplot(x="Sepal.Length", y="Sepal.Width", data=iris_df, height=5) 

  1. # 上面的兩個散點圖并不能顯示每一個點所屬的類別 
  2. # 所以,接下來用 seaborn 的 FacetGrid 函數按照Species花的種類來在散點圖上標上不同的顏色,hue英文是色彩的意思。 
  3. sns.FacetGrid(iris_df, hue="Species", height=5).map(plt.scatter, "Sepal.Length""Sepal.Width").add_legend() 

  1. # 通過箱線圖來查看單個特征的分布 
  2. # 對 Numerical Variable,可以用 Box Plot 來直觀地查看不同花類型的分布。 
  3. sns.boxplot(x="Species", y="Sepal.Length", data=iris_df) 

  1. # 下面的操作,將每一個Species所屬的點加到對應的位置,加上散點圖, 
  2. # 振動值jitter=True 使各個散點分開,要不然會是一條直線 
  3. # 注意此處要將坐標圖用ax先保存起來,這樣第二次才會在原來的基礎上加上散點圖 
  4. ax = sns.boxplot(x="Species", y="Sepal.Length", data=iris_df) 
  5. ax = sns.stripplot(x="Species", y="Sepal.Length", data=iris_df, jitter=True, edgecolor="gray"

  1. # violinplot 小提琴圖,查看密度分布,結合了前面的兩個圖,并且進行了簡化 
  2. # 數據越稠密越寬,越稀疏越窄 
  3. sns.violinplot(x="Species", y="Sepal.Length", data=iris_df, height=6) 
  4.  # sns.kdeplot == kernel density 核密度圖(單個變量) 
  5. sns.FacetGrid(iris_df, hue="Species", height=6).map(sns.kdeplot, "Sepal.Length").add_legend() 
  6.  # pairplot 任意兩個變量間的關系 
  7. sns.pairplot(iris_df, hue="Species", height=3) 

  1. # 模型構建比較簡單,關鍵是模型的調參 
  2. train_df=test_df=iris_df.sample(frac=0.8,replace=False, random_state=None) 
  3. train_X=train_df.drop(['Species'],axis=1) 
  4. train_Y=train_df['Species'
  5. # 由于么有提供建模數據集,所以我們隨機從樣本集中選擇40%的數據集 
  6. replace=False 無放回的抽取 
  7. # random-state 數據不能重復 
  8. test_df=iris_df.sample(frac=0.9,replace=False, random_state=None) 
  9. test_df.head() 
  10.   
  11. test_X=test_df.drop(['Species'],axis=1) 
  12. test_Y=test_df['Species'
  13.   
  14. model=DecisionTreeClassifier() 
  15. model.fit(train_X, train_Y) 
  16. prediction = model.predict(test_X) 
  17. print('The accuracy of the Decision Tree is: {0}'.format(metrics.accuracy_score(prediction,test_Y))) 

分類決策樹總共有12個參數可以自己調整,這么多參數一個個記起來太麻煩,我們可以把這些參數分成幾個類別:

1)分類策略:有兩個參數 ‘entropy’(熵) 和 ‘gini’(基尼系數)可選,默認為gini。

2)max_depth(樹的最大深度):默認為None,此時決策樹在建立子樹的時候不會限制子樹的深度。也可以設置具體的整數,一般來說,數據少或者特征少的時候可以不管這個值。如果模型樣本量多,特征也多的情況下,推薦限制這個最大深度,具體的取值取決于數據的分布。常用的可以取值10-100之間。

3)min_samples_split(分割內部節點所需的最小樣本數):意思就是只要在某個結點里有k個以上的樣本,這個節點才需要繼續劃分,這個參數的默認值為2,也就是說只要有2個以上的樣本被劃分在一個節點,如果這兩個樣本還可以細分,這個節點就會繼續細分

4)min_samples_leaf(葉子節點上的最小樣本數):當你劃分給某個葉子節點的樣本少于設定的個數時,這個葉子節點會被剪枝,這樣可以去除一些明顯異常的噪聲數據。默認為1,也就是說只有有兩個樣本類別不一樣,就會繼續劃分。如果是int,那么將min_samples_leaf視為最小數量。如果為float,則min_samples_leaf為分數,ceil(min _ samples _ leaf * n _ samples)為每個節點的最小樣本數。

本文轉載自微信公眾號「數據社」,可以通過以下二維碼關注。轉載本文請聯系數據社公眾號。

 

責任編輯:武曉燕 來源: 數據社
相關推薦

2021-11-03 06:57:42

數據線性邏輯

2022-03-28 11:00:34

JVMJava對象

2022-04-19 11:25:31

JVMZGC垃圾收集器

2017-08-04 14:28:40

決策樹隨機森林CART模型

2023-03-16 08:00:00

機器學習深度學習人工智能

2019-07-02 14:17:18

API網關網關流量

2022-11-11 08:00:00

決策樹機器學習監督學習

2017-03-25 20:30:15

2016-09-30 16:12:47

GBDT算法決策樹

2017-11-21 13:00:20

機器學習決策樹可視化

2017-12-25 11:15:06

JavaArray數組

2020-07-07 10:50:19

Python丄則表達文本

2019-05-15 09:00:00

決策樹機器學習人工智能

2018-02-02 15:50:07

決策樹Apache Spar數據

2022-12-21 14:39:35

機器學習案發決策樹

2025-04-22 02:00:00

芯片晶圓光刻機

2012-12-10 13:24:15

回歸分析數據挖掘

2024-07-30 12:10:22

2016-08-03 16:01:47

GitLinux開源

2022-01-17 08:52:32

CPUCPU工具顯卡
點贊
收藏

51CTO技術棧公眾號

主站蜘蛛池模板: 国产视频一区二区在线观看 | 美女黄色在线观看 | 欧美日韩国产精品一区 | 国产又爽又黄的视频 | 成人免费视频网站在线观看 | 在线免费国产 | 噜噜噜噜狠狠狠7777视频 | 国产精品国产三级国产aⅴ浪潮 | 天天操天天干天天曰 | 色999视频 | 欧美一级大黄 | 国产综合久久 | 欧美xxxx色视频在线观看免费 | 黄色一级视频免费 | 九九热在线免费视频 | 国产精品久久久久久久久久久久久 | 国产在线观 | 国产精品污www一区二区三区 | 国产精品揄拍一区二区久久国内亚洲精 | 成人欧美日韩一区二区三区 | av官网在线| 成年视频在线观看 | 国产999精品久久久久久绿帽 | 久久久亚洲成人 | 欧美精品综合在线 | 日韩成人一区二区 | 精品久久精品 | 亚洲第一黄色网 | 国产精品毛片无码 | 亚洲免费三区 | 日本一区视频在线观看 | 精品国产99| 国产东北一级毛片 | 国产精品69毛片高清亚洲 | 久久久久久久一区 | 欧美视频在线看 | 精品一区二区三区不卡 | 亚洲一区二区三区在线 | 国产精品久久久精品 | 国产在线视频一区二区 | 亚洲精品成人网 |