成人免费xxxxx在线视频软件_久久精品久久久_亚洲国产精品久久久_天天色天天色_亚洲人成一区_欧美一级欧美三级在线观看

數(shù)據(jù)挖掘的10大算法我用大白話講清楚了,新手一看就懂

新聞 大數(shù)據(jù) 算法
數(shù)據(jù)挖掘主要分為分類算法,聚類算法和關(guān)聯(lián)規(guī)則三大類,這三類基本上涵蓋了目前商業(yè)市場對算法的所有需求。

 一個優(yōu)秀的數(shù)據(jù)分析師,除了要掌握基本的統(tǒng)計學(xué)、數(shù)據(jù)庫、數(shù)據(jù)分析方法、思維、數(shù)據(jù)分析工具技能之外,還需要掌握一些數(shù)據(jù)挖掘的思想,幫助我們挖掘出有價值的數(shù)據(jù),這也是數(shù)據(jù)分析專家和一般數(shù)據(jù)分析師的差距之一。

數(shù)據(jù)挖掘的10大算法我用大白話講清楚了,新手一看就懂

數(shù)據(jù)挖掘主要分為分類算法,聚類算法和關(guān)聯(lián)規(guī)則三大類,這三類基本上涵蓋了目前商業(yè)市場對算法的所有需求。而這三類里又包含許多經(jīng)典算法。市面上很多關(guān)于數(shù)據(jù)挖掘算法的介紹深奧難懂,今天就給大家用簡單的大白話來介紹數(shù)據(jù)挖掘十大經(jīng)典算法原理,幫助大家快速理解。

算法分類

連接分析:PageRank

關(guān)聯(lián)分析:Apriori

分類算法:C4.5,樸素貝葉斯,SVM,KNN,Adaboost,CART

聚類算法:K-Means,EM

 一、PageRank

當(dāng)一篇論文被引用的次數(shù)越多,證明這篇論文的影響力越大。

一個網(wǎng)頁的入口越多,入鏈越優(yōu)質(zhì),網(wǎng)頁的質(zhì)量越高。

原理

網(wǎng)頁影響力=阻尼影響力+所有入鏈集合頁面的加權(quán)影響力之和

  • 一個網(wǎng)頁的影響力:所有入鏈的頁面的加權(quán)影響力之和。
  • 一個網(wǎng)頁對其他網(wǎng)頁的影響力貢獻為:自身影響力/出鏈數(shù)量。
  • 用戶并不都是按照跳轉(zhuǎn)鏈接的方式來上網(wǎng),還有其他的方式,比如直接輸入網(wǎng)址訪問。
  • 所以需要設(shè)定阻尼因子,代表了用戶按照跳轉(zhuǎn)鏈接來上網(wǎng)的概率。

比喻說明

1、微博

一個人的微博粉絲數(shù)不一定等于他的實際影響力,還需要看粉絲的質(zhì)量如何。

如果是僵尸粉沒什么用,但如果是很多大V或者明星關(guān)注,影響力很高。

2、店鋪的經(jīng)營

顧客比較多的店鋪質(zhì)量比較好,但是要看看顧客是不是托。

3、興趣

在感興趣的人或事身上投入了相對多的時間,對其相關(guān)的人事物也會投入一定的時間。那個人或事,被關(guān)注的越多,它的影響力/受眾也就越大。

關(guān)于阻尼因子

1、通過你的鄰居的影響力來評判你的影響力,但是如果不能通過鄰居來訪問你,并不代表你沒有影響力,因為可以直接訪問你,所以引入阻尼因子的概念。

2、海洋除了有河流流經(jīng),還有雨水,但是下雨是隨機的。

3、提出阻尼系數(shù),還是為了解決某些網(wǎng)站明明存在大量出鏈(入鏈),但是影響力卻非常大的情形。

  • 出鏈例子:hao123導(dǎo)航網(wǎng)頁,出鏈極多入鏈極少。
  • 入鏈例子:百度谷歌等搜索引擎,入鏈極多出鏈極少。

二、Apriori(關(guān)聯(lián)分析)

關(guān)聯(lián)關(guān)系挖掘,從消費者交易記錄中發(fā)掘商品與商品之間的關(guān)聯(lián)關(guān)系。

原理

1.支持度

某個商品組合出現(xiàn)的次數(shù)與總次數(shù)之間的比例。

5次購買,4次買了牛奶,牛奶的支持度為4/5=0.8。

5次購買,3次買了牛奶+面包,牛奶+面包的支持度為3/5=0.6。

2.置信度

購買了商品A,有多大概率購買商品B,A發(fā)生的情況下B發(fā)生的概率是多少。

買了4次牛奶,其中2次買了啤酒,(牛奶->啤酒)的置信度為2/4=0.5。

買了3次啤酒,其中2次買了牛奶,(啤酒->牛奶)的置信度為2/3-0.67。

3.提升度

衡量商品A的出現(xiàn),對商品B的出現(xiàn) 概率提升的程度。

提升度(A->B)=置信度(A->B)/支持度(B)。

提升度>1,有提升;提升度=1,無變化;提升度<1,下降。

4.頻繁項集

項集:可以是單個商品,也可以是商品組合。

頻繁項集是支持度大于最小支持度(Min Support)的項集。

計算過程

1、從K=1開始,篩選頻繁項集。

2、在結(jié)果中,組合K+1項集,再次篩選。

3、循環(huán)1,2步。直到找不到結(jié)果為止,K-1項集的結(jié)果就是最終結(jié)果。

擴展:FP-Growth 算法

Apriori 算法需要多次掃描數(shù)據(jù)庫,性能低下,不適合大數(shù)據(jù)量。

FP-growth算法,通過構(gòu)建 FP 樹的數(shù)據(jù)結(jié)構(gòu),將數(shù)據(jù)存儲在 FP 樹中,只需要在構(gòu)建 FP 樹時掃描數(shù)據(jù)庫兩次,后續(xù)處理就不需要再訪問數(shù)據(jù)庫了。

比喻說明:啤酒和尿不濕擺在一起銷售

沃爾瑪通過數(shù)據(jù)分析發(fā)現(xiàn),美國有嬰兒的家庭中,一般是母親在家照顧孩子,父親去超市買尿不濕。

父親在購買尿不濕時,常常會順便搭配幾瓶啤酒來犒勞自己,于是,超市嘗試推出了將啤酒和尿不濕擺在一起的促銷手段,這個舉措居然使尿不濕和啤酒的銷量都大幅增加。

三、AdaBoost

原理

簡單的說,多個弱分類器訓(xùn)練成為一個強分類器。

將一系列的弱分類器以不同的權(quán)重比組合作為最終分類選擇。

計算過程

1、初始化基礎(chǔ)權(quán)重。

2、獎權(quán)重矩陣,通過已的分類器計算錯誤率,選擇錯誤率最低的為最優(yōu)分類器。

3、通過分類器權(quán)重公式,減少正確樣本分布,增加錯誤樣本分布,得到新的權(quán)重矩陣和當(dāng)前k輪的分類器權(quán)重。

4、將新的權(quán)重矩陣,帶入上面的步驟2和3,重新計算權(quán)重矩陣。

5、迭代N輪,記錄每一輪的最終分類器權(quán)重,得到強分類器。

比喻說明

1、利用錯題提升學(xué)習(xí)效率

做正確的題,下次少做點,反正都會了。

做錯的題,下次多做點,集中在錯題上。

隨著學(xué)習(xí)的深入,做錯的題會越來越少。

2、合理跨界提高盈利

蘋果公司,軟硬結(jié)合,占據(jù)了大部分的手機市場利潤,兩個領(lǐng)域的知識結(jié)合起來產(chǎn)生新收益。

四、C4.5(決策樹)

決策就是對于一個問題,有多個答案,選擇答案的過程就是決策。

C4.5算法是用于產(chǎn)生決策樹的算法,主要用于分類。

C4.5使用信息增益率做計算(ID3算法使用信息增益做計算)。

原理

C4.5選擇最有效的方式對樣本集進行分裂,分裂規(guī)則是分析所有屬性的信息增益率。

信息增益率越大,意味著這個特征分類的能力越強,我們就要優(yōu)先選擇這個特征做分類。

比喻說明:挑西瓜。

拿到一個西瓜,先判斷它的紋路,如果很模糊,就認(rèn)為這不是好瓜,如果它清晰,就認(rèn)為它是一個好瓜,如果它稍稍模糊,就考慮它的密度,密度大于某個值,就認(rèn)為它是好瓜,否則就是壞瓜。

 五、CART(決策樹)

CART:Classification And Regression Tree,中文叫分類回歸樹,即可以做分類也可以做回歸。

什么是分類樹、回歸樹?

分類樹:處理離散數(shù)據(jù),也就是數(shù)據(jù)種類有限的數(shù)據(jù),輸出的是樣本的類別 。

回歸樹:可以對連續(xù)型的數(shù)值進行預(yù)測,輸出的是一個數(shù)值,數(shù)值在某個區(qū)間內(nèi)都有取值的可能。

回歸問題和分類問題的本質(zhì)一樣,都是針對一個輸入做出一個輸出預(yù)測,其區(qū)別在于輸出變量的類型。

原理

CART分類樹

與C4.5算法類似,只是屬性選擇的指標(biāo)是基尼系數(shù)。

基尼系數(shù)反應(yīng)了樣本的不確定度,基尼系數(shù)越小,說明樣本之間的差異性小,不確定程度低。

分類是一個不確定度降低的過程,CART在構(gòu)造分類樹的時候會選擇基尼系數(shù)最小的屬性作為屬性的劃分。

CART 回歸樹

采用均方誤差或絕對值誤差為標(biāo)準(zhǔn),選取均方誤差或絕對值誤差最小的特征。

比喻說明

分類:預(yù)測明天是陰、晴還是雨。

回歸:預(yù)測明天的氣溫是多少度。

 六、樸素貝葉斯(條件概率)

樸素貝葉斯是一種簡單有效的常用分類算法,計算未知物體出現(xiàn)的條件下各個類別出現(xiàn)的概率,取概率最大的分類。

數(shù)據(jù)挖掘的10大算法我用大白話講清楚了,新手一看就懂

原理

假設(shè)輸入的不同特征之間是獨立的,基于概率論原理,通過先驗概率P(A)、P(B)和條件概率推算出后概率出P(A|B)。

P(A):先驗概率,即在B事件發(fā)生之前,對A事件概率的一個判斷。

P(B|A):條件概率,事件 B 在另外一個事件 A 已經(jīng)發(fā)生條件下的發(fā)生概率。

P(A|B):后驗概率,即在B事件發(fā)生之后,對A事件概率的重新評估。

比喻說明:給病人分類。

數(shù)據(jù)挖掘的10大算法我用大白話講清楚了,新手一看就懂

給定一個新病人,是一個打噴嚏的建筑工人,計算他患感冒的概率。

七、SVM

SVM:Support Vector Machine,中文名為支持向量機,是常見的一種分類方法,最初是為二分類問題設(shè)計的,在機器學(xué)習(xí)中,SVM 是有監(jiān)督的學(xué)習(xí)模型。

什么是有監(jiān)督學(xué)習(xí)和無監(jiān)督學(xué)習(xí) ?

有監(jiān)督學(xué)習(xí):即在已有類別標(biāo)簽的情況下,將樣本數(shù)據(jù)進行分類。

無監(jiān)督學(xué)習(xí):即在無類別標(biāo)簽的情況下,樣本數(shù)據(jù)根據(jù)一定的方法進行分類,即聚類,分類好的類別需要進一步分析后,從而得知每個類別的特點。

原理

找到具有最小間隔的樣本點,然后擬合出一個到這些樣本點距離和最大的線段/平面。

硬間隔:數(shù)據(jù)是線性分布的情況,直接給出分類。

軟間隔:允許一定量的樣本分類錯誤。

核函數(shù):非線性分布的數(shù)據(jù)映射為線性分布的數(shù)據(jù)。

比喻說明

1.分隔桌上一堆紅球和籃球

用一根線將桌上的紅球和藍球分成兩部分。

2.分隔箱子里一堆紅球和籃球

用一個平面將箱子里的紅球和藍球分成兩部分。

八、KNN(聚類)

機器學(xué)習(xí)算法中最基礎(chǔ)、最簡單的算法之一,既能分類也能回歸,通過測量不同特征值之間的距離來進行分類。

原理

計算待分類物體與其他物體之間的距離,對于K個最近的鄰居,所占數(shù)量最多的類別,預(yù)測為該分類對象的類別。

計算步驟

1、根據(jù)場景,選取距離計算方式,計算待分類物體與其他物體之間的距離。

2、統(tǒng)計距離最近的K個鄰居。

3、對于K個最近的鄰居,所占數(shù)量最多的類別,預(yù)測為該分類對象的類別。

比喻說明:近朱者赤,近墨者黑。

 九、K-Means(聚類)

K-means是一個聚類算法,是無監(jiān)督學(xué)習(xí),生成指定K個類,把每個對象分配給距離最近的聚類中心。

數(shù)據(jù)挖掘的10大算法我用大白話講清楚了,新手一看就懂

原理

1.隨機選取K個點為分類中心點。

2.將每個點分配到最近的類,這樣形成了K個類。

3.重新計算每個類的中心點。比如都屬于同一個類別里面有10個點,那么新的中心點就是這10個點的中心點,一種簡單的方式就是取平均值。

比喻說明

1.選老大

大家隨機選K個老大,誰離得近,就是那個隊列的人(計算距離,距離近的人聚合在一起)。

隨著時間的推移,老大的位置在變化(根據(jù)算法,重新計算中心點),直到選出真正的中心老大(重復(fù),直到準(zhǔn)確率最高)。

2.Kmeans和Knn的區(qū)別

Kmeans開班選老大,風(fēng)水輪流轉(zhuǎn),直到選出最佳中心老大。

Knn小弟加隊伍,離那個班相對近,就是那個班的。

十、EM(聚類)

EM 的英文是 Expectation Maximization,所以 EM 算法也叫最大期望算法,也是聚類算法的一種。

EM和K-Means的區(qū)別:

  1. EM是計算概率,KMeans是計算距離。
  2. EM屬于軟聚類,同一樣本可能屬于多個類別;而K-Means屬于硬聚類,一個樣本只能屬于一個類別。所以前者能夠發(fā)現(xiàn)一些隱藏的數(shù)據(jù)。

原理

先估計一個大概率的可能參數(shù),然后再根據(jù)數(shù)據(jù)不斷地進行調(diào)整,直到找到最終的確認(rèn)參數(shù)。

比喻說明:菜稱重。

很少有人用稱對菜進行稱重,再計算一半的分量進行平分。

大部分人的方法是:

1、先分一部分到碟子 A 中,再把剩余的分到碟子 B 中。

2、觀察碟子 A 和 B 里的菜是否一樣多,哪個多就勻一些到少的那個碟子里。

3、然后再觀察碟子 A 和 B 里的是否一樣多,重復(fù)下去,直到份量不發(fā)生變化為止。

10大算法都已經(jīng)說完了,其實一般來說,常用算法都已經(jīng)被封裝到庫中了,只要new出相應(yīng)的模型即可。

責(zé)任編輯:張燕妮 來源: 今日頭條
相關(guān)推薦

2020-11-10 16:00:55

機器學(xué)習(xí)人工智能AI

2020-12-11 14:02:58

機器學(xué)習(xí)分類算法回歸算法

2020-09-21 08:33:12

線程池調(diào)度Thread Pool

2020-03-27 09:06:54

選擇排序算法冒泡排序

2019-08-14 10:20:32

算法數(shù)組鏈表

2022-07-20 06:55:10

TCC分布式事務(wù)微服務(wù)

2020-07-29 09:21:34

Docker集群部署隔離環(huán)境

2021-07-05 22:22:24

協(xié)議MQTT

2022-11-24 17:34:04

TCC分布式

2023-05-12 09:08:48

TypeScript工具類型

2020-02-04 15:00:25

大白話認(rèn)識JVM

2020-12-04 06:40:46

Zookeeper選舉機制

2022-07-11 20:46:39

AQSJava

2020-12-24 15:18:27

大數(shù)據(jù)數(shù)據(jù)分析

2018-09-28 14:28:28

MySQL存儲過程

2021-07-15 09:55:47

systemdLinux文件

2020-04-15 08:33:43

Netty網(wǎng)絡(luò)通信

2019-07-07 08:18:10

MySQL索引數(shù)據(jù)庫

2022-01-05 09:27:24

讀擴散寫擴散feed

2021-05-14 07:11:49

方法調(diào)用類加載
點贊
收藏

51CTO技術(shù)棧公眾號

主站蜘蛛池模板: 国产成人精品一区二区三区四区 | 国产精品成人国产乱一区 | 日韩精品一区二区三区在线观看 | 中文字幕视频在线观看 | 美日韩中文字幕 | 久久精品一区二区视频 | 欧美成人激情 | 欧美中文视频 | 国产精品久久久久无码av | 亚洲国产精品99久久久久久久久 | 欧美日韩免费一区二区三区 | 亚洲欧美中文日韩在线v日本 | 中文字幕精品一区 | 精品久久久久久国产 | 91在线一区二区三区 | 日韩三级电影在线看 | 欧美日韩精品在线一区 | 欧美日韩视频网站 | av中文字幕在线 | 久久久影院 | 亚洲视频二区 | 国产在线精品一区二区 | 日韩第一夜 | 国产在线视频一区二区 | 69av在线视频 | 亚洲精品一区在线观看 | 久草网站 | 久久精品欧美一区二区三区麻豆 | 欧美国产精品 | 国产精品国产精品国产专区不卡 | 视频一区在线 | 视频在线观看亚洲 | 在线观看中文字幕亚洲 | 做a网站| 国产精品大片在线观看 | 成人精品国产免费网站 | 久久免费视频1 | 亚洲国产成人av好男人在线观看 | 精品一区国产 | av黄色在线| 欧美一级精品片在线看 |