200種優(yōu)秀機器學(xué)習(xí)教程匯總「史上最全」
本文包含了迄今為止大家公認(rèn)的優(yōu)秀教程內(nèi)容。它絕不是網(wǎng)上每個ML相關(guān)教程的詳盡列表,而是經(jīng)過精挑細(xì)選而成的,畢竟網(wǎng)上的東西并不全是好的。我作者匯總的目標(biāo)是為了補充我即將出版的新書,為它尋找在機器學(xué)習(xí)和NLP領(lǐng)域中找到的最佳教程。
通過這些最佳教程的匯總,我可以快速的找到我想要得到的教程。從而避免了閱讀更廣泛覆蓋范圍的書籍章節(jié)和苦惱的研究論文,你也許知道,當(dāng)你的數(shù)學(xué)功底不是很好的時候這些論文你通常是拿不下的。為什么不買書呢?沒有哪一個作者是一個全能先生。當(dāng)你嘗試學(xué)習(xí)特定的主題或想要獲得不同的觀點時,教程可能是非常有幫助的。
我將這篇文章分為四個部分:機器學(xué)習(xí),NLP,Python和數(shù)學(xué)。我在每個部分都包含了一些主題,但由于機器學(xué)習(xí)是一個非常復(fù)雜的學(xué)科,我不可能包含所有可能的主題。
如果有很好的教程你知道我錯過了,請告訴我!我將繼續(xù)完善這個學(xué)習(xí)教程。我在挑選這些鏈接的時候,都試圖保證每個鏈接應(yīng)該具有與其他鏈接不同的材料或以不同的方式呈現(xiàn)信息(例如,代碼與幻燈片)或從不同的角度。
機器學(xué)習(xí)
從機器學(xué)習(xí)入手(machinelearningmastery.com)
機器學(xué)習(xí)很有趣?。╩edium.com/@ageitgey)
機器學(xué)習(xí)規(guī)則:ML工程的最佳實踐(martin.zinkevich.org)
機器學(xué)習(xí)速成課程:第一部分,第二部分,第三部分(伯克利機器學(xué)習(xí))
機器學(xué)習(xí)理論及其應(yīng)用簡介:用一個小例子進行視覺教程(toptal.com)
機器學(xué)習(xí)的簡單指南(monkeylearn.com)
我應(yīng)該使用哪種機器學(xué)習(xí)算法?(sas.com)
機器學(xué)習(xí)入門(sas.com)
初學(xué)者機器學(xué)習(xí)教程(kaggle.com/kanncaa1)
激活函數(shù)和Dropout函數(shù)
Sigmoid神經(jīng)??元(neuralnetworksanddeeplearning.com)
激活函數(shù)在神經(jīng)網(wǎng)絡(luò)中的作用是什么?(quora.com)
神經(jīng)網(wǎng)絡(luò)中常見的激活函數(shù)的優(yōu)缺點比較列表(stats.stackexchange.com)
激活函數(shù)及其類型對比(medium.com)
理解對數(shù)損失(exegetic.biz)
損失函數(shù)(斯坦福CS231n)
L1與L2損失函數(shù)(rishy.github.io)
交叉熵成本函數(shù)(neuralnetworksanddeeplearning.com)
偏差(bias)
偏差在神經(jīng)網(wǎng)絡(luò)中的作用(stackoverflow.com)
神經(jīng)網(wǎng)絡(luò)中的偏差節(jié)點(makeyourownneuralnetwork.blogspot.com)
什么是人工神經(jīng)網(wǎng)絡(luò)的偏差?(quora.com)
感知器
感知器(neuralnetworksanddeeplearning.com)
感知器(natureofcode.com)
單層神經(jīng)網(wǎng)絡(luò)(感知器)(dcu.ie)
從Perceptrons到Deep Networks(toptal.com)
回歸
線性回歸分析介紹(duke.edu)
線性回歸(ufldl.stanford.edu)
線性回歸(readthedocs.io)
Logistic回歸(readthedocs.io)
機器學(xué)習(xí)的簡單線性回歸教程(machinelearningmastery.com)
機器學(xué)習(xí)的Logistic回歸教程(machinelearningmastery.com)
Softmax回歸(ufldl.stanford.edu)
梯度下降
在梯度下降中學(xué)習(xí)(neuralnetworksanddeeplearning.com)
梯度下降(iamtrask.github.io)
如何理解梯度下降算法(kdnuggets.com)
梯度下降優(yōu)化算法概述(sebastianruder.com)
優(yōu)化:隨機梯度下降(斯坦福CS231n)
生成學(xué)習(xí)(Generative Learning)
生成學(xué)習(xí)算法(斯坦福CS229)
樸素貝葉斯分類器的實用解釋(monkeylearn.com)
支持向量機
支持向量機(SVM)簡介(monkeylearn.com)
支持向量機(斯坦福CS229)
線性分類:支持向量機,Softmax(Stanford 231n)
反向傳播
你應(yīng)該了解的backprop(medium.com/@karpathy)
你能給出神經(jīng)網(wǎng)絡(luò)反向傳播算法的直觀解釋嗎?(github.com/rasbt)
反向傳播算法的工作原理(neuralnetworksanddeeplearning.com)
通過時間反向傳播和消失的漸變(wildml.com)
時間反向傳播的簡單介紹(machinelearningmastery.com)
反向傳播,直覺(斯坦福CS231n)
深度學(xué)習(xí)
YN2深度學(xué)習(xí)指南(yerevann.com)
深度學(xué)習(xí)論文閱讀路線圖(github.com/floodsung)
Nutshell中的深度學(xué)習(xí)(nikhilbuduma.com)
深度學(xué)習(xí)教程(Quoc V.Le)
什么是深度學(xué)習(xí)?(machinelearningmastery.com)
人工智能,機器學(xué)習(xí)和深度學(xué)習(xí)之間有什么區(qū)別?(nvidia.com)
深度學(xué)習(xí)–簡單介紹 (gluon.mxnet.io)
最優(yōu)化和降維
數(shù)據(jù)降維減少的七種技術(shù)(knime.org)
主成分分析(斯坦福CS229)
Dropout:一種改善神經(jīng)網(wǎng)絡(luò)的簡單方法(Hinton @ NIPS 2012)
如何訓(xùn)練你的深度神經(jīng)網(wǎng)絡(luò)?(rishy.github.io)
長短期記憶(LSTM)
長短期記憶網(wǎng)絡(luò)的通俗介紹(machinelearningmastery.com)
了解LSTM 神經(jīng)網(wǎng)絡(luò)Networks(colah.github.io)
探索LSTM(echen.me)
任何人都可以學(xué)習(xí)用Python編寫LSTM-RNN(iamtrask.github.io)
卷積神經(jīng)網(wǎng)絡(luò)(CNN)
卷積網(wǎng)絡(luò)介紹(neuralnetworksanddeeplearning.com)
深度學(xué)習(xí)和卷積神經(jīng)網(wǎng)絡(luò)(medium.com/@ageitgey)
Conv Nets:模塊化視角(colah.github.io)
了解卷積(colah.github.io)
遞歸神經(jīng)網(wǎng)絡(luò)(RNN)
遞歸神經(jīng)網(wǎng)絡(luò)教程(wildml.com)
注意和增強的遞歸神經(jīng)網(wǎng)絡(luò)(distill.pub)
遞歸神經(jīng)網(wǎng)絡(luò)的不合理有效性(karpathy.github.io)
深入了解遞歸神經(jīng)網(wǎng)絡(luò)(nikhilbuduma.com)
強化學(xué)習(xí)
強化學(xué)習(xí)初學(xué)者入門及其實施指南(analyticsvidhya.com)
強化學(xué)習(xí)教程(mst.edu)
學(xué)習(xí)強化學(xué)習(xí)(wildml.com)
深度強化學(xué)習(xí):來自像素的乒乓球(karpathy.github.io)
生成對抗網(wǎng)絡(luò)(GAN)
對抗機器學(xué)習(xí)簡介(aaai18adversarial.github.io)
什么是生成性對抗網(wǎng)絡(luò)?(nvidia.com)
濫用生成對抗網(wǎng)絡(luò)制作8位像素藝術(shù)(medium.com/@ageitgey)
Generative Adversarial Networks簡介(TensorFlow中的代碼)(aylien.com)
初學(xué)者的生成對抗網(wǎng)絡(luò)(oreilly.com)
多任務(wù)學(xué)習(xí)
深度神經(jīng)網(wǎng)絡(luò)中多任務(wù)學(xué)習(xí)概述(sebastianruder.com)
NLP
自然語言處理很有趣!(medium.com/@ageitgey)
自然語言處理神經(jīng)網(wǎng)絡(luò)模型入門(Yoav Goldberg)
自然語言處理權(quán)威指南(monkeylearn.com)
自然語言處理簡介(algorithmia.com)
自然語言處理教程(vikparuchuri.com)
自然語言處理(NLP)來自Scratch(arxiv.org)
深度學(xué)習(xí)和NLP
深度學(xué)習(xí)適用于NLP(arxiv.org)
NLP的深度學(xué)習(xí)(沒有魔法)(Richard Socher)
了解NLP的卷積神經(jīng)網(wǎng)絡(luò)(wildml.com)
深度學(xué)習(xí)、NLP、表示(colah.github.io)
最先進的NLP模型的新深度學(xué)習(xí)公式:嵌入、編碼、參與、預(yù)測(explosion.ai)
使用Torch深度神經(jīng)網(wǎng)絡(luò)進行自然語言處理(nvidia.com)
使用Pytorch進行深度學(xué)習(xí)NLP(pytorich.org)
詞向量
使用詞袋模型解決電影評論分類(kaggle.com)
詞嵌入介紹第一部分,第二部分,第三部分(sebastianruder.com)
詞向量的驚人力量(acolyer.org)
word2vec參數(shù)學(xué)習(xí)解釋(arxiv.org)
Word2Vec教程-?Skip-Gram模型,負(fù)抽樣(mccormickml.com)
編碼器-解碼器
深度學(xué)習(xí)和NLP中的注意力機制和記憶力模型(wildml.com)
序列模型(tensorflow.org)
使用神經(jīng)網(wǎng)絡(luò)進行序列學(xué)習(xí)(NIPS 2014)
機器學(xué)習(xí)很有趣第五部分:深度學(xué)習(xí)的語言翻譯和序列的魔力(medium.com/@ageitgey)
如何使用編碼器-解碼器LSTM來回顯隨機整數(shù)序列(machinelearningmastery.com)
tf-seq2seq(google.github.io)
Python
機器學(xué)習(xí)速成課程(google.com)
令人敬畏的機器學(xué)習(xí)(github.com/josephmisiti)
使用Python掌握機器學(xué)習(xí)的7個步驟(kdnuggets.com)
一個示例機器學(xué)習(xí)筆記(nbviewer.jupyter.org)
使用Python進行機器學(xué)習(xí)(tutorialspoint.com)
實戰(zhàn)案例
如何在Python中從頭開始實現(xiàn)感知器算法(machinelearningmastery.com)
在Python中使用Scratch實現(xiàn)神經(jīng)網(wǎng)絡(luò)(wildml.com)
使用11行代碼在Python中實現(xiàn)神經(jīng)網(wǎng)絡(luò)(iamtrask.github.io)
使用Python實現(xiàn)你自己的k-Nearest Neighbor算法(kdnuggets.com)
來自Scatch的ML(github.com/eriklindernoren)
Python機器學(xué)習(xí)(第2版)代碼庫(github.com/rasbt)
Scipy和numpy
Scipy講義(scipy-lectures.org)
Python Numpy教程(斯坦福CS231n)
Numpy和Scipy簡介(UCSB CHE210D)
Python中的科學(xué)家速成課程(nbviewer.jupyter.org)
scikit學(xué)習(xí)
PyCon scikit-learn教程索引(nbviewer.jupyter.org)
scikit-learn分類算法(github.com/mmmayo13)
scikit-learn教程(scikit-learn.org)
簡短的scikit-learn教程(github.com/mmmayo13)
Tensorflow
Tensorflow教程(tensorflow.org)
TensorFlow簡介 - CPU與GPU(medium.com/@erikhallstrm)
TensorFlow(metaflow.fr)
Tensorflow中的RNN(wildml.com)
在TensorFlow中實現(xiàn)CNN進行文本分類(wildml.com)
如何使用TensorFlow運行文本摘要(surmenok.com)
PyTorch
PyTorch教程(pytorch.org)
PyTorch的簡單介紹(gaurav.im)
教程:PyTorch中的深度學(xué)習(xí)(iamtrask.github.io)
PyTorch示例(github.com/jcjohnson)
PyTorch教程(github.com/MorvanZhou)
深度學(xué)習(xí)研究人員的PyTorch教程(github.com/yunjey)
數(shù)學(xué)
機器學(xué)習(xí)數(shù)學(xué)(ucsc.edu)
機器學(xué)習(xí)數(shù)學(xué)(UMIACS CMSC422)
線性代數(shù)
線性代數(shù)直觀指南(betterexplained.com)
程序員對矩陣乘法的直覺(betterexplained.com)
了解Cross產(chǎn)品(betterexplained.com)
了解Dot產(chǎn)品(betterexplained.com)
用于機器學(xué)習(xí)的線性代數(shù)(布法羅大學(xué)CSE574)
用于深度學(xué)習(xí)的線性代數(shù)備忘單(medium.com)
線性代數(shù)評論與參考(斯坦福CS229)
概率論
用比率理解貝葉斯定理(betterexplained.com)
概率論入門(斯坦福CS229)
機器學(xué)習(xí)的概率論教程(斯坦福CS229)
概率論(布法羅大學(xué)CSE574)
機器學(xué)習(xí)的概率論(多倫多大學(xué)CSC411)
微積分
如何理解導(dǎo)數(shù):商數(shù)規(guī)則,指數(shù)和對數(shù)(betterexplained.com)
如何理解導(dǎo)數(shù):產(chǎn)品,動力和鏈條規(guī)則(betterexplained.com)
矢量微積分:了解漸變(betterexplained.com)
微分學(xué)(斯坦福CS224n)
微積分概述(readthedocs.io)
本文由阿里云云棲社區(qū)組織翻譯。
文章原標(biāo)題《over-200-of-the-best-machine-learning-nlp-and-python-tutorials-2018-edition》
作者:Robbie Allen
譯者:虎說八道,審校:。