終于有人把數據的屬性講明白了
1.結構化與非結構化數據
某些數據集具有很好的結構性,就像數據庫中的數據表或電子表程序中一樣。而其他的數據以更多樣的形式記錄著有關世界狀況的信息。它們可能是像維基百科這樣包含圖像和超級鏈接的文本語料庫,也可能是個人醫療記錄中出現的復雜的注釋和測試結果的混合數據。
數據通常由一個矩陣表示,矩陣的行表示不同的條目或記錄,列則表示這些條目的不同屬性特征。例如,關于美國的城市數據集中每一行代表一個城市,每列則代表州、人口和地區等特征。
當面對一個非結構化數據源時(例如一組來自Twitter的推文集合),我們通常首先要構建一個矩陣以使這些數據結構化。詞袋模型可以構建一個矩陣,每條推文對應矩陣中的一行,每個常用詞匯對應矩陣中的一列。矩陣項M[i, j]則表示推文i中單詞j出現的次數。
2.定量數據與類別數據
定量數據由數值組成,如高度和重量。這些數據可以被直接帶入代數公式和數學模型,也可以在傳統的圖表中進行表示。
相比之下,類別數據則由描述被調查對象屬性的標簽組成,如性別、頭發顏色和職業。這種描述性信息可以像數值型數據一樣精確而有意義,但不能使用相同的方法進行處理。
類別數據通??梢赃M行數字化編碼。例如,性別可以表示為男=0或女=1。但如果每個特性包含兩個以上字符,尤其當它們之間沒有隱序時,事情會變得更加復雜。我們可以對頭發的顏色進行數字化編碼,即為不同顏色匹配不同的數值,如灰色頭發=0、紅色頭發=1以及金色頭發=2。然而,除了單純地進行特征識別之外,我們并不能真正將這些值視為數字。討論頭發的最大或最小顏色有什么意義呢?又如何解釋我的頭發顏色減去你的頭發顏色的含義呢?
3.大數據與小數據
在大眾眼中,數據科學已經與大數據混為一談,數據科學以計算機日志和傳感器設備產生的海量數據集為分析對象。原則上,擁有更多的數據總是比數據少要好,因為如果有必要,可以通過抽樣來舍棄其中的一些數據,從而得到一個更小的數據集。
擁有大數據是件令人興奮的事。但在實踐中,處理大數據存在一定的困難。一般來說,一旦數據量過大,事情就會變得更困難。大數據的挑戰包括:
一個分析周期所用的時間隨著數據規模的增長而變長:對數據集的計算性操作會隨著數據量的增加而花費更長的時間。電子表格可以提供即時響應,允許用戶進行實驗測試以及驗證各種假設。但計算大型電子表格時,會變得笨拙而緩慢。處理大規模數據集可能需要數小時或數天才能得到結果。為了處理大數據,要采用高性能算法,這些算法也已展現出驚人的優越性。但是絕不能為了獲得更快的計算速度而將大數據拆分為小數據。
大型數據集復雜的可視化過程:在計算機屏幕或打印的圖像上不可能將大數據中的數百萬個要點全部繪制出來,更不要說對這些數據進行概念性的理解了。我們無法滿懷希望地去深入理解一個根本無法看到的東西。
簡單的模型不需要大量的數據來匹配或評估:典型的數據科學任務是基于一小部分變量做出決策,比如,根據年齡、性別、身高、體重以及現有的醫療水平來決定是否應該為投保人提供人壽保險。
如果有100萬人的生活相關數據,那么應該能夠建立一個具有較好保險責任的一般模型。但是當數據量擴充到幾千萬人時,可能對于優化模型就不再產生作用了。基于少數幾個變量(如年齡和婚姻狀況)的決策準則不能太復雜,而且在覆蓋大量的保險申請人數據時呈現出魯棒性。那些不易被察覺的發現,需要大量數據才能被巧妙地獲得,而這卻與數據體量的大小無關。
大數據有時被稱為壞數據。它們作為已有系統或程序的副產品被收集起來,而不是為了回答我們手頭已經設計好的問題而有目的地收集來的。這就使得我們可能不得不努力去解釋一些現象,僅僅是因為我們擁有了這些數據。
總統候選人如何從分析選民偏好中獲得收益?大數據方法可能會分析大量的Twitter或Facebook上的網絡數據,并從文本中推測出選民的觀點。而小數據方法則通過民意調查,對特定的問題詢問幾百人,并將結果制成表格。哪種方法更準確呢?正確的數據集與要完成的任務具有直接相關性,而不一定是那個數量最大的數據集。
不要盲目地渴望分析大型數據集。尋找正確的數據來回答給定的問題,而不是做沒有必要參與的“大事情”。