2017將至,大數據準備好了么?
譯文【51CTO.com快譯】去年,大數據市場完全圍繞Hadoop生態系統周圍的技術。從那時起,重心一直是通過已證明增加收入、提高生產力和降低風險而帶來投資回報的使用場合,“將大數據切實利用起來”?,F在,大數據繼續高奏凱歌。明年我們預計會看到更主流的公司采用大數據和物聯網,大中型企業保守和懷疑的企業組織會開始一頭扎入其中。
與幾年前我們剛開始接觸Hadoop時相比,數據融合會來得更重要。通過高級分析平臺,結合社交數據、移動應用程序、客戶關系管理(CRM)記錄和購買歷史記錄,這讓營銷人員得以通過發現當前和未來購買行為方面的隱藏模式和寶貴信息,從而洞察未來。
自助式數據分析的普及,加上云計算和Hadoop的廣泛采用,正在整個行業帶來變化,許多公司會抓住這一形勢,或者無視變化、因此面臨險境。實際上,工具仍在出現,而Hadoop平臺承諾的還沒有達到公司缺少不了它的地步。
下面是明年將塑造大數據行業的五大趨勢:
物聯網(IoT)
公司日益期望從所有數據中獲得價值;制造、銷售和支持實物的大型工業公司將與其“物件”連接的傳感器接入到互聯網。企業組織將不得不改動技術,以便與物聯網數據銜接起來。這在數據治理、標準、健康保障、安全和供應鏈等方面帶來了無數新的挑戰和機遇。
物聯網和大數據是同一枚硬幣的兩面;數十億與互聯網連接的“物件”將生產大量數據。然而,這本身不會引發另一場工業革命,不會改變日常的數字化生活,也不會提供拯救地球的預警系統。來自設備外部的數據才是企業讓自己與眾不同的方面。結合上下文來捕獲和分析這種類型的數據為公司帶來了新的發展前途。
研究表明,相比計劃維修,預測性維護最多可省下12%的成本,因而使維護成本降低30%,將設備故障造成的停運時間縮短70%。對于制造工廠或運輸公司來說,從數據驅動的決策獲得這些結果,意味著在改進運營和節省成本方面大有機會。
深度學習
深度學習是一套基于神經網絡的機器學習技術,它仍在發展之中,不過在解決業務問題方面顯示出大有潛力。它讓計算機能夠從大量非結構化數據和二進制數據中找出感興趣的內容,并且推導出關系,而不需要特定的模型或編程指令。
這些算法的源動力主要來自人工智能領域,人工智能的總體目標是模擬人類大腦觀察、分析、學習和做決定的能力,尤其是處理極其復雜的問題。深度學習方法的一個關鍵概念就是數據的分布式表示,因而可以對輸入數據的抽象特征實現大量的組合,從而可以緊湊表示每個樣本,最終獲得更豐富的泛化。
深度學習主要用于從大量未標記/未監督的數據當中學習,因而對于從大數據中提取有意義的表示和模式頗具吸引力。比如說,它可以用來識別許多不同類型的數據,比如視頻中的形狀、顏色和對象,或者甚至是圖像中的貓,就像谷歌研制的一個神經網絡在2012年所做的那樣。
因此,企業可能會看到更多的注意力投向半監督式或未監督式訓練算法來處理進入的大量數據。
內存中分析
不像常規的商業智能(BI)軟件對存儲在服務器硬盤上的數據運行查詢,內存中技術查詢的是載入到內存中的信息,這可以通過減少或甚至消除磁盤輸入/輸出瓶頸來顯著提升分析性能。就大數據而言,正是由于TB級系統和大規模并行處理,讓內存中分析技術更令人關注。
在現階段,大數據分析的核心其實是發現數據。要是沒有毫秒級延遲,面對數百萬次/數十億次的迭代,運行迭代以查找數據點之間的關聯就不會成為現實。在內存中處理的速度比磁盤上處理要快三個數量級。
2014年,Gartner創造了HTAP(混合事務/分析處理)這個術語,描述這樣一種新技術:讓事務和分析可以在同一個內存中數據庫中處理。它讓應用程序領導人通過更強的情境意識和改進的業務敏捷性來進行創新,然而這需要徹底改變原有架構,還需要相應的技術和技能,才能使用內存中計算技術作為賦能者(enabler)。
許多公司已經在充分利用混合事務/分析處理(HTAP);比如說,零售商能夠迅速識別在過去一小時內最暢銷的時尚商品,并立即為該商品定制優惠促銷活動。
但是HTAP方面炒作得很厲害,許多公司一直在過度使用它。如果用戶需要在一天內多次以同一方式查看同一數據,數據又沒有什么顯著的變化,那么使用內存中技術是浪費錢。雖然你可以使用HTAP更快地執行分析,但所有事務必須駐留在同一個數據庫中。問題是,今天的大多數分析工作是把來自許多不同系統的事務集中起來。
云計算
混合云和公共云服務越來越受歡迎。大數據成功的關鍵是在彈性基礎設施上運行(Hadoop)平臺。
我們會看到數據存儲和分析趨于融合,帶來新的更智能的存儲系統,它們將經過優化,用于存儲、管理和排序龐大的PB級數據集。展望未來,我們可以預計會看到基于云的大數據生態系統在整個繼續迎來發展,不僅僅局限于“早期采用者”。
許多公司想要讓自己可以擴展的平臺,通過大力投資于最終僵化的數據中心是不可能做到這點的。比如說,人類基因組計劃一開始是個GB級項目,但是很快達到了TB級和PB級。一些領先的企業已經開始以雙模(bi-modal)方式來拆分工作負載,在云端運行一些數據工作負載。許多人預計,隨著這種解決方案在采用周期上深入發展,這個潮流會加快發展。
現在大家很重視API,以一種可重用的方式來發掘數據和功能,許多公司期望在云端和數據中心運行其API。本地API提供了一種無縫的方式來發掘傳統系統,并將它們與云應用程序連接起來,這對于希望實現云優先戰略的公司來說至關重要。
更多的公司會在云端運行API,提供彈性,以便更好地應對需求高峰,并建立高效的連接,從而讓它們能夠比競爭對手更迅速地適應和創新。
Apache Spark
Apache Spark在點亮大數據。流行的Apache Spark項目提供了Spark Streaming技術,通過主要采用一種在內存中微批量處理的方法,近實時地處理數據流。它已從Hadoop生態系統的一部分,變成許多企業青睞的一種大數據平臺。
Spark現在是最龐大的大數據開源項目,相比Hadoop它提供了顯著加快的數據處理速度;因此,對于程序員來說極其自然、極加精確、極其方便。它為并行執行提供了一種高效的通用框架。
Spark Streaming是Spark的主要部分,被用來借助處理器核心,流式傳輸大塊的數據,為此將大數據分割成更小的數據包,然后對其進行轉換,因而加快彈性分布式數據集(RDD)的創建。這在當下非常有用,如今數據分析通常需要一組協同運行的機器的資源。
然而值得一提的是,Spark旨在改進而不是替換Hadoop架構。為了從大數據獲得更大的價值,許多公司考慮結合使用Hadoop和Spark,以獲得更好的分析和存儲功能。
越來越復雜的大數據需求意味著,創新的壓力仍然會很高。許多公司會開始明白,客戶的成功離不開數據方面的工作。不利用數據分析的公司會開始歇業,而成功的企業認識到發展的關鍵是數據精煉和預測分析。
原文標題:The Top 5 Trends in Big Data for 2017,作者:BHARADWAJ 'BRAD' CHIVUKULA
【51CTO譯稿,合作站點轉載請注明原文譯者和出處為51CTO.com】