欧美日韩三区四区,亚洲国产精品99久久久久久久久,欧美精品一区二区久久,亚洲国产精品久久久

DAV首頁
數字音視工程網

微信公眾號

數字音視工程網

手機DAV

null
null
null
卓華,
招商,
null
null
null
快捷,
null

我的位置:

share

探討大數據整理過程的分析

來源:數字音視工程網        編輯:merry2013    2015-07-16 06:53:14     加入收藏    咨詢

咨詢
所在單位:*
姓名:*
手機:*
職位:
郵箱:*
其他聯系方式:
咨詢內容:
驗證碼:
不能為空 驗證碼錯誤
確定

數據整理是數據分析過程中最重要的環節,在大數據分析過程中也是如此。在小數據時代,數據整理包括數據的清洗、數據轉換、歸類編碼和數字編碼等過程,其中數...

  數據整理是數據分析過程中最重要的環節,在大數據分析過程中也是如此。在小數據時代,數據整理包括數據的清洗、數據轉換、歸類編碼和數字編碼等過程,其中數據清洗占據最重要的位置,就是檢查數據一致性,處理無效值和缺失值等操作。在大數據時代,這些工作被弱化了,在有些大數據的算法和應用中,基本不再進行數據清洗了,因為大數據的多樣化使得其數據,有一定的不精確性,但數據轉換和編碼過程還是需要的。下面以大數據分析中文本分類的例子,來分析大數據整理的過程。

  在本例中,以mahout為大數據分析軟件,文本分類算法選用樸素貝葉斯算法(new bayes),分類對象是來自不同類別的新聞數據。

  當我們使用網頁爬蟲,每小時源源不斷的從多個不同類別的新聞網站上取得數據時,取得的這些數據都是文本數據,也就是非結構化數據,這些數據是不需要進行數據清洗過程,但它們在進入到mahout實現的樸素貝葉斯算法時,需要進行必要的數據轉換。該轉換主要分兩個步驟:

  1.數據系列化

  由于取得的大量的文本數據集中,每個新聞占一個文檔,共有無數個小的文件,由于Mahout運行在Hadoop的HDFS上,HDFS是為大文件設計的。如果我們把這些無窮多個小文件都拷貝上去,這樣是非常不合適。試想:假設對1000萬篇新聞進行分類,難道要拷貝1000w個文件么?這樣會使HDFS中運行name node節點的終端崩潰掉。

  因此,Mahout采用SequenceFile作為其基本的數據交換格式。其思路是:通過調用mahout內置的解析器,掃描所有目錄和文件,并把每個文件都轉成單行文本,以目錄名開頭,跟著是文檔出現的所有單詞,這樣就把無窮多個小文件,轉換成一個系列化的大文件。然后把這個大文件,再上傳到HDFS上,就可以充分發揮HDFS分布式文件系統的優勢。當然,這個轉換過程由mahout的內置工具完成,而大數據分析師這個時候只需要把所有的新聞按文件夾分好類放置好,同時運行mahout內置的解析器命令就可以了。

  2.文本內容向量化

  簡單地說就是把文本內容中的每個單詞(去除一些連接詞后)轉換成數據,復雜地說就是進行向量空間模型化(VSM)。該過程使每個單詞都有一個編號,這個編號是就它在文檔向量所擁有的維度。這個工作在mahout中實現時,大數據分析師也只需要執行其中的一個命令,就可以輕松地實現文本內容的向量化。

  有了這些被向量化的數據,再通過mahout的樸素貝葉斯算法,我們就可以對計算機訓練出一套規則,根據這個規則,機器就可以對后續收集的新聞數據進行自動的分類了。

  從上述文本分類的大數據整理過程可以看出,大數據時代的數據整理過程不再強調數據的精確性,而強調的是對非結構化數據的數量化。當然,不同的大數據分析應用使用的算法也不一樣,其數據整理過程也不太一樣,但從總體上看,大數據分析的數據整理區別于小數據時代的精確性,而變得更粗放一些。

免責聲明:本文來源于網絡收集,本文僅代表作者個人觀點,本站不作任何保證和承諾,若有任何疑問,請與本文作者聯系或有侵權行為聯系本站刪除。(原創稿件未經許可,不可轉載,轉載請注明來源)
掃一掃關注數字音視工程網公眾號

相關閱讀related

評論comment

 
驗證碼:
您還能輸入500
    主站蜘蛛池模板: 广安市| 杭锦旗| 泌阳县| 板桥市| 涿鹿县| 广汉市| 当阳市| 荆州市| 常宁市| 麻城市| 格尔木市| 丰台区| 阿拉善左旗| 柞水县| 平阳县| 东至县| 合肥市| 阳城县| 吉隆县| 金秀| 徐州市| 托里县| 星子县| 安庆市| 桂林市| 微博| 正阳县| 五峰| 石城县| 娄底市| 江华| 大化| 彩票| 都安| 海原县| 石阡县| 霍林郭勒市| 四川省| 商南县| 海门市| 南雄市|