1、收集原始資料,捕捉每一個網站的內容,電子郵件或者Cookie,然後抽取出關鍵的資訊;
2、為這些資訊建立複雜的關聯索引以及與廣告相關的索引;
3、將索引和相應的內容儲存在分散式的伺服器;
4、當用戶瀏覽網頁進行搜尋,或者檢視電子郵件時,Google就會將使用者的請求放到一個複雜的“翻譯”過程中,然後幾個索引條目就會相應地被定位;
5、根據索引在伺服器中進行資料檢索,然後返回搜尋結果或者相對應的廣告。
1、收集原始資料,捕捉每一個網站的內容,電子郵件或者Cookie,然後抽取出關鍵的資訊;
2、為這些資訊建立複雜的關聯索引以及與廣告相關的索引;
3、將索引和相應的內容儲存在分散式的伺服器;
4、當用戶瀏覽網頁進行搜尋,或者檢視電子郵件時,Google就會將使用者的請求放到一個複雜的“翻譯”過程中,然後幾個索引條目就會相應地被定位;
5、根據索引在伺服器中進行資料檢索,然後返回搜尋結果或者相對應的廣告。
視覺化分析:大資料分析的使用者有大資料分析專家,同時還有普通使用者,但是他們二者對於大資料分析最基本的要求就是視覺化分析,因為視覺化分析能夠直觀的呈現大資料特點,同時能夠非常容易被讀者所接受,就如同看圖說話一樣簡單。
資料探勘演算法:大資料分析的理論核心就是資料探勘演算法,各種資料探勘的演算法基於不同的資料型別和格式才能更加科學的呈現出資料本身具備的特點,也正是因為這些被全世界統計學家所公認的各種 統計方法,才能深入資料內部,挖掘出公道的價值,另外一個方面也是y因為有這些資料探勘的演算法才能更快的處理大資料。
預測性分析能力:大資料分析最重要的應用領域之一就是預測性分析,從大資料種挖掘出特點,透過科學的建立模型,之後便可以透過模型帶入新的資料,從而預測未來的資料。
語義引擎:大資料分析廣泛應用於網路資料探勘,可從使用者的檢索關鍵詞,標籤關鍵詞或其他輸入語義,分析,判斷使用者需求。從而實現更好的使用者體驗和廣告匹配。
資料質量和資料管理:大資料分析離不開資料質量和資料管理,高質量的資料和有效的資料管理,無論是在學術研究還是在商業應用領域,都能夠保證分析結果的真實和有價值。大資料分析的基礎就是以上5個方面。
一般的大資料平臺從平臺搭建到資料分析大概包括以下幾個步驟:
Linux系統安裝。分散式計算平臺或元件安裝,當前分散式系統的大多使用的是Hadoop系列開源系統。資料匯入。資料分析。一般包括兩個階段:資料預處理和資料建模分析。資料預處理是為後面的建模分析做準備,主要工作時從海量資料中提取可用特徵,建立大寬表。資料建模分析是針對預處理提取的特徵或資料建模,得到想要的結果。結果視覺化及輸出API。視覺化一般式對結果或部分原始資料做展示。一般有兩種情況,行資料展示,和列查詢展示。