Hadoop 大數據處理
內容描述
<內容簡介>
Hadoop大數據處理》以大數據處理系統的三大關鍵要素——“存儲”、“計算”與“容錯”為起點,深入淺出地介紹瞭如何使用Hadoop這一高性能分佈式技術完成大數據處理任務。本書不僅包含了使用Hadoop進行大數據處理的實踐性知識和示例,還以圖文並茂的形式系統性地揭示了Hadoop技術族中關鍵組件的運行原理和優化手段,為讀者進一步提升Hadoop使用技巧和運行效率提供了頗具價值的參考。
《Hadoop大數據處理》共10章,涉及的主題包括大數據處理概論、基於Hadoop的大數據處理框架、MapReduce計算模式、使用HDFS存儲大數據、HBase大數據庫、大數據的分析處理、Hadoop環境下的數據整合、Hadoop集群的管理與維護、基於MapReduce的數據挖掘實踐及面向未來的大數據處理技術。最後附有一個在Windows環境下搭建Hadoop開發及調試環境的參考手冊。
《Hadoop大數據處理》適合需要使用Hadoop處理大數據的程序員、架構師和產品經理作為技術參考和培訓資料,也可作為高校研究生和本科生教材