Hive教學

Hive是一個數據倉庫基礎工具在Hadoop中用來處理結構化數據。它架構在Hadoop之上,總歸爲大數據,並使得查詢和分析方便。並提供簡單的sql查詢功能,可以將sql語句轉換爲MapReduce任務進行運行。

術語「大數據」是大型數據集,其中包括體積龐大,高速,以及各種由與日俱增的數據的集合。使用傳統的數據管理系統,它是難以加工大型數據。因此,Apache軟件基金會推出了一款名爲Hadoop的解決大數據管理和處理難題的框架。

Hadoop

Hadoop是一個開源框架來存儲和處理大型數據在分佈式環境中。它包含兩個模塊,一個是MapReduce,另外一個是Hadoop分佈式文件系統(HDFS)。

  • MapReduce:它是一種並行編程模型在大型集羣普通硬件可用於處理大型結構化,半結構化和非結構化數據。

  • HDFS:Hadoop分佈式文件系統是Hadoop的框架的一部分,用於存儲和處理數據集。它提供了一個容錯文件系統在普通硬件上運行。

Hadoop生態系統包含了用於協助Hadoop的不同的子項目(工具)模塊,如Sqoop, Pig 和 Hive。

  • Sqoop: 它是用來在HDFS和RDBMS之間來回導入和導出數據。

  • Pig: 它是用於開發MapReduce操作的腳本程序語言的平臺。

  • Hive: 它是用來開發SQL類型腳本用於做MapReduce操作的平臺。

注:有多種方法來執行MapReduce作業:

  • 傳統的方法是使用Java MapReduce程序結構化,半結構化和非結構化數據。
  • 針對MapReduce的腳本的方式,使用Pig來處理結構化和半結構化數據。
  • Hive查詢語言(HiveQL或HQL)採用Hive爲MapReduce的處理結構化數據。

Hive是什麼?

Hive是一個數據倉庫基礎工具在Hadoop中用來處理結構化數據。它架構在Hadoop之上,總歸爲大數據,並使得查詢和分析方便。

最初,Hive是由Facebook開發,後來由Apache軟件基金會開發,並作爲進一步將它作爲名義下Apache Hive爲一個開源項目。它用在好多不同的公司。例如,亞馬遜使用它在 Amazon Elastic MapReduce。

Hive 不是

  • 一個關係數據庫
  • 一個設計用於聯機事務處理(OLTP)
  • 實時查詢和行級更新的語言

Hiver特點

  • 它存儲架構在一個數據庫中並處理數據到HDFS。
  • 它是專爲OLAP設計。
  • 它提供SQL類型語言查詢叫HiveQL或HQL。
  • 它是熟知,快速,可擴展和可擴展的。

Hive架構

下面的組件圖描繪了Hive的結構:

Hive

該組件圖包含不同的單元。下表描述每個單元:

單元名稱

操作

用戶接口/界面

Hive是一個數據倉庫基礎工具軟件,可以創建用戶和HDFS之間互動。用戶界面,Hive支持是Hive的Web UI,Hive命令行,HiveHD洞察(在Windows服務器)。

元存儲

Hive選擇各自的數據庫服務器,用以儲存表,數據庫,列模式或元數據表,它們的數據類型和HDFS映射。

HiveQL處理引擎

HiveQL類似於SQL的查詢上Metastore模式信息。這是傳統的方式進行MapReduce程序的替代品之一。相反,使用Java編寫的MapReduce程序,可以編寫爲MapReduce工作,並處理它的查詢。

執行引擎

HiveQL處理引擎和MapReduce的結合部分是由Hive執行引擎。執行引擎處理查詢併產生結果和MapReduce的結果一樣。它採用MapReduce方法。

HDFS 或 HBASE

Hadoop的分佈式文件系統或者HBASE數據存儲技術是用於將數據存儲到文件系統。

Hive工作原理

下圖描述了Hive 和Hadoop之間的工作流程。

How

下表定義Hive和Hadoop框架的交互方式:

Step No.

操作

1

Execute Query

Hive接口,如命令行或Web UI發送查詢驅動程序(任何數據庫驅動程序,如JDBC,ODBC等)來執行。

2

Get Plan

在驅動程序幫助下查詢編譯器,分析查詢檢查語法和查詢計劃或查詢的要求。

3

Get Metadata

編譯器發送元數據請求到Metastore(任何數據庫)。

4

Send Metadata

Metastore發送元數據,以編譯器的響應。

5

Send Plan

編譯器檢查要求,並重新發送計劃給驅動程序。到此爲止,查詢解析和編譯完成。

6

Execute Plan

驅動程序發送的執行計劃到執行引擎。

7

Execute Job

在內部,執行作業的過程是一個MapReduce工作。執行引擎發送作業給JobTracker,在名稱節點並把它分配作業到TaskTracker,這是在數據節點。在這裏,查詢執行MapReduce工作。

7.1

Metadata Ops

與此同時,在執行時,執行引擎可以通過Metastore執行元數據操作。

8

Fetch Result

執行引擎接收來自數據節點的結果。

9

Send Results

執行引擎發送這些結果值給驅動程序。

10

Send Results

驅動程序將結果發送給Hive接口。