hadoop環境にhiveをインストールしてみます。
hiveはhadoop上のデータをRDBのようにSQLで扱えるツールです。

[root@node01 ~]# wget http://ftp.tsukuba.wide.ad.jp/software/apache/hive/hive-1.2.1/apache-hive-1.2.1-bin.tar.gz
--2015-12-15 00:52:08--  http://ftp.tsukuba.wide.ad.jp/software/apache/hive/hive-1.2.1/apache-hive-1.2.1-bin.tar.gz
ftp.tsukuba.wide.ad.jp をDNSに問いあわせています... 203.178.132.80, 2001:200:0:7c06::9393
ftp.tsukuba.wide.ad.jp|203.178.132.80|:80 に接続しています... 接続しました。
HTTP による接続要求を送信しました、応答を待っています... 200 OK
長さ: 92834839 (89M) [application/x-gzip]
`apache-hive-1.2.1-bin.tar.gz' に保存中

100%[======================================>] 92,834,839  9.59M/s 時間 8.8s

2015-12-15 00:52:17 (10.0 MB/s) - `apache-hive-1.2.1-bin.tar.gz' へ保存完了 [92834839/92834839]

[root@node01 ~]# tar -xzvf apache-hive-1.2.1-bin.tar.gz
[root@node01 ~]# mv apache-hive-1.2.1-bin/* /opt/hive/
[root@node01 hive]# chown -R hdspark:hdspark /opt/hive/


バイナリファイルをwgetでダウンロード
tarで展開後、全てのファイルを任意のプログラムディレクトリに移動します。
今回は仮に/opt/hiveというプログラムディレクトリに移動しています。
また、プログラムディレクトリの所有者をhadoop実行ユーザーに変更しています。

[root@node01 hive]# su - hdspark
[hdspark@node01 ~]$ vi .bash_profile



export HIVE_HOME=/opt/hive
export PATH=$HADOOP_HOME/bin:$HADOOP_HOME/sbin:$JAVA_HOME/bin:$HIVE_HOME/bin:$PATH

[hdspark@node01 ~]$ source .bash_profile


hadoop実行ユーザーにsuし、環境変数を編集します。
新しくhive_homeという環境変数を作成しています。

[hdspark@node01 conf]$ cd /opt/hive/
[hdspark@node01 hive]$ mkdir logs
[hdspark@node01 hive]$ cd conf/
[hdspark@node01 conf]$ cp -p hive-log4j.properties.template log4j.properties
[hdspark@node01 conf]$ vi log4j.properties



hive.log.dir=$HIVE_HOME/logs


新しくログフォルダを作成し、ログの出力先に設定します。

[hdspark@node01 conf]$ cp -p hive-env.sh.template hive-env.sh
[hdspark@node01 conf]$ chmod 755 hive-env.sh
[hdspark@node01 conf]$ cp -p hive-exec-log4j.properties.template hive-exec-log4j.properties
[hdspark@node01 conf]$ cp -p hive-default.xml.template hive-default.xml


その他設定ファイルもテンプレートからコピーします。

[hdspark@node01 ~]$ hive

hive> show databases;
OK
default
Time taken: 0.521 seconds, Fetched: 1 row(s)


早速、hiveを実行し、接続できることを確認しました。