[Hadoop]搭建Hive环境

无干货,仅供复制

注:这里假定机器上已经运行了一个pseudo mode的hadoop

1.下载、解压

2.把HIVE_INSTALL/bin 加入到path中

3.配置相关的hadoop信息


<!--HIVE_INSTALL/conf/hive-site.xml-->
<configuration>

<!--跟hadoop下的cores-site.xml一致-->
<property>
    <name>fs.default.name</name>
    <value>hdfs://localhost/</value>
</property>
<!--跟hadoop下的mapret-site.xml一致-->
<property>
    <name>mapred.job.tracker</name>
    <value>localhost:8021</value>
  </property>



</configuration>

4. 在hadoop服务器上执行hive查询时需要用到hive的一个库,需要在hive里配置。

<!--HIVE_INSTALL/conf/hive-site.xml-->
<property>
  <name>hive.aux.jars.path</name>
  <value>/home/kent/hive-contrib-0.9.0.jar</value>
</property>

当然,要把这个库从本地复制到hdfs中,

引用

#hadoop fs -copyFromLocal /home/kent/dev/hadoop/hive-0.9.0/lib/hive-contrib-0.9.0.jar /home/kent/hive-contrib-0.9.0.jar

5. 最后试一下

# echo 'X' > /tmp/dummy.txt
# hive
> create table dummy (value string);  --建一个表
> load data local inpath '/tmp/dummy.txt' overwrite into table dummy -- 将本地文件导入到表中;
> select * from dummy; 

Leave a Comment

Your email address will not be published.

This site uses Akismet to reduce spam. Learn how your comment data is processed.