您好,欢迎来到九壹网。
搜索
您的当前位置:首页Java写本地ORC文件(Hive2 API)

Java写本地ORC文件(Hive2 API)

来源:九壹网

Hive2.0以后,使用了新的API来读写ORC文件(https://orc.apache.org)。
本文中的代码,在本地使用Java程序生成ORC文件,然后加载到Hive表。
代码如下:

 
 

将该程序打成普通jar包:orcwriter.jar
另外,本地使用Java程序执行依赖的Jar包有:

 
 
  1. commons-collections-3.2.1.jar
  2. hadoop-auth-2.3.0-cdh5.0.0.jar
  3. hive-exec-2.1.0.jar
  4. slf4j-log4j12-1.7.7.jar
  5. commons-configuration-1.6.jar
  6. hadoop-common-2.3.0-cdh5.0.0.jar
  7. log4j-1.2.16.jar
  8. commons-logging-1.1.1.jar
  9. hadoop-hdfs-2.3.0-cdh5.0.0.jar
  10. slf4j-api-1.7.7.jar

run2.sh中封装了执行命令:

 
 
  1. #!/bin/bash
  2.  
  3. PWD=$(dirname ${0})
  4. echo "PWD [${PWD}] .."
  5.  
  6. JARS=`find -L "${PWD}" -name '*.jar' -printf '%p:'`
  7. echo "JARS [${JARS}] .."
  8.  
  9. $JAVA_HOME/bin/java -cp ${JARS} com.lxw1234.hive.orc.TestORCWriter $*
  10.  

执行./run2.sh

在Hive中建表并LOAD数据:

可以看到,生成的ORC文件可以正常使用。

大多情况下,还是建议在Hive中将文本文件转成ORC格式,这种用JAVA在本地生成ORC文件,属于特殊需求场景。

 


因篇幅问题不能全部显示,请点此查看更多更全内容

Copyright © 2019- 91gzw.com 版权所有 湘ICP备2023023988号-2

违法及侵权请联系:TEL:199 18 7713 E-MAIL:2724546146@qq.com

本站由北京市万商天勤律师事务所王兴未律师提供法律服务