小编给大家分享一下Hive运维中hive-site文件的示例分析,相信大部分人都还不怎么了解,因此分享这篇文章给大家参考一下,希望大家阅读完这篇文章后大有收获,下面让我们一起去了解一下吧!
义县网站建设公司成都创新互联公司,义县网站设计制作,有大型网站制作公司丰富经验。已为义县上1000家提供企业网站建设服务。企业网站搭建\外贸营销网站建设要多少钱,请找那个售后服务好的义县做网站的公司定做!
0. hive设置的优先级(从高到低):
1. Hive set命令。
2. 命令行选择 -hiveconf
3. hive-site.xml
4. hive-default.xml
5. hadoop-site.xml(或者是core-site.xml hdfs-site.xml mapred-site.xml)
6. hadoop-default.xml(或者是core-default.xml hdfs-default.xml mapred-default.xml)。
7. hive的日志信息存放在 /tmp/$USER/hive.log,出错时hadoop的mapred task logs也可以查看,本环境在/tmp/nslab下查看。
命令:hive -hiveconf hive.root.logger=DEBUG,console 将调试信息打印到控制台。
使用set的使用
1. 使用set查看设置的值:
set hive.enforce.bucketing
2. 只输入一个set,会列出所有的设置。
3. 设置新的属性,格式类似下面:
set hive.enforce.bucketing=true;
1. 动态分区:
hive.exec.dynamic.partition
是否打开动态分区。
默认:false
hive.exec.dynamic.partition.mode
打开动态分区后,动态分区的模式,有 strict 和 nonstrict 两个值可选,strict 要求至少包含一个静态分区列,nonstrict 则无此要求。
默认:strict
hive.exec.max.dynamic.partitions
所允许的最大的动态分区的个数。
默认:1000
hive.exec.max.dynamic.partitions.pernode
单个 reduce 结点所允许的最大的动态分区的个数。
默认:100
hive.exec.default.partition.name
默认的动态分区的名称,当动态分区列为''或者null时,使用此名称。''
2. 打印列名, 开启行转列(有待测试)
set hive.cli.print.header=true; // 打印列名
set hive.cli.print.row.to.vertical=true; // 开启行转列功能, 前提必须开启打印列名功能
set hive.cli.print.row.to.vertical.num=1; // 设置每行显示的列数
3. 查看hive版本:
set hive.hwi.war.file;
4. 查看hive命令行字符编码:
hive.cli.encoding
Hive 默认的命令行字符编码。
默认: 'UTF8'
5. Hive Fetch Task执行:
set hive.fetch.task.conversion=more;
对于简单的不需要聚合的类似SELECT
from
LIMIT n语句,不需要起MapReduce job,直接通过Fetch task获取数据(数据量过大, 也能 无 返回结果)类似linux的vi,直接对文本进行操作。
也有点类似shark的列存储的操作: 放在同一个array里面,所以查询数据很快
hive.fetch.task.conversion
Hive 默认的mapreduce操作
默认: minimal
6. MapJoin
旧版本HIVE需要自行在查询/子查询的SELECT关键字后面添加/*+ MAPJOIN(tablelist) */提示优化器转化为MapJoin。高版本只需设置:
set hive.auto.convert.join=true;
HIVE自行选择小表作为LEFT的左表。
7. Strict Mode:
hive.mapred.mode=true,严格模式不允许执行以下查询:
分区表上没有指定了分区
没有limit限制的order by语句
笛卡尔积:JOIN时没有ON语句
8. 并发执行任务:
设置该参数是控制在同一个sql中的不同的job是否可以同时运行,默认是false
hive.exec.parallel=true ,默认为false
hive.exec.parallel.thread.number=8
hive.groupby.skewindata=true:数据倾斜时负载均衡,当选项设定为true,生成的查询计划会有两个MRJob。第一个MRJob 中,
Map的输出结果集合会随机分布到Reduce中,每个Reduce做部分聚合操作,并输出结果,这样处理的结果是相同的GroupBy Key
有可能被分发到不同的Reduce中,从而达到负载均衡的目的;第二个MRJob再根据预处理的数据结果按照GroupBy Key分布到
Reduce中(这个过程可以保证相同的GroupBy Key被分布到同一个Reduce中),最后完成最终的聚合操作。
10. hive.exec.rowoffset:是否提供虚拟列
11. set hive.error.on.empty.partition=true; 那么动态分区如果为空,则会报异常
set hive.error.on.empty.partition = true;
set hive.exec.dynamic.partition.mode=nonstrict;
参考地址: http://my.oschina.net/repine/blog/541380
12. hive.merge.mapredfiles:合并小文件
工作需要合并reduce产生文件:
set hive.merge.smallfiles.avgsize=67108864;
set hive.merge.mapfiles=true;
set hive.merge.mapredfiles=true;
参考地址: http://www.linuxidc.com/Linux/2015-06/118391.htm
1.先在hive-site.xml中设置小文件的标准.
hive.merge.smallfiles.avgsize
536870912
When the average output file size of a job is less than this number, Hive will start an additional map-reduce job to merge the output files into bigger files. This is only done for map-only jobs if hive.merge.mapfiles is true, and for map-reduce jobs if hive.merge.mapredfiles is true.
2.为只有map的mapreduce的输出并合并小文件.
hive.merge.mapfiles
true
Merge small files at the end of a map-only job
3.为含有reduce的mapreduce的输出并合并小文件.
hive.merge.mapredfiles
true
Merge small files at the end of a map-reduce job
以上是“Hive运维中hive-site文件的示例分析”这篇文章的所有内容,感谢各位的阅读!相信大家都有了一定的了解,希望分享的内容对大家有所帮助,如果还想学习更多知识,欢迎关注创新互联行业资讯频道!
本文名称:Hive运维中hive-site文件的示例分析
文章地址:http://kswsj.cn/article/pogjej.html