hive> show functions;
hive> desc function upper;
hive> desc function extended upper;
(1) 函数说明
NVL
:给值为 NULL
的数据赋值,它的格式是 NVL
( value,default_value)。它的功能是如果 value
为 NULL
,则 NVL
函数返回 default_value
的值,否则返回 value
的值,如果两个参数都为 NULL
,则返回 NULL
。
(2) 数据准备:采用员工表
(3) 查询:如果员工的 comm
为 NULL
,则用 -1
代替
hive (default)> select comm,nvl(comm, -1) from emp;
comm _c1
NULL -1.0
300.0 300.0
500.0 500.0
NULL -1.0
...
comm
为 NULL
,则用领导 id
代替hive (default)> select comm, nvl(comm,mgr) from emp;
OK
comm _c1
NULL 7902.0
300.0 300.0
500.0 500.0
NULL 7839.0
name | dept_id | sex |
---|---|---|
悟空 | A | 男 |
大海 | A | 男 |
宋宋 | B | 男 |
凤姐 | A | 女 |
婷姐 | B | 女 |
婷婷 | B | 女 |
dept_Id 男 女
A 2 1
B 1 2
emp_sex.txt
,导入数据[xqzhao@hadoop100 datas]$ vi emp_sex.txt
悟空 A 男
大海 A 男
宋宋 B 男
凤姐 A 女
婷姐 B 女
婷婷 B 女
hive
表并导入数据创建 hive
表
create table emp_sex(
name string,
dept_id string,
sex string
)
row format delimited fields terminated by "\t";
导入数据:
hive (default)> hiveload data local inpath '/opt/module/hive/data/emp_sex.txt'
into table emp_sex;
selectdept_id,
sum(case sex when '男' then 1 else 0 end) male_count,
sum(case sex when '女' then 1 else 0 end) female_count
from emp_sex
group by dept_id;
CONCAT(string A/col, string B/col…)
:返回输入字符串连接后的结果,支持任意个输入字符串;CONCAT_WS(separator, str1, str2,...)
:它是一个特殊形式的CONCAT()
。第一个参数剩余参数间的分隔符。分隔符可以是与剩余参数一样的字符串。如果分隔符是NULL
,返回值也将为NULL
。这个函数会跳过分隔符参数后的任何NULL
和空字符串。分隔符将被加到被连接的字符串之间;
注意: CONCAT_WS must be "string or array<string>
COLLECT_SET(col)
:函数只接受基本数据类型,它的主要作用是将某字段的值进行去重汇总,产生Array
类型字段。
name | constellation | blood_type |
---|---|---|
孙悟空 | 白羊座 | A |
大海 | 射手座 | A |
宋宋 | 白羊座 | B |
猪八戒 | 白羊座 | A |
凤姐 | 射手座 | A |
苍老师 | 白羊座 | B |
把星座和血型一样的人归类到一起。结果如下:
射手座,A 大海|凤姐
白羊座,A 孙悟空|猪八戒
白羊座,B 宋宋|苍老师
constellation.txt
,填入数据[xqzhao@hadoop100 datas]$ vim person_info.txt
孙悟空 白羊座 A
大海 射手座 A
宋宋 白羊座 B
猪八戒 白羊座 A
凤姐 射手座 A
苍老师 白羊座 B
hive
表并导入数据创建 hive
表:
create table person_info(
name string,
constellation string,
blood_type string)
row format delimited fields terminated by "\t";
导入数据:
hive (default)> load data local inpath "/opt/module/hive/data/person_info.txt"
into table person_info;
SELECT
t1.c_b,
CONCAT_WS("|",collect_set(t1.name))
FROM (
SELECT
NAME,
CONCAT_WS(',',constellation,blood_type) c_b
FROM person_info
)t1
GROUP BY t1.c_b
EXPLODE(col)
:将hive
一列中复杂的Array
或者Map
结构拆分成多行。
LATERAL VIEW
:
用法:LATERAL VIEW udtf(expression) tableAlias AS columnAlias
解释:用于和split
,explode
等UDTF
一起使用,它能够将一列数据拆成多行数据,在此基础上可以对拆分后的数据进行聚合。
movie category
《疑犯追踪》 悬疑,动作,科幻,剧情
《Lie to me》 悬疑,警匪,动作,心理,剧情
《战狼 2》 战争,动作,灾难
将电影分类中的数组数据展开。结果如下:
《疑犯追踪》 悬疑
《疑犯追踪》 动作
《疑犯追踪》 科幻
《疑犯追踪》 剧情
《Lie to me》 悬疑
《Lie to me》 警匪
《Lie to me》 动作
《Lie to me》 心理
《Lie to me》 剧情
《战狼 2》 战争
《战狼 2》 动作
《战狼 2》 灾难
[xqzhao@hadoop100 datas]$ vi movie_info.txt
《疑犯追踪》 悬疑,动作,科幻,剧情
《Lie to me》 悬疑,警匪,动作,心理,剧情
《战狼 2》 战争,动作,灾难
hive
表并导入数据创建 hive
表:
create table movie_info(
movie string,
category string)
row format delimited fields terminated by "\t";
导入数据
hive (default)> load data local inpath "/opt/module/data/movie.txt"
into table movie_info;
SELECT
movie,
category_name
FROM
movie_info
lateral VIEW
explode(split(category,",")) movie_info_tmp AS category_name;
OVER()
:指定分析函数工作的数据窗口大小,这个数据窗口大小可能会随着行的变而变化。
CURRENT ROW
:当前行
n PRECEDING
:往前n
行数据
n FOLLOWING
:往后n
行数据
UNBOUNDED
:起点
UNBOUNDED PRECEDING
表示从前面的起点,
UNBOUNDED FOLLOWING
表示到后面的终点
LAG(col,n,default_val)
:往前第 n 行数据
LEAD(col,n, default_val)
:往后第 n 行数据
NTILE(n)
:把有序窗口的行分发到指定数据的组中,各个组有编号,编号从 1 开始,对于每一行,NTILE 返回此行所属的组的编号。注意:n 必须为 int 类型。
name
,orderdate
,cost
jack,2017-01-01,10
tony,2017-01-02,15
jack,2017-02-03,23
tony,2017-01-04,29
jack,2017-01-05,46
jack,2017-04-06,42
tony,2017-01-07,50
jack,2017-01-08,55
mart,2017-04-08,62
mart,2017-04-09,68
neil,2017-05-10,12
mart,2017-04-11,75
neil,2017-06-12,80
mart,2017-04-13,94
(1) 查询在
2017
年4
月份购买过的顾客及总人数
(2) 查询顾客的购买明细及月购买总额
(3) 上述的场景, 将每个顾客的cost
按照日期进行累加
(4) 查询每个顾客上次的购买时间
(5) 查询前20%
时间的订单信息
business.txt
,导入数据[xqzhao@hadoop100 datas]$ vi business.txt
hive
表并导入数据创建 hive
表
create table business(
name string,
orderdate string,
cost int
) ROW FORMAT DELIMITED FIELDS TERMINATED BY ',';
导入数据
hive (default)> load data local inpath "/opt/module/data/business.txt"
into table business;
- (1) 查询在
2017
年4
月份购买过的顾客及总人数select name,count(*) over () from business where substring(orderdate,1,7) = '2017-04' group by name;
- (2) 查询顾客的购买明细及月购买总额
select name,orderdate,cost,sum(cost) over(partition by month(orderdate)) from business;
- (3) 将每个顾客的 cost 按照日期进行累加
select name,orderdate,cost, sum(cost) over() as sample1, --所有行相加 sum(cost) over(partition by name) as sample2, --按 name 分组,组内数据相加 sum(cost) over(partition by name order by orderdate) as sample3, --按 name分组,组内数据累加 sum(cost) over(partition by name order by orderdate rows between UNBOUNDED PRECEDING and current row ) as sample4 ,--和 sample3 一样,由起点到当前行的聚合 sum(cost) over(partition by name order by orderdate rows between 1 PRECEDING and current row) as sample5, --当前行和前面一行做聚合 sum(cost) over(partition by name order by orderdate rows between 1 PRECEDING AND 1 FOLLOWING ) as sample6,--当前行和前边一行及后面一行 sum(cost) over(partition by name order by orderdate rows between current row and UNBOUNDED FOLLOWING ) as sample7 --当前行及后面所有行 from business;
rows
必须跟在order by
子句之后,对排序的结果进行限制,使用固定的行数来限制分区中的数据行数量
- (4) 查看顾客上次的购买时间
select name,orderdate,cost, lag(orderdate,1,'1900-01-01') over(partition by name order by orderdate ) as time1, lag(orderdate,2) over (partition by name order by orderdate) as time2 from business;
- (5) 查询前
20%
时间的订单信息select * from ( select name,orderdate,cost, ntile(5) over(order by orderdate) sorted from business ) t where sorted = 1;
RANK()
排序相同时会重复,总数不会变DENSE_RANK()
排序相同时会重复,总数会减少ROW_NUMBER()
会根据顺序计算
name subject score
孙悟空 语文 87
孙悟空 数学 95
孙悟空 英语 68
大海 语文 94
大海 数学 56
大海 英语 84
宋宋 语文 64
宋宋 数学 86
宋宋 英语 84
婷婷 语文 65
婷婷 数学 85
婷婷 英语 78
计算每门学科成绩排名。
score.txt
,导入数据[xqzhao@hadoop100 datas]$ vi score.txt
hive
表并导入数据create table score(
name string,
subject string,
score int)
row format delimited fields terminated by "\t";
load data local inpath '/opt/module/data/score.txt' into table score;
select name,
subject,
score,
rank() over(partition by subject order by score desc) rp,
dense_rank() over(partition by subject order by score desc) drp,
row_number() over(partition by subject order by score desc) rmp
from score;
扩展:求出每门学科前三名的学生?
(1) Hive
自带了一些函数,比如:max/min
等,但是数量有限,自己可以通过自定义 UDF
来方便的扩展。
(2) 当 Hive
提供的内置函数无法满足你的业务处理需要时,此时就可以考虑使用用户自定义函数(UDF
:user-defined function)。
(3) 根据用户自定义函数类别分为以下三种:
(1)
UDF
(User-Defined-Function)
一进一出(2)
UDAF
(User-Defined Aggregation Function)
聚集函数,多进一出
类似于:count/max/min
(3)
UDTF
(User-Defined Table-Generating Functions)
一进多出
如lateral view explode()
(4) 官方文档地址
点击查看官方文档
(5) 编程步骤:
- (1) 继承
Hive
提供的类org.apache.hadoop.hive.ql.udf.generic.GenericUDF org.apache.hadoop.hive.ql.udf.generic.GenericUDTF;
- (2) 实现类中的抽象方法
- (3) 在
hive
的命令行窗口创建函数
添加jar
add jar linux_jar_path
创建
function
create [temporary] function [dbname.]function_name AS class_name;
- (4) 在
hive
的命令行窗口删除函数drop [temporary] function [if exists] [dbname.]function_name;
hive(default)> select my_len("abcd");
4
(1) 创建一个 Maven
工程 Hive
(2) 导入依赖
<dependencies>
<dependency>
<groupId>org.apache.hive</groupId>
<artifactId>hive-exec</artifactId>
<version>3.1.2</version>
</dependency>
</dependencies>
package com.atguigu.hive;
import org.apache.hadoop.hive.ql.exec.UDFArgumentException;
import org.apache.hadoop.hive.ql.exec.UDFArgumentLengthException;
import org.apache.hadoop.hive.ql.exec.UDFArgumentTypeException;
import org.apache.hadoop.hive.ql.metadata.HiveException;
import org.apache.hadoop.hive.ql.udf.generic.GenericUDF;
import org.apache.hadoop.hive.serde2.objectinspector.ObjectInspector;
import org.apache.hadoop.hive.serde2.objectinspector.primitive.PrimitiveObjectInspectorFactory;
/**
* 自定义 UDF 函数,需要继承 GenericUDF 类
* 需求: 计算指定字符串的长度
*/
public class MyStringLength extends GenericUDF {
/**
*
* @param arguments 输入参数类型的鉴别器对象
* @return 返回值类型的鉴别器对象
* @throws UDFArgumentException
*/
@Override
public ObjectInspector initialize(ObjectInspector[] arguments) throws UDFArgumentException {
// 判断输入参数的个数
if(arguments.length !=1){
throw new UDFArgumentLengthException("Input Args Length
Error!!!");
}
// 判断输入参数的类型
if(!arguments[0].getCategory().equals(ObjectInspector.Category.PRIMITIVE)){
throw new UDFArgumentTypeException(0,"Input Args Type Error!!!");
}
//函数本身返回值为 int,需要返回 int 类型的鉴别器对象
return PrimitiveObjectInspectorFactory.javaIntObjectInspector;
}
/**
* 函数的逻辑处理
* @param arguments 输入的参数
* @return 返回值
* @throws HiveException
*/
@Override
public Object evaluate(DeferredObject[] arguments) throws HiveException {
if(arguments[0].get() == null){
return 0;
}
return arguments[0].get().toString().length();
}
@Override
public String getDisplayString(String[] children) {
return "";
}
}
(4) 打成 jar
包上传到服务器/opt/module/data/myudf.jar
(5) 将 jar
包添加到 hive
的 classpath
hive (default)> add jar /opt/module/data/myudf.jar;
java class
关联hive (default)> create temporary function my_len as "com.atguigu.hive.
MyStringLength";
hql
中使用自定义的函数hive (default)> select ename,my_len(ename) ename_len from emp;
自定义一个 UDTF 实现将一个任意分割符的字符串切割成独立的单词,例如:
hive(default)> select myudtf("hello,world,hadoop,hive", ",");
hello
world
hadoop
hive
package com.atguigu.udtf;
import org.apache.hadoop.hive.ql.exec.UDFArgumentException;
import org.apache.hadoop.hive.ql.metadata.HiveException;
import org.apache.hadoop.hive.ql.udf.generic.GenericUDTF;
import org.apache.hadoop.hive.serde2.objectinspector.ObjectInspector;
import org.apache.hadoop.hive.serde2.objectinspector.ObjectInspectorFactory;
import org.apache.hadoop.hive.serde2.objectinspector.StructObjectInspector;
import org.apache.hadoop.hive.serde2.objectinspector.primitive.PrimitiveObjectInspectorFactory;
import java.util.ArrayList;
import java.util.List;
public class MyUDTF extends GenericUDTF {
private ArrayList<String> outList = new ArrayList<>();
@Override
public StructObjectInspector initialize(StructObjectInspector argOIs) throws UDFArgumentException {
//1.定义输出数据的列名和类型
List<String> fieldNames = new ArrayList<>();
List<ObjectInspector> fieldOIs = new ArrayList<>();
//2.添加输出数据的列名和类型
fieldNames.add("lineToWord");
fieldOIs.add(PrimitiveObjectInspectorFactory.javaStringObjectInspector);
return ObjectInspectorFactory.getStandardStructObjectInspector(fieldNames, fieldOIs);
}
@Override
public void process(Object[] args) throws HiveException {
//1.获取原始数据
String arg = args[0].toString();
//2.获取数据传入的第二个参数,此处为分隔符
String splitKey = args[1].toString();
//3.将原始数据按照传入的分隔符进行切分
String[] fields = arg.split(splitKey);
//4.遍历切分后的结果,并写出
for (String field : fields) {
//集合为复用的,首先清空集合
outList.clear();
//将每一个单词添加至集合
outList.add(field);
//将集合内容写出
forward(outList);
}
}
@Override
public void close() throws HiveException {
}
}
jar
包上传到服务器 /opt/module/hive/data/myudtf.jar
jar
包添加到 hive
的 classpath
下hive (default)> add jar /opt/module/hive/data/myudtf.jar;
java class
关联hive (default)> create temporary function myudtf as "com.atguigu.hive.MyUDTF";
hive (default)> select myudtf("hello,world,hadoop,hive",",");
声明:本文是学习时记录的笔记,如有侵权请告知删除!
原视频地址:https://www.bilibili.com/video/BV1EZ4y1G7iL