Hive详解(04) - hive函数的使用

系统内置函数

查看系统自带的函数

hive> show functions;

显示自带的函数的用法

hive> desc function upper;

详细显示自带的函数的用法

hive> desc function extended upper;

常用内置函数

空字段赋值

函数说明:NVL:给值为NULL的数据赋值,它的格式是NVL( value,default_value)。它的功能是如果value为NULL,则NVL函数返回default_value的值,否则返回value的值,如果两个参数都为NULL ,则返回NULL。

数据准备:采用员工表

查询:如果员工的comm为NULL,则用-1代替

hive (default)> select comm,nvl(comm, -1) from emp;

OK

comm _c1

NULL -1.0

300.0 300.0

500.0 500.0

NULL -1.0

NULL -1.0

查询:如果员工的comm为NULL,则用领导id代替

hive (default)> select comm, nvl(comm,mgr) from emp;

OK

comm _c1

NULL 7902.0

300.0 300.0

500.0 500.0

NULL 7839.0

NULL 7782.0

CASE WHEN THEN ELSE END

数据准备

name

dept_id

sex

悟空

A

大海

A

宋宋

B

凤姐

A

婷姐

B

婷婷

B

创建本地emp_sex.txt,导入数据

[hadoop@hadoop102 datas]$ vi emp_sex.txt

悟空    A    男

大海    A    男

宋宋    B    男

凤姐    A    女

婷姐    B    女

婷婷    B    女

需求

求出不同部门男女各多少人。结果如下:

dept_Id 男

A     2 1

B     1 2

创建hive表并导入数据

create table emp_sex(

name string,

dept_id string,

sex string)

row format delimited fields terminated by "\t";

load data local inpath '/opt/module/hive/datas/emp_sex.txt' into table emp_sex;

按需求查询数据

select

dept_id,

sum(case sex when '男' then 1 else 0 end) male_count,

sum(case sex when '女' then 1 else 0 end) female_count

from

emp_sex

group by

dept_id;

行转列

函数说明:

CONCAT(string A/col, string B/col…):返回输入字符串连接后的结果,支持任意个输入字符串;

CONCAT_WS(separator, str1, str2,...):它是一个特殊形式的 CONCAT()。第一个参数为剩余参数间的分隔符。分隔符可以是与剩余参数一样的字符串。如果分隔符是 NULL,返回值也将为 NULL。这个函数会跳过分隔符参数后的任何 NULL 和空字符串。分隔符将被加到被连接的字符串之间;

注意: CONCAT_WS must be "string or array<string>

COLLECT_SET(col):函数只接受基本数据类型,它的主要作用是将某字段的值进行去重汇总,产生array类型字段。

数据准备

name    constellation    blood_type

孙悟空    白羊座    A

大海    射手座    A

宋宋    白羊座    B

猪八戒    白羊座    A

凤姐    射手座    A

苍老师    白羊座    B

创建本地constellation.txt,导入数据

[hadoop@hadoop102 datas]$ vim person_info.txt

孙悟空    白羊座    A

大海    射手座    A

宋宋    白羊座    B

猪八戒    白羊座    A

凤姐    射手座    A

苍老师    白羊座    B

需求

把星座和血型一样的人归类到一起。结果如下:

射手座,A 大海|凤姐

白羊座,A 孙悟空|猪八戒

白羊座,B 宋宋|苍老师

创建hive表并导入数据

create table person_info(

name string,

constellation string,

blood_type string)

row format delimited fields terminated by "\t";

load data local inpath "/opt/module/hive/datas/person_info.txt" into table person_info;

按需求查询数据

SELECT t1.c_b , CONCAT_WS("|",collect_set(t1.name))

FROM (

SELECT NAME ,CONCAT_WS(',',constellation,blood_type) c_b

FROM person_info

)t1

GROUP BY t1.c_b

列转行

函数说明:

EXPLODE(col):将hive一列中复杂的array或者map结构拆分成多行。

LATERAL VIEW:LATERAL VIEW udtf(expression) tableAlias AS columnAlias,用于和split, explode等UDTF一起使用,它能够将一列数据拆成多行数据,在此基础上可以对拆分后的数据进行聚合。

数据准备

movie    category

《疑犯追踪》    悬疑,动作,科幻,剧情

《Lie to me》    悬疑,警匪,动作,心理,剧情

《战狼2》    战争,动作,灾难

创建本地movie.txt,导入数据

[hadoop@hadoop102 datas]$ vi movie_info.txt

《疑犯追踪》    悬疑,动作,科幻,剧情

《Lie to me》    悬疑,警匪,动作,心理,剧情

《战狼2》    战争,动作,灾难

需求

将电影分类中的数组数据展开。结果如下:

《疑犯追踪》
悬疑

《疑犯追踪》
动作

《疑犯追踪》
科幻

《疑犯追踪》
剧情

《Lie to me》
悬疑

《Lie to me》
警匪

《Lie to me》
动作

《Lie to me》
心理

《Lie to me》
剧情

《战狼2》
战争

《战狼2》
动作

《战狼2》
灾难

创建hive表并导入数据

create table movie_info(

movie string,

category string)

row format delimited fields terminated by "\t";

load data local inpath "/opt/module/hive/datas/movie_info.txt" into table movie_info;

按需求查询数据

SELECT movie,category_name

FROM movie_info

lateral VIEW

explode(split(category,",")) movie_info_tmp AS category_name ;

窗口函数(开窗函数)

相关函数说明

OVER():指定分析函数工作的数据窗口大小,这个数据窗口大小可能会随着行的改变而变化。

CURRENT ROW:当前行

n PRECEDING:往前n行数据

n FOLLOWING:往后n行数据

UNBOUNDED:起点,

UNBOUNDED PRECEDING 表示从前面的起点,

UNBOUNDED FOLLOWING表示到后面的终点

LAG(col,n,default_val):往前第n行数据

LEAD(col,n, default_val):往后第n行数据

NTILE(n):把有序窗口的行分发到指定数据的组中,各个组有编号,编号从1开始,对于每一行,NTILE返回此行所属的组的编号。注意:n必须为int类型。

数据准备:name,orderdate,cost

jack,2017-01-01,10

tony,2017-01-02,15

jack,2017-02-03,23

tony,2017-01-04,29

jack,2017-01-05,46

jack,2017-04-06,42

tony,2017-01-07,50

jack,2017-01-08,55

mart,2017-04-08,62

mart,2017-04-09,68

neil,2017-05-10,12

mart,2017-04-11,75

neil,2017-06-12,80

mart,2017-04-13,94

需求

(1)查询在2017年4月份购买过的顾客及总人数

(2)查询顾客的购买明细及月购买总额

(3)上述的场景, 将每个顾客的cost按照日期进行累加

(4)查询每个顾客上次的购买时间

(5)查询前20%时间的订单信息

创建本地business.txt,导入数据

[hadoop@hadoop102 datas]$ vi business.txt

创建hive表并导入数据

create table business(

name string,

orderdate string,

cost int

) ROW FORMAT DELIMITED FIELDS TERMINATED BY ',';

load data local inpath "/opt/module/hive/datas/business.txt" into table business;

按需求查询数据

(1)查询在2017年4月份购买过的顾客及总人数

select name,count(*) over () from business where substring(orderdate,1,7) = '2017-04' group by name;

(2)查询顾客的购买明细及月购买总额

select name,orderdate,cost,sum(cost) over(partition by month(orderdate)) from business;

(3)将每个顾客的cost按照日期进行累加

select name,orderdate,cost,

sum(cost) over() as sample1,--所有行相加

sum(cost) over(partition by name) as sample2,--按name分组,组内数据相加

sum(cost) over(partition by name order by orderdate) as sample3,--按name分组,组内数据累加

sum(cost) over(partition by name order by orderdate rows between UNBOUNDED PRECEDING and current row ) as sample4 ,--和sample3一样,由起点到当前行的聚合

sum(cost) over(partition by name order by orderdate rows between 1 PRECEDING and current row) as sample5, --当前行和前面一行做聚合

sum(cost) over(partition by name order by orderdate rows between 1 PRECEDING AND 1 FOLLOWING ) as sample6,--当前行和前边一行及后面一行

sum(cost) over(partition by name order by orderdate rows between current row and UNBOUNDED FOLLOWING ) as sample7 --当前行及后面所有行

from business;

rows必须跟在Order by 子句之后,对排序的结果进行限制,使用固定的行数来限制分区中的数据行数量

(4)查看顾客上次的购买时间

select name,orderdate,cost,lag(orderdate,1,'1900-01-01') over(partition by name order by orderdate ) as time1, lag(orderdate,2) over (partition by name order by orderdate) as time2 from business;

(5)查询前20%时间的订单信息

select * from (

select name,orderdate,cost, ntile(5) over(order by orderdate) sorted

from business

) t where sorted = 1;

Rank

函数说明

RANK() :排序相同时会重复,总数不会变

DENSE_RANK() :排序相同时会重复,总数会减少

ROW_NUMBER() :会根据顺序计算

2)数据准备

name    subject    score

孙悟空    语文    87

孙悟空    数学    95

孙悟空    英语    68

大海    语文    94

大海    数学    56

大海    英语    84

宋宋    语文    64

宋宋    数学    86

宋宋    英语    84

婷婷    语文    65

婷婷    数学    85

婷婷    英语    78

需求

计算每门学科成绩排名。

创建本地score.txt,导入数据

[hadoop@hadoop102 datas]$ vi score.txt

创建hive表并导入数据

create table score(

name string,

subject string,

score int)

row format delimited fields terminated by "\t";

load data local inpath '/opt/module/hive/datas/score.txt' into table score;

按需求查询数据

select name,

subject,

score,

rank() over(partition by subject order by score desc) rp,

dense_rank() over(partition by subject order by score desc) drp,

row_number() over(partition by subject order by score desc) rmp

from score;

name subject score rp drp rmp

孙悟空
数学 95 1 1 1

宋宋
数学 86 2 2 2

婷婷
数学 85 3 3 3

大海
数学 56 4 4 4

宋宋
英语 84 1 1 1

大海
英语 84 1 1 2

婷婷
英语 78 3 2 3

孙悟空
英语 68 4 3 4

大海
语文 94 1 1 1

孙悟空
语文 87 2 2 2

婷婷
语文 65 3 3 3

宋宋
语文 64 4 4 4

其他常用函数

常用日期函数

unix_timestamp:返回当前或指定时间的时间戳

select unix_timestamp();

select unix_timestamp("2020-10-28",'yyyy-MM-dd');

from_unixtime:将时间戳转为日期格式

select from_unixtime(1603843200);

current_date:当前日期

select current_date;

current_timestamp:当前的日期加时间

select current_timestamp;

to_date:抽取日期部分

select to_date('2020-10-28 12:12:12');

year:获取年

select year('2020-10-28 12:12:12');

month:获取月

select month('2020-10-28 12:12:12');

day:获取日

select day('2020-10-28 12:12:12');

hour:获取时

select hour('2020-10-28 12:13:14');

minute:获取分

select minute('2020-10-28 12:13:14');

second:获取秒

select second('2020-10-28 12:13:14');

weekofyear:当前时间是一年中的第几周

select weekofyear('2020-10-28 12:12:12');

dayofmonth:当前时间是一个月中的第几天

select dayofmonth('2020-10-28 12:12:12');

months_between: 两个日期间的月份

select months_between('2020-04-01','2020-10-28');

add_months:日期加减月

select add_months('2020-10-28',-3);

datediff:两个日期相差的天数

select datediff('2020-11-04','2020-10-28');

date_add:日期加天数

select date_add('2020-10-28',4);

date_sub:日期减天数

select date_sub('2020-10-28',-4);

last_day:日期的当月的最后一天

select last_day('2020-02-30');

date_format(): 格式化日期

select date_format('2020-10-28 12:12:12','yyyy/MM/dd HH:mm:ss');

常用取整函数

round: 四舍五入

select round(3.14);

select round(3.54);

ceil: 向上取整

select ceil(3.14);

select ceil(3.54);

floor: 向下取整

23. select floor(3.14);

select floor(3.54);

常用字符串操作函数

upper: 转大写

select upper('low');

lower: 转小写

select lower('low');

length: 长度

select length("atguigu");

trim: 前后去空格

select trim(" atguigu ");

lpad: 向左补齐,到指定长度

select lpad('atguigu',9,'g');

rpad: 向右补齐,到指定长度

select rpad('atguigu',9,'g');

regexp_replace:使用正则表达式匹配目标字符串,匹配成功后替换!

SELECT regexp_replace('2020/10/25', '/', '-');

集合操作

size: 集合中元素的个数

select size(friends) from test3;

map_keys: 返回map中的key

select map_keys(children) from test3;

map_values: 返回map中的value

select map_values(children) from test3;

array_contains: 判断array中是否包含某个元素

select array_contains(friends,'bingbing') from test3;

sort_array: 将array中的元素排序

select sort_array(friends) from test3;

多维分析

grouping sets:多维分析

自定义函数

自定义函数简介

Hive 自带了一些函数,比如:max/min等,但是数量有限,自己可以通过自定义UDF来方便的扩展。

当Hive提供的内置函数无法满足你的业务处理需要时,此时就可以考虑使用用户自定义函数(UDF:user-defined function)。

(1)UDF(User-Defined-Function)

一进一出

(2)UDAF(User-Defined Aggregation Function)

聚集函数,多进一出

类似于:count/max/min

(3)UDTF(User-Defined Table-Generating Functions)

一进多出

如lateral view explode()

https://cwiki.apache.org/confluence/display/Hive/HivePlugins

继承Hive提供的类

org.apache.hadoop.hive.ql.udf.generic.GenericUDF

org.apache.hadoop.hive.ql.udf.generic.GenericUDTF;

实现类中的抽象方法

在hive的命令行窗口创建函数

添加jar

add jar linux_jar_path

创建function

create [temporary] function [dbname.]function_name AS class_name;

在hive的命令行窗口删除函数

drop [temporary] function [if exists] [dbname.]function_name;

自定义UDF函数

需求:

自定义一个UDF实现计算给定字符串的长度,例如:

hive(default)> select my_len("abcd");

4

1)创建一个Maven工程Hive

2)导入依赖

<dependency>

<groupId>org.apache.hive</groupId>

<artifactId>hive-exec</artifactId>

<version>3.1.2</version>

</dependency>

3)创建一个类

package com.zhangjk.hive;

import org.apache.hadoop.hive.ql.exec.UDFArgumentException;

import org.apache.hadoop.hive.ql.exec.UDFArgumentLengthException;

import org.apache.hadoop.hive.ql.exec.UDFArgumentTypeException;

import org.apache.hadoop.hive.ql.metadata.HiveException;

import org.apache.hadoop.hive.ql.udf.generic.GenericUDF;

import org.apache.hadoop.hive.serde2.objectinspector.ObjectInspector;

import org.apache.hadoop.hive.serde2.objectinspector.primitive.PrimitiveObjectInspectorFactory;

/**

* 自定义UDF函数,需要继承GenericUDF类

* 需求: 计算指定字符串的长度

*/

public
class MyStringLength extends GenericUDF {

/**

* @param arguments 输入参数类型的鉴别器对象

* @return
返回值类型的鉴别器对象

* @throws UDFArgumentException

*/

@Override

public ObjectInspector initialize(ObjectInspector[] arguments)
throws UDFArgumentException {

// 判断输入参数的个数

if(arguments.length !=1){

throw
new UDFArgumentLengthException("Input Args Length Error!!!");

}

// 判断输入参数的类型

if(!arguments[0].getCategory().equals(ObjectInspector.Category.PRIMITIVE)){

throw
new UDFArgumentTypeException(0,"Input Args Type Error!!!");

}

//函数本身返回值为int,需要返回int类型的鉴别器对象

return PrimitiveObjectInspectorFactory.javaIntObjectInspector;

}

/**

* 函数的逻辑处理

* @param arguments 输入的参数

* @return
返回值

* @throws HiveException

*/

@Override

public Object evaluate(DeferredObject[] arguments)
throws HiveException {

if(arguments[0].get()
==
null){

return
0
;

}

return arguments[0].get().toString().length();

}

@Override

public String getDisplayString(String[] children)
{

return
"";

}

}

4)打成jar包上传到服务器/opt/module/hive/datas/myudf.jar

5)将jar包添加到hive的classpath

hive (default)> add jar /opt/module/hive/myudf.jar;

6)创建临时函数与开发好的java class关联

hive (default)> create temporary function my_len as "com.zhangjk.hive.MyStringLength";

7)即可在hql中使用自定义的函数

hive (default)> select my_len("hello");

OK

_c0

5

自定义UDTF函数

需求

自定义一个UDTF实现将一个任意分割符的字符串切割成独立的单词,例如:

hive(default)> select myudtf("hello,world,hadoop,hive", ",");

hello

world

hadoop

hive

1)代码实现

package com.zhangjk.hive;

import org.apache.hadoop.hive.ql.exec.UDFArgumentException;

import org.apache.hadoop.hive.ql.metadata.HiveException;

import org.apache.hadoop.hive.ql.udf.generic.GenericUDTF;

import org.apache.hadoop.hive.serde2.objectinspector.ObjectInspector;

import org.apache.hadoop.hive.serde2.objectinspector.ObjectInspectorFactory;

import org.apache.hadoop.hive.serde2.objectinspector.StructObjectInspector;

import org.apache.hadoop.hive.serde2.objectinspector.primitive.PrimitiveObjectInspectorFactory;

import java.util.ArrayList;

import java.util.List;

public
class MyUDTF extends GenericUDTF {

private ArrayList<String> outList =
new ArrayList<>();

@Override

public StructObjectInspector initialize(StructObjectInspector argOIs)
throws UDFArgumentException {

//1.定义输出数据的列名和类型

List<String> fieldNames =
new ArrayList<>();

List<ObjectInspector> fieldOIs =
new ArrayList<>();

//2.添加输出数据的列名和类型

fieldNames.add("lineToWord");

fieldOIs.add(PrimitiveObjectInspectorFactory.javaStringObjectInspector);

return ObjectInspectorFactory.getStandardStructObjectInspector(fieldNames, fieldOIs);

}

@Override

public
void process(Object[] args)
throws HiveException {

//1.获取原始数据

String arg = args[0].toString();

//2.获取数据传入的第二个参数,此处为分隔符

String splitKey = args[1].toString();

//3.将原始数据按照传入的分隔符进行切分

String[] fields = arg.split(splitKey);

//4.遍历切分后的结果,并写出

for
(String field : fields)
{

//集合为复用的,首先清空集合

outList.clear();

//将每一个单词添加至集合

outList.add(field);

//将集合内容写出

forward(outList);

}

}

@Override

public
void close()
throws HiveException {

}

}

2)打成jar包上传到服务器/opt/module/hive/data/myudtf.jar

3)将jar包添加到hive的classpath下

hive (default)> add jar /opt/module/hive/myudtf.jar;

4)创建临时函数与开发好的java class关联

hive (default)> create temporary function myudtf as "com.atguigu.hive.MyUDTF";

5)使用自定义的函数

hive (default)> select myudtf("hello,word,hadoop,hive", ",");

OK

linetoword

hello

word

hadoop

hive

Time taken: 0.173 seconds, Fetched: 4 row(s)

最新文章

  1. sql server 代理服务
  2. IDDD 实现领域驱动设计-一个简单的 CQRS 示例
  3. 学习大神笔记之“MyBatis学习总结(二)”
  4. php函数ob_start()、ob_end_clean()、ob_get_contents()
  5. win8 中实现断点续传
  6. Java获取当前第几周【转】
  7. mongodb主从复制
  8. php5.2转向 PHP 5.3 的 PHP 开发
  9. java源码部署
  10. nginx如何解决超长请求串
  11. 【ASP.NET MVC 学习笔记】- 06 在MVC中使用Ninject
  12. 初识NumPy库-基本操作
  13. ssh-keygen -t rsa 生成密钥对后如何校验
  14. IOS中input键盘事件支持的解决方法
  15. 17秋 软件工程 团队第三次作业 预则立&amp;他山之石
  16. poj 1837 01背包
  17. PAT 1024 科学计数法
  18. java——关于异常处理机制的简单原理和应用
  19. BeamNG.drive物理引擎评鉴
  20. swift学习笔记之控制流

热门文章

  1. Codeforces Round #751 (Div. 2)/CodeForces1602
  2. .NET Core C#系列之XiaoFeng.Data.IQueryableX ORM框架
  3. 京东云开发者|京东云RDS数据迁移常见场景攻略
  4. JWT中token的理解
  5. QML 怎么调用 C++ 中的内容?
  6. spring-属性注入(外部bean方式)
  7. 不用终端运行 Vue项目 基于Pycharm
  8. Day3:学习Java的第一步:Hello World!
  9. OS-HACKNOS-2.1靶机之解析
  10. 初步探索GraalVM——云原生时代JVM黑科技