Oracle连续相同数据的统计
程序员文章站
2022-07-10 12:29:59
有些事情始终是需要坚持下去的。。。
今天复习一下之前用到的连续相同数据的统计。
首先,创建一个简单的测试表,这里过程就略过了,直接上表(真的是以简单为主,哈哈…)...
有些事情始终是需要坚持下去的。。。
今天复习一下之前用到的连续相同数据的统计。
首先,创建一个简单的测试表,这里过程就略过了,直接上表(真的是以简单为主,哈哈…)
第一种写法row_number()
:
select val,count(*) from (select id,val, row_number() over(order by id)-row_number() over(partition by val order by id) x from lcy ) group by val,x order by min(id);
第二种rank()
:
select val,count(*) from (select id,val, rank() over(order by id)-rank() over(partition by val order by id) x from lcy) group by val,x order by min(id);
第三种dense_rank()
:
select val,count(*) from (select id,val, dense_rank() over(order by id)-dense_rank() over(partition by val order by id) x from lcy )group by val,x order by min(id);
结果:
三者在这里的用法只是换汤不换药,但是在其他的需求里还是有区别的,比如成绩排名。
本章涉及到的知识点是分析函数、聚合函数,除此之外还有数据分析函数和统计求和函数。
简单介绍一下:
聚合函数
- sum :该函数计算组中表达式的累积和
- min :在一个组中的数据窗口中查找表达式的最小值
- max :在一个组中的数据窗口中查找表达式的最大值
- avg :用于计算一个组和数据窗口内表达式的平均值。
- count :对一组内发生的事情进行累积计数
分析函数
- rank :根据order by子句中表达式的值,从查询返回的每一行,计算它们与其它行的相对位置
- dense_rank :根据order by子句中表达式的值,从查询返回的每一行,计算它们与其它行的相对位置
- first :从dense_rank返回的集合中取出排在最前面的一个值的行
- last :从dense_rank返回的集合中取出排在最后面的一个值的行
- first_value :返回组中数据窗口的第一个值
- last_value :返回组中数据窗口的最后一个值。
- lag :可以访问结果集中的其它行而不用进行自连接
- lead :lead与lag相反,lead可以访问组中当前行之后的行
- row_number:返回有序组中一行的偏移量,从而可用于按特定标准排序的行号
数据分析函数
- stddev :计算当前行关于组的标准偏离
- stddev_pop:该函数计算总体标准偏离,并返回总体变量的平方根
- stddev_samp:该函数计算累积样本标准偏离,并返回总体变量的平方根
- var_pop :该函数返回非空集合的总体变量(忽略null)
- var_samp :该函数返回非空集合的样本变量(忽略null)
- variance :如果表达式中行数为1,则返回0,如果表达式中行数大于1,则返回var_samp
- covar_pop :返回一对表达式的总体协方差
- covar_samp:返回一对表达式的样本协方差
- corr :返回一对表达式的相关系数
- cume_dist :计算一行在组中的相对位置
- ntile :将一个组分为"表达式"的散列表示
- percent_rank:和cume_dist(累积分配)函数类似
- percentile_disc:返回一个与输入的分布百分比值相对应的数据值
- percentile_cont:返回一个与输入的分布百分比值相对应的数据值
- ratio_to_report:该函数计算expression/(sum(expression))的值,它给出相对于总数的百分比
- regr_ (linear regression) functions:这些线性回归函数适合最小二乘法回归线,有9个不同的回归函数可使用
统计求和函数
cube :按照olap的cube方式进行数据统计,即各个维度均需统计
下一篇文章介绍三者的区别,还有其他一些。
总结
以上就是这篇文章的全部内容了,希望本文的内容对大家的学习或者工作具有一定的参考学习价值,谢谢大家对的支持。如果你想了解更多相关内容请查看下面相关链接