欢迎您访问程序员文章站本站旨在为大家提供分享程序员计算机编程知识!
您现在的位置是: 首页

定位排查工作流的计算结果数据量不符合预期的方法

程序员文章站 2022-07-15 08:58:25
...

近期有发现一些用户在咨询,为什么数据从数据源出来后,经过了一些计算,结果不符合预期了。最常见的是说,为什么我的数据在Mysql里有xx条,怎么到MaxCompute里算了下结果变了。因为这是两个不同的系统,我们又没办法拿两边的记录直接做个full outer join看看少的是哪些数据。本文拿2个实际的例子,做了简化方便理解,给出排查过程,希望能给大家带来一些思路。

问题1

场景模拟

这是一个常见的场景,为什么我数据同步过来后,就直接用SQL做了count,结果就不对了。
先在mysql里创建一张用户表,并插入一些数据:

create table myuser(uid int,name varchar(30),regTime DATETIME );
insert into myuser(uid,name,regTime) values (1,'Lilei','2017-01-22 01:02:03');
insert into myuser(uid,name,regTime) values (2,'HanMM','2017-01-22 22:22:22');

然后在MaxCompute里配置了个接受的表:

create table ods_user(uid bigint,name string,regTime datetime) partitioned by(ds string);

然后配置了一个同步任务和SQL任务用于统计结果数据条数如图:
定位排查工作流的计算结果数据量不符合预期的方法

CREATE TABLE IF NOT EXISTS dws_usercnt (
    cnt BIGINT
)
PARTITIONED BY (ds STRING);

INSERT OVERWRITE TABLE dws_usercnt PARTITION (ds='${bdp.system.bizdate}')
SELECT COUNT(*) AS cnt
FROM ods_user;

最后做成工作流
定位排查工作流的计算结果数据量不符合预期的方法
任务上线后,跑了第一天,结果还是对的。

aaa@qq.com >read dws_usercnt;
+------------+------------+
| cnt        | ds         |
+------------+------------+
| 2          | 20170122   |
+------------+------------+

但是第二天插入几条新的数据后,为什么统计结果就不对了呢:

aaa@qq.com >read dws_usercnt;
+------------+------------+
| cnt        | ds         |
+------------+------------+
| 2          | 20170122   |
| 6          | 20170123   |
+------------+------------+

预期的是第二天的数据是4。

排查解决

我们需要先理清楚数据的走向。这个例子的思路很简单,数据从Mysql同步到MaxCompute的表里,然后针对结果表做了汇总。走向图为myuser(MySql)=>ods_user(MaxCompute)=>dws_usercnt(MaxCompute)。
目前我们通过在Mysql里查询,已经确认Mysql里就是4条记录,dws_usercnt里的结果也看到是6,那需要先定位到是ods_user里的结果是多少条,从而定位到是同步的时候出现的问题,还是同步后汇总出现的问题。
我们先看了一下ods_user,先用select count(*) from ods_user;看到为6。因为是分区表,对么个分区查一下,用select count(*) as cnt,ds from ods_user group by ds;,发现结果是

+------------+----+
| cnt        | ds |
+------------+----+
| 2          | 20170122 |
| 4          | 20170123 |
+------------+----+

然后配合同步任务的日志
定位排查工作流的计算结果数据量不符合预期的方法
我们可以看到,我们一共同步了4条数据(如果是这里对不上的话,我们需要检查一下同步任务的where表达式对不对了)。然后最后汇总的时候,我们看下日志:
定位排查工作流的计算结果数据量不符合预期的方法
我们可以看到我们在SQL里是访问了2个分区的数据做了汇总。

所以这个问题的原因是在同步的时候,是做了每天的全量同步,但是在SQL汇总的时候,当成是增量同步了,或者是忘记写分区的过滤条件了,导致汇总是查询了全部的数据。针对这个问题的解法是先要确定这个表到底是需要增量同步,还是需要全量同步。如果是需要增量同步,那需要修改同步的时候,在配置项里配置过滤条件只同步增量数据。如果是需要每天同步全量数据,那在汇总的时候,就只需要读最后一个分区就可以了。
另外关于增量同步的配置方法,可以参考这篇文档

问题2

场景模拟

有一些用户希望针对数据的某个属性进行分区,比如希望根据学生的年级进行分区。
我们先在Mysql里创建一张学生表,插入一些数据

create table student(id int,name varchar(30),grade  varchar(1));
insert into student(id,name,grade) values(1,'Lilei',1);
insert into student(id,name,grade) values(2,'HanMM',2);
insert into student(id,name,grade) values(3,'Jim',3);

同样的,在MaxCompute这边也需要配置一个ODS表和一个DWD表

create table ods_student(id bigint,name string,grade string) partitioned by(ds string) ;
create table dwd_student(id bigint,name string)partitioned by(grade string) ;

然后配置一个同步任务:
定位排查工作流的计算结果数据量不符合预期的方法
和对应的SQL任务

insert overwrite  table dwd_student partition(grade )
select id,name,grade
from ods_student
where ds = '${bdp.system.bizdate}';

同步后看到第一天的结果是对的。
后来这些学生都到了新年级了,3年级的学生毕业了

update student set grade = grade+1;
delete from student where grade>3;--已经毕业的

再同步一下,不对了,数据怎么还是3条。

排查解决

我们这里测试的数据比较少,可以直接select出来一看就明白了。但是真实的业务里,我们的数据可能有数以亿计,根本没办法肉眼看出来。所以还是以前的思路,我们先理清楚数据的走向。数据是从student(Mysql)=>ods_student(MaxCompute)=>dwd_student(MaxCompute)。
第二天,Mysql里的student表里数据其实是只有2条了。而ods_student表里的最新的分区也是2条。但是dwd_student里是3条。这说明ods=>dwd的过程中,数据出了问题。这个就是一个SQL问题了。我们用SQL

--里面的ds的值记得换掉
select 
ods.grade,dwd.grade,ods.cnt,dwd.cnt 
from 
(select count(*) as cnt,grade from ods_student where ds= '${bdp.system.bizdate}'  group by grade) ods
full outer join (select count(*) as cnt,grade from dwd_student group by grade) dwd
on ods.grade = dwd.grade
where coalesce(ods.cnt,0) <> coalesce(dwd.cnt,0) ;

+-------+--------+------------+------------+
| grade | grade  | cnt        | cnt        |
+-------+--------+------------+------------+
| NULL  | 1      | NULL       | 1          |
+-------+--------+------------+------------+

看到1年级,数据里ods表里没有1年级的数据了,但是dwd里还是有1条1年级的数据。这下就很清楚了,这条数据是第一天的数据。后来升了年级后,用Insert Overwrite覆盖写入的时候,2年级和3年级是有新数据进来的,所以数据被覆盖了。但是1年级因为没有数据进来,所以也没覆盖。我们也可以用desc partition命令看下每个分区的创建时间和修改时间来确认这个问题。

对于这种情况,其实这种分区方法有一些问题的。建议dwd表里不要做这样的分区。如果确实需要分区,也不要直接在历史分区上做覆盖写入,可以写到新的分区里,比如做2级分区,1级分区是日期字段,二级分区才是这样的业务分区字段。

本文使用的产品涉及大数据计算服务(MaxCompute),地址为https://www.aliyun.com/product/odps
配合大数据开发套件 https://data.aliyun.com/product/ide 完成的。
如果有问题,可以加入我们的钉钉群来咨询
定位排查工作流的计算结果数据量不符合预期的方法