DataX 数据全量,增量同步方案

关于DataX 增量更新实现

参考来源文章

增量更新总体思路:从目标数据库读取一个最大值的记录,可以是DataTime 或者 RowVersion 类型,然后根据这个最大值对源数据库要同步的表进行过滤,然后再进行同步即可。

由于DataX 支持多种数据库的读写,一种相对简单并且可靠的思路就是:

  1. 从csv 文件读取目标数据库上次抽取数据的一个最大值;
  2. 动态修改json配置文件(增加过滤条件);
  3. 执行修改后的配置文件,进行增量同步;
  4. 同步成功,将系统当前时间写入csv文件;

接下来就是shell 脚本来一步一步实现增量更新

增量更新shell 实现

图示如下:

dataX增量更新方案.png

我们的同步环境是从oracle 到 hive,由于dataX 无法从目的数据库(即hive)中读取值,因此改为从csv文件读取,
同样因为无法读取hive数据库内最大值,因此最大值,采用上次数据同步时间。我们要做的只是每次数据同步成功后把系统时间写入到对应的csv文件中(每个表对应一个csv文件)。

1. 数据同步json 配置文件

从oracle 同步到hive ,部分配置如下

例: oracle2hive_ods_s_jy_AB01.json

{
    "job": {
        "content": [{
            "reader": {
                "name": "oraclereader",
                "parameter": {
                    "column": ["AAB001", "AAB004", "AAB041", "AAB043", "AAB013", "to_char(sysdate,'yyyymmddhh24miss') as D_UPDATE"],
                    "where":"1=1",
                    "connection": [{
                        "jdbcUrl": ["jdbc:oracle:thin:@【源数据库ip】:【port】/pdb1"],
                        "table": ["NBJYJZ_NB_DATA_INF.AB01"]
                    }],
                    "username": "***",
                    "password": "***"
                }
            },
            "writer": {
                "name": "hdfswriter",
                "parameter": {
                    "column": [{
                        "name": "AAB001",
                        "type": "STRING"
                    }, {
                        "name": "AAB004",
                        "type": "STRING"
                    },
                    ...
                    
                    ],
                    "defaultFS": "hdfs://【目的ip】:【port】",
                    "fieldDelimiter": "\t",
                    "fileName": "ods_s.ods_jy_ab01",
                    "fileType": "text",
                    "path": "/user/hive/warehouse/ods_s.db/ods_jy_nb_ab01",
                    "writeMode": "append"
                }
            }
        }],
        "setting": {
            "speed": {
                "byte": 10485760,
                "channel": "5"
            }
        }
    }
}

数据同步的脚本有了,读取最大值的脚本可以写在shell 里。下面配置dataX增量同步的shell脚本。

2. 增量同步的shell脚本配置

#!/bin/bash
#datax 数据抽取
#create time:2018-11-27 10:00:00

### every exit != 0 fails the script
# 错误检查,有错误的时候退出
set -e 

# 我们的dataX脚本里需要的参数,不需要的可以不加 
systemDate=`date +%Y-%m-%d,%H:%M:%S`

# 获取当前时间,这个是同步后要写到csv文件的变量
current_time=`date +"%Y-%m-%d %H:%M:%S"`
echo ${current_time}

shell_array[0]= oracle2hive_ods_s_jy_AB01.json
# shell_array[1]= oracle2hive_ods_s_jy_AB02.json
# shell_array[2]= oracle2hive_ods_s_jy_AB07.json
# ...

# 遍历文件名
for i in ${#shell_array[*]}
do
# 循环执行命令
    # ${shell_array[$i]} 文件名
    # 通过文件名称截取表名,我们的脚本命名末尾标识的是表名
    table_name=${${shell_array[$i]}:0-9:4}

        # 1. 找到 csv文本文件,并将内容读取到一个变量中
        MAX_TIME=`cat /opt/datax/job/jy/result/${table_name}.csv`
        # 如果最大时间不为 null 的话, 修改全部同步的配置,进行增量更新;
        # 如果最大时间为null ,进行全量更新;
        if [ "$MAX_TIME" != "null" ]; then
        # 设置增量更新过滤条件
        WHERE="AAE036 > '$MAX_TIME'"
        
        # 2.改写json配置文件
        sed "s/1=1/$WHERE/g" /opt/datax/job/jy/ql/${shell_array[$i]} > /opt/datax/job/jy/zl/${${shell_array[$i]}/.json/_zl.json}
        
        # 3.增量更新
        python /opt/datax/bin/datax.py -p "-DsystemDate='$systemDate'" -j "-Xms4g -Xmx4g" /opt/datax/job/jy/zl/${${shell_array[$i]}/.json/_zl.json}
        else
        # 全量更新
        python /opt/datax/bin/datax.py -p "-DsystemDate='$systemDate'" -j "-Xms4g -Xmx4g"  /opt/datax/job/jy/ql/${shell_array[$i]}
        fi
    if [ $? -ne 0 ]; then
    #命令执行失败,不做任何操作
    else
    # 执行成功,将最大日期写入csv 文件,覆盖写入
    table_name=${${shell_array[$i]}:0-9:4}
    echo  ${current_time} > /opt/datax/job/jy/result/${table_name}.csv
    fi
# 删除临时文件,增量文件
rm -rf /opt/datax/job/jy/zl/${${shell_array[$i]}/.json/_zl.json}
done

补充:上述脚本中用到shell关于字符串的操作(大神请略过)

  • 1.shell字符串替换
var=oracle2hive_ods_s_jy_AB01.json
# echo ${var/查找字符串/替换字符串}
echo ${$var/.json/_zl.json}
结果:oracle2hive_ods_s_jy_AB01_zl.json

  • 2.shell 字符串截取
var=oracle2hive_ods_s_jy_AB01.json
echo ${$var:0-9:4}
结果: AB01
################
sed "s/查找字符串/替换字符串/g" 源文件 > 目标文件
最后编辑于
©著作权归作者所有,转载或内容合作请联系作者
  • 序言:七十年代末,一起剥皮案震惊了整个滨河市,随后出现的几起案子,更是在滨河造成了极大的恐慌,老刑警刘岩,带你破解...
    沈念sama阅读 162,408评论 4 371
  • 序言:滨河连续发生了三起死亡事件,死亡现场离奇诡异,居然都是意外死亡,警方通过查阅死者的电脑和手机,发现死者居然都...
    沈念sama阅读 68,690评论 2 307
  • 文/潘晓璐 我一进店门,熙熙楼的掌柜王于贵愁眉苦脸地迎上来,“玉大人,你说我怎么就摊上这事。” “怎么了?”我有些...
    开封第一讲书人阅读 112,036评论 0 255
  • 文/不坏的土叔 我叫张陵,是天一观的道长。 经常有香客问我,道长,这世上最难降的妖魔是什么? 我笑而不...
    开封第一讲书人阅读 44,726评论 0 221
  • 正文 为了忘掉前任,我火速办了婚礼,结果婚礼上,老公的妹妹穿的比我还像新娘。我一直安慰自己,他们只是感情好,可当我...
    茶点故事阅读 53,123评论 3 296
  • 文/花漫 我一把揭开白布。 她就那样静静地躺着,像睡着了一般。 火红的嫁衣衬着肌肤如雪。 梳的纹丝不乱的头发上,一...
    开封第一讲书人阅读 41,037评论 1 225
  • 那天,我揣着相机与录音,去河边找鬼。 笑死,一个胖子当着我的面吹牛,可吹牛的内容都是我干的。 我是一名探鬼主播,决...
    沈念sama阅读 32,178评论 2 318
  • 文/苍兰香墨 我猛地睁开眼,长吁一口气:“原来是场噩梦啊……” “哼!你这毒妇竟也来了?” 一声冷哼从身侧响起,我...
    开封第一讲书人阅读 30,964评论 0 213
  • 序言:老挝万荣一对情侣失踪,失踪者是张志新(化名)和其女友刘颖,没想到半个月后,有当地人在树林里发现了一具尸体,经...
    沈念sama阅读 34,703评论 1 250
  • 正文 独居荒郊野岭守林人离奇死亡,尸身上长有42处带血的脓包…… 初始之章·张勋 以下内容为张勋视角 年9月15日...
    茶点故事阅读 30,863评论 2 254
  • 正文 我和宋清朗相恋三年,在试婚纱的时候发现自己被绿了。 大学时的朋友给我发了我未婚夫和他白月光在一起吃饭的照片。...
    茶点故事阅读 32,333评论 1 265
  • 序言:一个原本活蹦乱跳的男人离奇死亡,死状恐怖,灵堂内的尸体忽然破棺而出,到底是诈尸还是另有隐情,我是刑警宁泽,带...
    沈念sama阅读 28,658评论 3 263
  • 正文 年R本政府宣布,位于F岛的核电站,受9级特大地震影响,放射性物质发生泄漏。R本人自食恶果不足惜,却给世界环境...
    茶点故事阅读 33,374评论 3 244
  • 文/蒙蒙 一、第九天 我趴在偏房一处隐蔽的房顶上张望。 院中可真热闹,春花似锦、人声如沸。这庄子的主人今日做“春日...
    开封第一讲书人阅读 26,195评论 0 8
  • 文/苍兰香墨 我抬头看了看天上的太阳。三九已至,却和暖如春,着一层夹袄步出监牢的瞬间,已是汗流浃背。 一阵脚步声响...
    开封第一讲书人阅读 26,988评论 0 201
  • 我被黑心中介骗来泰国打工, 没想到刚下飞机就差点儿被人妖公主榨干…… 1. 我叫王不留,地道东北人。 一个月前我还...
    沈念sama阅读 36,167评论 2 285
  • 正文 我出身青楼,却偏偏与公主长得像,于是被迫代替她去往敌国和亲。 传闻我的和亲对象是个残疾皇子,可洞房花烛夜当晚...
    茶点故事阅读 35,970评论 2 279

推荐阅读更多精彩内容