一次新旧系统大批量数据迁移的优化过程(java)

1 要求

  • 旧数据量大 268w条

  • 旧数据重复的太多,需要去重

  • 旧表和新表结构不一样,需要根据字段中的内容判断来得到新表中需要的数据

2 初始方法

  • 思路:获取总数量用作外循环的判断和取数时limit的参数,一次取1w条数据,遍历数据,然后根据字段的内容用indexof判断是否包含,数据处理完后,根据条件判断新表里是否存在相同的数据存在则不插入。吃插入是一条一条的插入。因为要判断新表里是否存在相同的数据
  • 结果(效率):初始很快,后面差不多一个小时同步5w条,速度特别的慢。耗时将近2天还没跑完。
  • 代码
 @RequestMapping("/dataCopyOrderLog")
   public void dataCopyOrderLog() throws Exception {
        logger.info("<------------------订单日志数据拷贝开始------------------>");
        DataSourceContextHolder.setDataSourceType(DataSourceType.dataSource_old);
        Map<String, Object> counts = systemService.findOneForJdbc("select count(1) as count from t_logistics_info");
        int count = Integer.parseInt(counts.get("count").toString());
        int i = 0;
        while (i < count) {
            DataSourceContextHolder.setDataSourceType(DataSourceType.dataSource_old);
            List<Map<String, Object>> packs = systemService.findForJdbc("select * from t_logistics_info where limit order by CREATETIME desc " + i + "  , "1000"));
            for (int j = 0; j < packs.size(); j++) {
                Map<String, Object> map = packs.get(i);
                String orderId = null, type = null;
                if (StringUtil.isNotEmpty(map.get("ORDERID"))) {
                    orderId = map.get("ORDERID").toString();
                }
                if (StringUtil.isNotEmpty(map.get("STATUS"))) {
                    String status = map.get("STATUS").toString();
                       内容省略 ......
                }
                DataSourceContextHolder.setDataSourceType(DataSourceType.dataSource_new);
                内容省略 ......
                orderLogService.save(orderlog);
                logger.info(new Date() + "orderLog----->count------>" + i);
              
                i++;

            }

        }
        logger.info("<----------------拷贝订单日志数据完成------------->");
      
    }

3第一次优化

  • 使用批量插入 on duplicate key update 需要一个字段为唯一约束 ,然而项目上的是两个字段来判断是否重复,刚好有一个字段的值是唯一的,所以把这两个字段的值拼接起来
微信截图_20191205151400.png
  • 给pk字段添加 UNIQUE 约束保证唯一性
alter table XXX add UNIQUE(pk)
  • 批量插入的个数需要根据 max_allowed_packet 来决定
--查看大小
show VARIABLES like '%max_allowed_packet%';
--临时修改 大小的单位是字节
set global max_allowed_packet = 大小
--永久修改
---修改my.ini文件,在[mysqld]部分加入 max_allowed_packet=大小
  • 结果:268w左右在1个小时左右

 while (i < count) {
            DataSourceContextHolder.setDataSourceType(DataSourceType.dataSource_old);
            List<Map<String, Object>> packs = systemService.findForJdbc("select * from t_logistics_info  order by TIME desc  limit " + i + "  , 10000");
            List<OrderLogEntity> logList = new ArrayList<>();
            String sql = "insert into t_jdy_order_log1(id,order_id,LOG_TYPE,LOG_CONTENT,LOG_TIME,pk) values ";
            for (int j = 0; j < packs.size(); j++) {

                      内容省略 ......
                  
                if (j == packs.size() - 1) {
                    sql += " (REPLACE(UUID(),'-',''),'" + orderId + "','" + type + "','" + status + "',STR_TO_DATE('" + date + "','%Y-%m-%d %H:%i:%s'),'" + (orderId + type) + "')";
                } else {
                     sql += " ( REPLACE(UUID(),'-',''),'" + orderId + "','" + type + "','" + status + "',STR_TO_DATE('" + date + "','%Y-%m-%d %H:%i:%s'),'" + (orderId + type) + "'),";
               }
                
                i++;
            }
            DataSourceContextHolder.setDataSourceType(DataSourceType.dataSource_new);
            sql += " on duplicate key update   id=values(id),order_id=values(order_id),log_type=values(log_type),log_time=values(log_time),pk=values(pk) ";
            jdbcDao.executeSql(sql);
            logger.info("i====" + i);
        }

4 第二次优化

  • 在读取旧数据的时候去重
SELECT * FROM `t_logistics_info` group by `STATUS` like '%已揽收%',`STATUS` like '%发往总仓%',`STATUS` like '%包裹已入库%', `STATUS` like '%包裹已全部清关%',ORDERID
  • 去重后数据15w多,查询速度是29s不到
微信截图_20191206103322.png
  • 执行批量插入,1w1次.


    微信截图_20191206144048.png
  • 最终219s完成数据的迁移
    public void dataCopyOrderLog1() throws Exception {
        Date date1 = new Date();
        logger.info("<------------------订单日志数据拷贝开始1------------------>" + date1);
        DataSourceContextHolder.setDataSourceType(DataSourceType.dataSource_old);
        List<Map<String, Object>> packs = systemService.findForJdbc("select * from t_logistics_info group by `STATUS` like '%已揽收%',`STATUS` like '%发往总仓%',`STATUS` like '%包裹已入库%', `STATUS` like '%包裹已全部清关%',ORDERID   ");
        String sql = "insert into t_jdy_order_log1(id,order_id,LOG_TYPE,LOG_CONTENT,LOG_TIME,pk) values ";
        for (int j = 0; j < packs.size(); j++) {
            Map<String, Object> map = packs.get(j);
            String orderId = null, type = null;
            if (StringUtil.isNotEmpty(map.get("ORDERID"))) {
                orderId = map.get("ORDERID").toString();
            }
            if (StringUtil.isNotEmpty(map.get("STATUS"))) {
                String status = map.get("STATUS").toString();
                内容省略 ......
                String date = map.get("TIME").toString();
                sql += " ( REPLACE(UUID(),'-',''),'" + orderId + "','" + type + "','" + status + "',STR_TO_DATE('" + date + "','%Y-%m-%d %H:%i:%s'),'" + (orderId + type) + "'),";

            }
            if (j % 10000 == 0 || j == packs.size() - 1) {
                StringBuilder s = new StringBuilder(sql);
                s.delete(sql.length() - 1, sql.length());
                DataSourceContextHolder.setDataSourceType(DataSourceType.dataSource_new);
                jdbcDao.executeSql(s.toString());
                sql = "insert into t_jdy_order_log1(id,order_id,LOG_TYPE,LOG_CONTENT,LOG_TIME,pk) values ";
                logger.info("j====" + j);
            }
        }
        Date date2 = new Date();
        Long i1 = (date2.getTime() - date1.getTime()) / 1000;
        logger.info("<----------------拷贝订单日志数据完成------------->" + i1);
      
    }
©著作权归作者所有,转载或内容合作请联系作者
  • 序言:七十年代末,一起剥皮案震惊了整个滨河市,随后出现的几起案子,更是在滨河造成了极大的恐慌,老刑警刘岩,带你破解...
    沈念sama阅读 159,290评论 4 363
  • 序言:滨河连续发生了三起死亡事件,死亡现场离奇诡异,居然都是意外死亡,警方通过查阅死者的电脑和手机,发现死者居然都...
    沈念sama阅读 67,399评论 1 294
  • 文/潘晓璐 我一进店门,熙熙楼的掌柜王于贵愁眉苦脸地迎上来,“玉大人,你说我怎么就摊上这事。” “怎么了?”我有些...
    开封第一讲书人阅读 109,021评论 0 243
  • 文/不坏的土叔 我叫张陵,是天一观的道长。 经常有香客问我,道长,这世上最难降的妖魔是什么? 我笑而不...
    开封第一讲书人阅读 44,034评论 0 207
  • 正文 为了忘掉前任,我火速办了婚礼,结果婚礼上,老公的妹妹穿的比我还像新娘。我一直安慰自己,他们只是感情好,可当我...
    茶点故事阅读 52,412评论 3 287
  • 文/花漫 我一把揭开白布。 她就那样静静地躺着,像睡着了一般。 火红的嫁衣衬着肌肤如雪。 梳的纹丝不乱的头发上,一...
    开封第一讲书人阅读 40,651评论 1 219
  • 那天,我揣着相机与录音,去河边找鬼。 笑死,一个胖子当着我的面吹牛,可吹牛的内容都是我干的。 我是一名探鬼主播,决...
    沈念sama阅读 31,902评论 2 313
  • 文/苍兰香墨 我猛地睁开眼,长吁一口气:“原来是场噩梦啊……” “哼!你这毒妇竟也来了?” 一声冷哼从身侧响起,我...
    开封第一讲书人阅读 30,605评论 0 199
  • 序言:老挝万荣一对情侣失踪,失踪者是张志新(化名)和其女友刘颖,没想到半个月后,有当地人在树林里发现了一具尸体,经...
    沈念sama阅读 34,339评论 1 246
  • 正文 独居荒郊野岭守林人离奇死亡,尸身上长有42处带血的脓包…… 初始之章·张勋 以下内容为张勋视角 年9月15日...
    茶点故事阅读 30,586评论 2 246
  • 正文 我和宋清朗相恋三年,在试婚纱的时候发现自己被绿了。 大学时的朋友给我发了我未婚夫和他白月光在一起吃饭的照片。...
    茶点故事阅读 32,076评论 1 261
  • 序言:一个原本活蹦乱跳的男人离奇死亡,死状恐怖,灵堂内的尸体忽然破棺而出,到底是诈尸还是另有隐情,我是刑警宁泽,带...
    沈念sama阅读 28,400评论 2 253
  • 正文 年R本政府宣布,位于F岛的核电站,受9级特大地震影响,放射性物质发生泄漏。R本人自食恶果不足惜,却给世界环境...
    茶点故事阅读 33,060评论 3 236
  • 文/蒙蒙 一、第九天 我趴在偏房一处隐蔽的房顶上张望。 院中可真热闹,春花似锦、人声如沸。这庄子的主人今日做“春日...
    开封第一讲书人阅读 26,083评论 0 8
  • 文/苍兰香墨 我抬头看了看天上的太阳。三九已至,却和暖如春,着一层夹袄步出监牢的瞬间,已是汗流浃背。 一阵脚步声响...
    开封第一讲书人阅读 26,851评论 0 195
  • 我被黑心中介骗来泰国打工, 没想到刚下飞机就差点儿被人妖公主榨干…… 1. 我叫王不留,地道东北人。 一个月前我还...
    沈念sama阅读 35,685评论 2 274
  • 正文 我出身青楼,却偏偏与公主长得像,于是被迫代替她去往敌国和亲。 传闻我的和亲对象是个残疾皇子,可洞房花烛夜当晚...
    茶点故事阅读 35,595评论 2 270

推荐阅读更多精彩内容