「Mongo」块操作初体验

在MongoDB中使用批量操作或块操作「Bulk Write」在效率上有非常大的提升,适合大量写操作

第一次尝试使用批量操作进行数据清洗,并且用PyMongo模拟了少量数据来进行测试,构造50w条数据进行插入或更新操作。
模拟环境:

PyMongo 3.6.1
MongoDB 3.4.7
Python 3.6.4 :: Anaconda, Inc.

模拟数据项:

items = [
    {'i': 0},
    {'i': 1},
    {'i': 2},
    {'i': 3},
    {'i': 4},
    ...
    {'i': 500000},
]

按条插入/更新的情况如下:

方法 总数 单次条数 时间 语句
save 50w 1 00:02:54 db['test'].save(item)
insert 50w 1 00:02:50 db['test'].insert(item)

insert批量插入的情况如下:

方法 总数 单次条数 时间 语句
insert 50w 1k 00:00:07 db['test'].insert(items)
insert 50w 10k 00:00:08 db['test'].insert(items)

块操作的情况如下:

方法 总数 单次 时间 语句
bulk_write + InsertOne 50w 1k 00:00:09 db['test'].bulk_write(list(map(InsertOne, items)))
bulk_write + InsertOne 50w 10k 00:00:07 db['test'].bulk_write(list(map(InsertOne, items)))
bulk_write + InsertOne 50w 50w 00:00:09 db['test'].bulk_write(list(map(InsertOne, items)))
bulk_write + ReplaceOne 50w 1k 00:00:20 db['test'].bulk_write(list(map(lambda item: ReplaceOne({'_id': item['_id']}, item, upsert=True), items)))
bulk_write + ReplaceOne 50w 10k 00:00:21 db['test'].bulk_write(list(map(lambda item: ReplaceOne({'_id': item['_id']}, item, upsert=True), items)))
bulk_write + ReplaceOne 50w 50w 00:00:22 db['test'].bulk_write(list(map(lambda item: ReplaceOne({'_id': item['_id']}, item, upsert=True), items)))
bulk_write + UpdateOne 50w 1k 00:00:20 db['test'].bulk_write(list(map(lambda item: UpdateOne({'_id': item['_id']}, {'$set': {'i': item['i']}}, upsert=True),items)))
bulk_write + UpdateOne 50w 10k 00:00:21 db['test'].bulk_write(list(map(lambda item: UpdateOne({'_id': item['_id']}, {'$set': {'i': item['i']}}, upsert=True),items)))
bulk_write + UpdateOne 50w 50w 00:00:22 db['test'].bulk_write(list(map(lambda item: UpdateOne({'_id': item['_id']}, {'$set': {'i': item['i']}}, upsert=True),items)))
bulk_write + UpdateOne + InsertOne 100w 10k 00:00:38 db['test'].bulk_write(list(map(InsertOne, items1)) + list(map(lambda item: UpdateOne({'_id': item['_id']}, {'$set': {'i': 0}}, upsert=True),items2)))

模拟代码如下:

import pymongo
import time
from pymongo import InsertOne, ReplaceOne, UpdateOne
from pymongo.errors import BulkWriteError

settings = {
    'MONGO_HOST': "***", # 数据库地址
    'MONGO_PORT': ***,   # 数据库端口
    'MONGO_DB': "***",   # 数据库名
    'MONGO_USER': "***", # 用户名
    'MONGO_PSW': "***",  # 密码
}
client = pymongo.MongoClient(host=settings['MONGO_HOST'],port=settings['MONGO_PORT'])
client.admin.authenticate(settings['MONGO_USER'], settings['MONGO_PSW'],mechanism='SCRAM-SHA-1')
db = client[settings['MONGO_DB']]

l1 = []
for i in range(500000, 1000001):
    l1.append({'i': i})

l2 = list(db['test'].find({}))

start_time = time.time()

page = 0
count = 10000

while True:
    skip = page * count
    page = page + 1
    items1 = l1[skip:skip + count]
    items2 = l2[skip:skip + count]
    items = list(map(InsertOne, items1)) + list(map(InsertOne, items1))
    try:
        db['test'].bulk_write( \
            list(map(InsertOne, items1)) + \
            list(map(lambda item: UpdateOne({'_id': item['_id']}, {'$set': {'i': 0}}, upsert=True),items2)))
    except BulkWriteError as bwe:
        print(bwe.details)
    else:
        print(page)
        if page == 50:
            break

end_time = time.time()
consume_time = end_time - start_time
consume_time = '{:0>2s}'.format(str(int(consume_time // 3600))) \
               + ':{:0>2s}'.format(str(int((consume_time // 60) % 60))) \
               + ':{:0>2s}'.format(str(int(consume_time % 60)))
print(consume_time)

注意:bulk_write(list)传入的list不能为空,会出现报错信息。

经过测试,可以看到批量操作与单条操作的写入效率相差非常大,Insert批量插入与Bulk Write快操作效率基本相同。
但bulk_write()可以将增删改操作合在一起,具有更好的灵活性。


吐槽:手贱循环了一个亿的数据进列表,系统直接跑死机了,PyCharm/SecureCRT/Studio 3T环境全部崩溃,连搜狗输入法都崩了!!!摔!!!

©著作权归作者所有,转载或内容合作请联系作者
  • 序言:七十年代末,一起剥皮案震惊了整个滨河市,随后出现的几起案子,更是在滨河造成了极大的恐慌,老刑警刘岩,带你破解...
    沈念sama阅读 156,423评论 4 359
  • 序言:滨河连续发生了三起死亡事件,死亡现场离奇诡异,居然都是意外死亡,警方通过查阅死者的电脑和手机,发现死者居然都...
    沈念sama阅读 66,339评论 1 289
  • 文/潘晓璐 我一进店门,熙熙楼的掌柜王于贵愁眉苦脸地迎上来,“玉大人,你说我怎么就摊上这事。” “怎么了?”我有些...
    开封第一讲书人阅读 106,241评论 0 237
  • 文/不坏的土叔 我叫张陵,是天一观的道长。 经常有香客问我,道长,这世上最难降的妖魔是什么? 我笑而不...
    开封第一讲书人阅读 43,503评论 0 203
  • 正文 为了忘掉前任,我火速办了婚礼,结果婚礼上,老公的妹妹穿的比我还像新娘。我一直安慰自己,他们只是感情好,可当我...
    茶点故事阅读 51,824评论 3 285
  • 文/花漫 我一把揭开白布。 她就那样静静地躺着,像睡着了一般。 火红的嫁衣衬着肌肤如雪。 梳的纹丝不乱的头发上,一...
    开封第一讲书人阅读 40,262评论 1 207
  • 那天,我揣着相机与录音,去河边找鬼。 笑死,一个胖子当着我的面吹牛,可吹牛的内容都是我干的。 我是一名探鬼主播,决...
    沈念sama阅读 31,615评论 2 309
  • 文/苍兰香墨 我猛地睁开眼,长吁一口气:“原来是场噩梦啊……” “哼!你这毒妇竟也来了?” 一声冷哼从身侧响起,我...
    开封第一讲书人阅读 30,337评论 0 194
  • 序言:老挝万荣一对情侣失踪,失踪者是张志新(化名)和其女友刘颖,没想到半个月后,有当地人在树林里发现了一具尸体,经...
    沈念sama阅读 33,989评论 1 238
  • 正文 独居荒郊野岭守林人离奇死亡,尸身上长有42处带血的脓包…… 初始之章·张勋 以下内容为张勋视角 年9月15日...
    茶点故事阅读 30,300评论 2 240
  • 正文 我和宋清朗相恋三年,在试婚纱的时候发现自己被绿了。 大学时的朋友给我发了我未婚夫和他白月光在一起吃饭的照片。...
    茶点故事阅读 31,829评论 1 256
  • 序言:一个原本活蹦乱跳的男人离奇死亡,死状恐怖,灵堂内的尸体忽然破棺而出,到底是诈尸还是另有隐情,我是刑警宁泽,带...
    沈念sama阅读 28,193评论 2 250
  • 正文 年R本政府宣布,位于F岛的核电站,受9级特大地震影响,放射性物质发生泄漏。R本人自食恶果不足惜,却给世界环境...
    茶点故事阅读 32,753评论 3 230
  • 文/蒙蒙 一、第九天 我趴在偏房一处隐蔽的房顶上张望。 院中可真热闹,春花似锦、人声如沸。这庄子的主人今日做“春日...
    开封第一讲书人阅读 25,970评论 0 8
  • 文/苍兰香墨 我抬头看了看天上的太阳。三九已至,却和暖如春,着一层夹袄步出监牢的瞬间,已是汗流浃背。 一阵脚步声响...
    开封第一讲书人阅读 26,708评论 0 192
  • 我被黑心中介骗来泰国打工, 没想到刚下飞机就差点儿被人妖公主榨干…… 1. 我叫王不留,地道东北人。 一个月前我还...
    沈念sama阅读 35,295评论 2 267
  • 正文 我出身青楼,却偏偏与公主长得像,于是被迫代替她去往敌国和亲。 传闻我的和亲对象是个残疾皇子,可洞房花烛夜当晚...
    茶点故事阅读 35,207评论 2 258

推荐阅读更多精彩内容