MongoDB Spark Connector使用

背景

对现有的存储在MongoDB中的海量数据进行清洗操作。为了提供数据的处理速度,决定使用spark作为引擎对数据进行操作。

先决条件

  • MongoDB 2.6+
  • Spark 2.2.x
  • Scala 2.11.x
  • Java 1.8+

MonogoDB Spark Connector介绍

  1. 支持数据的读取和写入。
  2. 将查询拆分为n个子任务, 如Connector会将一次match,拆分为多个子任务交给spark来处理, 减少数据的全量读取。
  3. 支持Aggregation,即在执行任务时,Spark可以将Aggregation操作下发到MongoDB去执行聚合后再读取相应的数据。
  4. 支持通过Spark SQL操作数据集。

示例

Maven依赖

  <dependency>
    <groupId>org.mongodb.spark</groupId>
    <artifactId>mongo-spark-connector_2.11</artifactId>
    <version>2.4.0</version> <!-- 2.2.0会有Mongo游标异常的bug-->
  </dependency>
  <dependency>
    <groupId>org.apache.spark</groupId>
    <artifactId>spark-core_2.11</artifactId>
    <version>2.2.0</version>
  </dependency>
  <dependency>
    <groupId>org.apache.spark</groupId>
    <artifactId>spark-sql_2.11</artifactId>
    <version>2.2.0</version>
  </dependency>

创建SparkSession

SparkSession spark = SparkSession.builder()
                .master("local")
                .appName("MongoSparkDataClean")
                            //设置读取的mongo集合信息。mongodb://127.0.0.1/maoke.kg_entries_address
                .config("spark.mongodb.input.uri", inputUri)
                                //设置写入的mongo集合信息。 mongodb://127.0.0.1/maoke.kg_entries_address
                .config("spark.mongodb.output.uri", outputUri)
                .getOrCreate();

处理MongoDB数据

JavaSparkContext jsc = new JavaSparkContext(spark.sparkContext());
//读取MongoDB数据,可以通过ReadConfig配置读取操作的特殊配置。
JavaMongoRDD<Document> mongoRDD = MongoSpark.load(jsc);
//处理MongoDB数据
Dataset<KgEntriesAddress> kgEntriesAddressDataset = mongoRDD.toDS(KgEntriesAddress.class)
                .map((MapFunction<KgEntriesAddress, KgEntriesAddress>) value -> {
                    boolean checkAddress = checkData(ADDRESS_URL, value.getValue());
                    value.setFlag(checkAddress);
                    return value;
                }, Encoders.bean(KgEntriesAddress.class));
//写入MongoDB,可以通过WriteConfig配置写入操作的特殊配置。
MongoSpark.save(kgEntriesAddressDataset);
LOGGER.info("Total number of clean address processed data: {}", mongoRDD.count());

⚠️注意

作者在使用MongoSpark.save()写入数据时,一开始MongoDB会抛出异常:

com.mongodb.MongoBulkWriteException: Bulk write operation error on server 127.0.0.1:27017. Write errors: [BulkWriteError{index=0, code=11000, message='E11000 duplicate key error collection: maoke.kg_entries_address index: _id_ dup key: { : "116d2839b7c5aee6758961ea4875ee65" }', details={ }}]. 
.....  

查看MongoSpark.save()源码后发现当参数类型为RDD时,由于spark无法得知数据schema,不能指定_id字段,采用的是insertMany对数据进行写入。所以当写入的数据与原始的数据_id相同时,抛出了E11000 duplicate key error异常。

所以,如果你是对同一个MongoDB Collection进行读取和写入操作,需要将写入的数据类型转化为DataSet

/**
   * Save data to MongoDB
   *
   * @param rdd the RDD data to save to MongoDB
   * @param writeConfig the writeConfig
   * @tparam D the type of the data in the RDD
   */
  def save[D: ClassTag](rdd: RDD[D], writeConfig: WriteConfig): Unit = {
    val mongoConnector = MongoConnector(writeConfig.asOptions)
    rdd.foreachPartition(iter => if (iter.nonEmpty) {
      mongoConnector.withCollectionDo(writeConfig, { collection: MongoCollection[D] =>
        iter.grouped(writeConfig.maxBatchSize).foreach(batch => collection.insertMany(batch.toList.asJava))
      })
    })
  }
/**
   * Save data to MongoDB
   *
   * '''Note:''' If the dataFrame contains an `_id` field the data will upserted and replace any existing documents in the collection.
   *
   * @param dataset the dataset to save to MongoDB
   * @param writeConfig the writeConfig
   * @tparam D
   * @since 1.1.0
   */
  def save[D](dataset: Dataset[D], writeConfig: WriteConfig): Unit = {
    val mongoConnector = MongoConnector(writeConfig.asOptions)
    val documentRdd: RDD[BsonDocument] = dataset.toDF().rdd.map(row => rowToDocument(row))
    if (dataset.schema.fields.exists(_.name == "_id")) {
      documentRdd.foreachPartition(iter => if (iter.nonEmpty) {
        mongoConnector.withCollectionDo(writeConfig, { collection: MongoCollection[BsonDocument] =>
          iter.grouped(writeConfig.maxBatchSize).foreach(batch => {
            val updateOptions = new UpdateOptions().upsert(true)
            val requests = batch.map(doc =>
              Option(doc.get("_id")) match {
                case Some(_id) =>
                  if (writeConfig.replaceDocument) {
                    new ReplaceOneModel[BsonDocument](new BsonDocument("_id", _id), doc, updateOptions)
                  } else {
                    doc.remove("_id")
                    new UpdateOneModel[BsonDocument](new BsonDocument("_id", _id), new BsonDocument("$set", doc), updateOptions)
                  }
                case None => new InsertOneModel[BsonDocument](doc)
              })
            collection.bulkWrite(requests.toList.asJava)
          })
        })
      })
    } else {
      MongoSpark.save(documentRdd, writeConfig)
    }
  }

参考链接

最后编辑于
©著作权归作者所有,转载或内容合作请联系作者
  • 序言:七十年代末,一起剥皮案震惊了整个滨河市,随后出现的几起案子,更是在滨河造成了极大的恐慌,老刑警刘岩,带你破解...
    沈念sama阅读 158,847评论 4 362
  • 序言:滨河连续发生了三起死亡事件,死亡现场离奇诡异,居然都是意外死亡,警方通过查阅死者的电脑和手机,发现死者居然都...
    沈念sama阅读 67,208评论 1 292
  • 文/潘晓璐 我一进店门,熙熙楼的掌柜王于贵愁眉苦脸地迎上来,“玉大人,你说我怎么就摊上这事。” “怎么了?”我有些...
    开封第一讲书人阅读 108,587评论 0 243
  • 文/不坏的土叔 我叫张陵,是天一观的道长。 经常有香客问我,道长,这世上最难降的妖魔是什么? 我笑而不...
    开封第一讲书人阅读 43,942评论 0 205
  • 正文 为了忘掉前任,我火速办了婚礼,结果婚礼上,老公的妹妹穿的比我还像新娘。我一直安慰自己,他们只是感情好,可当我...
    茶点故事阅读 52,332评论 3 287
  • 文/花漫 我一把揭开白布。 她就那样静静地躺着,像睡着了一般。 火红的嫁衣衬着肌肤如雪。 梳的纹丝不乱的头发上,一...
    开封第一讲书人阅读 40,587评论 1 218
  • 那天,我揣着相机与录音,去河边找鬼。 笑死,一个胖子当着我的面吹牛,可吹牛的内容都是我干的。 我是一名探鬼主播,决...
    沈念sama阅读 31,853评论 2 312
  • 文/苍兰香墨 我猛地睁开眼,长吁一口气:“原来是场噩梦啊……” “哼!你这毒妇竟也来了?” 一声冷哼从身侧响起,我...
    开封第一讲书人阅读 30,568评论 0 198
  • 序言:老挝万荣一对情侣失踪,失踪者是张志新(化名)和其女友刘颖,没想到半个月后,有当地人在树林里发现了一具尸体,经...
    沈念sama阅读 34,273评论 1 242
  • 正文 独居荒郊野岭守林人离奇死亡,尸身上长有42处带血的脓包…… 初始之章·张勋 以下内容为张勋视角 年9月15日...
    茶点故事阅读 30,542评论 2 246
  • 正文 我和宋清朗相恋三年,在试婚纱的时候发现自己被绿了。 大学时的朋友给我发了我未婚夫和他白月光在一起吃饭的照片。...
    茶点故事阅读 32,033评论 1 260
  • 序言:一个原本活蹦乱跳的男人离奇死亡,死状恐怖,灵堂内的尸体忽然破棺而出,到底是诈尸还是另有隐情,我是刑警宁泽,带...
    沈念sama阅读 28,373评论 2 253
  • 正文 年R本政府宣布,位于F岛的核电站,受9级特大地震影响,放射性物质发生泄漏。R本人自食恶果不足惜,却给世界环境...
    茶点故事阅读 33,031评论 3 236
  • 文/蒙蒙 一、第九天 我趴在偏房一处隐蔽的房顶上张望。 院中可真热闹,春花似锦、人声如沸。这庄子的主人今日做“春日...
    开封第一讲书人阅读 26,073评论 0 8
  • 文/苍兰香墨 我抬头看了看天上的太阳。三九已至,却和暖如春,着一层夹袄步出监牢的瞬间,已是汗流浃背。 一阵脚步声响...
    开封第一讲书人阅读 26,830评论 0 195
  • 我被黑心中介骗来泰国打工, 没想到刚下飞机就差点儿被人妖公主榨干…… 1. 我叫王不留,地道东北人。 一个月前我还...
    沈念sama阅读 35,628评论 2 274
  • 正文 我出身青楼,却偏偏与公主长得像,于是被迫代替她去往敌国和亲。 传闻我的和亲对象是个残疾皇子,可洞房花烛夜当晚...
    茶点故事阅读 35,537评论 2 269

推荐阅读更多精彩内容