Spark 连接 Mongodb 批量读取数据
创始人
2024-01-18 03:27:51
0

Spark 连接 mongodb ,并多次切换集合

方案一:通过 JavaSparkContext 连接 mongodb ,利用 MongoSpark.load() 方法获取集合数据

测试 demo 如下:

import com.mongodb.spark.MongoSpark;
import com.mongodb.spark.config.ReadConfig;
import com.mongodb.spark.rdd.api.java.JavaMongoRDD;
import org.apache.spark.api.java.JavaSparkContext;
import org.apache.spark.api.java.function.FilterFunction;
import org.apache.spark.sql.Row;
import org.apache.spark.sql.SparkSession;
import org.bson.Document;import java.util.ArrayList;
import java.util.HashMap;public class SparkReadMongodbs {public static void main(String[] args) {String mongoUrl="mongodb://root:root123456@192.168.1.124:27017,192.168.1.123:27017,192.168.1.125:27017/";String database="lhiot";String dbCollection="0762a06a97b3628bd00037e6f66c7d16";String port = "27017";SparkSession.Builder builder =SparkSession.builder().master("local[*]").appName("SparkCalculateRecommend").config("spark.mongodb.input.uri", mongoUrl+database+"."+dbCollection+"?authSource=admin").config("spark.executor.memory", "512mb");SparkSession spark = builder.getOrCreate();JavaSparkContext jsc = new JavaSparkContext(spark.sparkContext());//使用Spark连接器载入sparkContext,获取RDD对象JavaMongoRDD c1 = MongoSpark.load(jsc);ArrayList collections = new ArrayList<>();collections.add("00dfaed143dcbb02ae21aaec492d369d");collections.add("020a91e9c60fab73d244ba797c485e47");collections.add("02a70e55a7ff1a4ebb4dbbeb3e28c137");collections.add("0588dee7e8fdde3d95ba250affeab843");collections.add("0762a06a97b3628bd00037e6f66c7d16");collections.add("0914e6088a799c8cee11df25e11e2534");collections.add("0f768fc73fed9752fd87f432e9d77ba6");collections.add("1336a41b0bd13e1ca6a86905b9c6fd9d");collections.add("1ea1b22693d1bdb592853ec59c4d1fe3");HashMap readOverrides = new HashMap<>();for (String collection : collections) {readOverrides.put("collection", collection);//读取数据库对应集合数据ReadConfig readConfig = ReadConfig.create(jsc).withOptions(readOverrides);//获取该设备集合数据JavaMongoRDD c2 = MongoSpark.load(jsc,readConfig);c2.toDF().select("_id.oid", "deviceCode", "funCode", "deptId", "deptName", "mountId", "mountName", "deviceId","pointId", "pointName", "pointOrderNum", "value", "pointDisplayName", "unit", "originTime", "createTime").withColumnRenamed("oid", "id").filter(new FilterFunction() {@Overridepublic boolean call(Row value) throws Exception {String originTime = value.getAs("originTime").toString();return originTime.compareTo("2022-01-22 00:00:00")>=0 && originTime.compareTo("2022-01-22 23:59:59")<=0;}}).show();}jsc.stop();spark.stop();}
}

该方法,在切换集合时,会产生大量的新增连接,程序结束,所有连接会断开。
但是如果业务需要从大量的集合中读取数据,这个方式就不太合适了,维护大量的连接,spark会消耗大量的内存,同事mongo端也会有很大压力,甚至会导致数据库服务的挂掉。

方案二:通过 JavaSparkContext 连接 mongodb ,利用 sqlContext.read().load() 方法获取集合数据

测试 demo 如下:

import org.apache.spark.SparkConf;
import org.apache.spark.api.java.JavaSparkContext;
import org.apache.spark.sql.Dataset;
import org.apache.spark.sql.Row;
import org.apache.spark.sql.SQLContext;
import org.apache.spark.sql.SparkSession;import java.util.ArrayList;
import java.util.HashMap;
import java.util.Map;public class sparkReadMongodbWithoutCol {public static void main(String[] args) {String mongoUrl="mongodb://root:root123456@192.168.1.124:27017,192.168.1.123:27017,192.168.1.125:27017/";String database="lhiot";String dbCollection="0762a06a97b3628bd00037e6f66c7d16";String port = "27017";//将options的配置信息存储到一个map里Map map = new HashMap();
//        map.put("uri",mongoUrl);map.put("database", database);
//        map.put("collection", dbCollection);//连接mongodb服务器SparkConf sc = new SparkConf().setMaster("local").setAppName("SparkConnectMongo").set("spark.app.id", "MongoSparkConnectorTour").set("spark.mongodb.input.uri", mongoUrl + "?authSource=admin").set("spark.testing.memory","471859200");JavaSparkContext jsc = new JavaSparkContext(sc);SQLContext sqlContext = new SQLContext(jsc);ArrayList collections = new ArrayList<>();collections.add("0762a06a97b3628bd00037e6f66c7d16");collections.add("00dfaed143dcbb02ae21aaec492d369d");collections.add("020a91e9c60fab73d244ba797c485e47");collections.add("02a70e55a7ff1a4ebb4dbbeb3e28c137");collections.add("0588dee7e8fdde3d95ba250affeab843");collections.add("0762a06a97b3628bd00037e6f66c7d16");collections.add("0914e6088a799c8cee11df25e11e2534");collections.add("0f768fc73fed9752fd87f432e9d77ba6");collections.add("1336a41b0bd13e1ca6a86905b9c6fd9d");collections.add("1ea1b22693d1bdb592853ec59c4d1fe3");for (String collection : collections) {map.put("collection", collection);//读取数据库对应集合数据Dataset res = sqlContext.read().format("com.mongodb.spark.sql").options(map).load();res.registerTempTable("table");sqlContext.sql("select * from table").show();}jsc.stop();}}

该方案再切换不同集合时,不会产生大量的连接,整个程序只会在mongo端产生2个连接,程序结束,2个连接也会自动断开。
该方案就比较适合需要同时读取大量集合数据的需求场景。

以上只是我的简单测试方案,理解较为浅显,欢迎大佬留言交流,谢谢鉴赏。

相关内容

热门资讯

【NI Multisim 14...   目录 序言 一、工具栏 🍊1.“标准”工具栏 🍊 2.视图工具...
银河麒麟V10SP1高级服务器... 银河麒麟高级服务器操作系统简介: 银河麒麟高级服务器操作系统V10是针对企业级关键业务...
不能访问光猫的的管理页面 光猫是现代家庭宽带网络的重要组成部分,它可以提供高速稳定的网络连接。但是,有时候我们会遇到不能访问光...
AWSECS:访问外部网络时出... 如果您在AWS ECS中部署了应用程序,并且该应用程序需要访问外部网络,但是无法正常访问,可能是因为...
Android|无法访问或保存... 这个问题可能是由于权限设置不正确导致的。您需要在应用程序清单文件中添加以下代码来请求适当的权限:此外...
北信源内网安全管理卸载 北信源内网安全管理是一款网络安全管理软件,主要用于保护内网安全。在日常使用过程中,卸载该软件是一种常...
AWSElasticBeans... 在Dockerfile中手动配置nginx反向代理。例如,在Dockerfile中添加以下代码:FR...
AsusVivobook无法开... 首先,我们可以尝试重置BIOS(Basic Input/Output System)来解决这个问题。...
ASM贪吃蛇游戏-解决错误的问... 要解决ASM贪吃蛇游戏中的错误问题,你可以按照以下步骤进行:首先,确定错误的具体表现和问题所在。在贪...
月入8000+的steam搬砖... 大家好,我是阿阳 今天要给大家介绍的是 steam 游戏搬砖项目,目前...