腾讯云
开发者社区
文档
建议反馈
控制台
登录/注册
首页
学习
活动
专区
工具
TVP
最新优惠活动
文章/答案/技术大牛
搜索
搜索
关闭
发布
精选内容/技术社群/优惠产品,
尽在小程序
立即前往
文章
问答
(9999+)
视频
沙龙
1
回答
使用
Spark
Scala在
MongoDB
中保存流式数据帧
、
、
、
我正在使用Kakfa和
MongoDB
,我的输出(Df1)是一个流数据帧,我想把它保存到Kakfa中。有什么建议吗?非常感谢!) .awaitTermination() // save df1 into
MongoDB
浏览 6
提问于2019-09-26
得票数 1
1
回答
MongoDB
火花连接器不工作在Windows上
、
我在C:/
Spark
中的C驱动器中安装了
Spark
安装程序。我在c驱动器中使用以下命令克隆了
MongoDB
火花连接器-并在C驱动器中创建mongo-
spark
文件夹。当我在
Spark
文件夹中运行命令时- C:\
spark
\bin>
spark
-shell --conf "
spark
.
mongodb
.input.uri=
mongodb
://127.0.0.1
浏览 4
提问于2017-01-19
得票数 1
1
回答
MongoDB
&
Spark
: mongo-hadoop和mongo-
spark
的区别
、
、
、
mongo-hadoop和mongo-
spark
连接器有什么不同,pymongo只能和mango-hadoop一起使用吗? pymongo只
与
mongo-hadoop一起使用吗?
浏览 2
提问于2018-07-10
得票数 0
2
回答
斯派克写给
mongoDB
的信
、
、
我试图从
spark
中写信给
MongoDB
,为了试验目的,我正在启动
spark
2外壳(火花版本=2.1.1.2.6.1.0-129),如下所述:-并在其中运行以下代码:import org.apache.
spark
.sql{SaveMode, SparkS
浏览 3
提问于2018-05-28
得票数 0
回答已采纳
1
回答
爪哇星火: com.
mongodb
.
spark
.config.writeconfig发行
、
、
、
我试图通过java火花连接器
与
MongoDB
连接,当我提交jar并在火花外壳中运行jar时,我得到了一个错误"com.
mongodb
.
spark
.config.writeconfig“。/bin/sparkR -conf "
spark
.
mongodb
.input.uri=
mongodb
://127.0.0.1/test.myCollection?/bin/sparkR -conf
浏览 5
提问于2017-12-27
得票数 1
回答已采纳
2
回答
Spark
通过Mesos转到
MongoDB
、
、
、
、
我正在尝试使用Mesos将Apache
Spark
连接到
MongoDB
。这是我的架构:现在我只在1个节点上安装了
Spark
。关于这方面的信息并不多。我只想提几个问题: 据我所知,我可以通过mesos将星火连接到
MongoDB
。换句话说,我最终使用
MongoDB
作为存储层。我真的需要Hadoop吗?是否强制将所有数
浏览 29
提问于2016-08-17
得票数 0
1
回答
从Databricks写入Azure cosmos DB时出现问题
、
、
、
、
我正在尝试将数据从
Spark
(使用Databricks)写入Azure Cosmos DB(Mongo DB)。执行notebook时没有错误,但查询集合时出现以下错误。我已经使用了来自数据库网站azure-cosmosdb-
spark
_2.4.0_2.11-2.1.2-uber.jar.的jar我的版本是6.5 (包括Apache
Spark
2.4.5,Scala2.11) import org.joda.time.format._ import com.microsoft.azure.cosmosdb.
spark
.
浏览 4
提问于2020-06-12
得票数 0
3
回答
从Scala中的
mongoDB
中读取
、
、
、
"Firstapp.scala代码import org.apache.
spark
.sql.SparkSession .config("
spark
.
mongodb
.output.uri&qu
浏览 25
提问于2020-06-10
得票数 5
2
回答
如何使用
MongoDB
的
Spark
连接器匹配null?
、
、
、
我试图使用一个聚合函数来查询一个
MongoDB
集合,但是我无法执行
与
null的匹配。
浏览 3
提问于2017-07-31
得票数 1
回答已采纳
1
回答
在scala中将dataframe转换为json
、
、
、
假设我有一个wordcount示例,其中我在一列中以word的形式获得数据,而在另一列中获得wordcount,则希望收集相同的数据,并将其存储为mongo集合中的json数组。|Word | Count || xyz | 23 |{words:[{word:"abc",count:1},{word:"xyz",count:23}]} 当我在dataframe上尝试.toJSON并将值收集为list并将其添加到dataframe时,存储在mongo中的结果是字符串的
浏览 2
提问于2018-04-13
得票数 3
2
回答
如何使用pycharm开发火花放电和
mongoDB
、
、
、
、
我需要在
MongoDB
集合中工作,读和写。一切都很好。我使用下面的包开始使用
MongoDB
连接然而,问题在于它在命令行中,在命令行中编写大量代码变得非常困难
浏览 3
提问于2017-10-14
得票数 0
回答已采纳
3
回答
无法通过星火连接到Mongo
、
、
、
、
正在获得与火花主站的连接,如下所示:.config("
spark
.
mongodb
.input.uri", "
mongodb
://10.0.3.150/db1.data.coll")\ .config("
spark
.
mongodb
.output.uri", "<
浏览 16
提问于2017-07-17
得票数 3
回答已采纳
2
回答
使用PYSPARK将CSV文件加载/导入到
mongodb
、
、
、
我想知道如何使用pyspark在
mongodb
中加载/导入CSV文件。我在桌面上有一个名为cal.csv的csv文件。有人能分享一下代码片段吗。
浏览 0
提问于2018-09-28
得票数 1
回答已采纳
2
回答
如何使用pyspark在
mongodb
中保存数据?
、
、
my_
spark
= SparkSession \ .builder \ .appName("DGLE") \ JDBC.write.format("com.
mongodb
.
spark
.sql.DefaultSourc
浏览 0
提问于2019-01-12
得票数 1
1
回答
MongoDB
火花连接器py4j.protocol.Py4JJavaError:调用o50.load时出错
、
、
") \ .config("
spark
.
mongodb
.output.uri", "
mongodb
://127.0.0.1/example.collection&
浏览 12
提问于2017-08-16
得票数 3
回答已采纳
2
回答
星星之火
Mongodb
连接器Scala -缺少数据库名称
、
、
、
我正在尝试使用
MongoDB
火花连接器在本地连接
Spark
到
mongodb
。除了设置Apart之外,我还使用了以下代码: val readConfig = ReadConfig(Map("uri" -> "
mongodb
://localhost:27017/movie_db.movie_ratingsreadPreference.name" -> "secondaryPreferred"), Some(ReadConfig
浏览 23
提问于2017-10-18
得票数 8
回答已采纳
1
回答
相同数据上的SQL和
MongoDB
查询执行时间不会产生预期的结果
、
、
、
我正在比较
MongoDB
和
Spark
之间的查询执行时间。具体来说,我从一个
MongoDB
文件中创建了一个由100万条条目组成的.csv集合,并使用Compass中的mongosh运行了一些查询。然后,使用
Spark
和
Spark
连接器,我将这个数据库从
MongoDB
插入到
Spark
中,作为一个RDD。之后,我将RDD转换为Dataframe,并开始在其上运行
Spark
查询。我在
Spark
上运行
与
MongoDB<
浏览 7
提问于2022-01-04
得票数 -1
回答已采纳
6
回答
未能找到数据源: com.
mongodb
.
spark
.sql.DefaultSource
、
、
我正试图按如下方式将
spark
(pyspark)连接到
mongodb
:conf.set('
spark
.
mongodb
.input.uri', default_mongo_uri(sc) .builder \ .config("
spark
.
mongodb
.input.ur
浏览 1
提问于2018-06-21
得票数 11
1
回答
将BsonDocument写入
MongoDB
Spark
Scala
、
、
我想将数据保存到
MongoDB
中,同时从推特上流式传输数据。: clusterListener can not be nullval sparkVersion = "" % sparkVersion, "org.apache.
浏览 2
提问于2018-05-27
得票数 0
2
回答
设置
mongodb
电火花连接器
from pyspark.sql import SparkSession .builder \ .config("
spark<
浏览 11
提问于2022-05-16
得票数 0
点击加载更多
扫码
添加站长 进交流群
领取专属
10元无门槛券
手把手带您无忧上云
相关
资讯
Spark Streaming与Kafka 整合的改进
必读:再讲Spark与kafka 0.8.2.1+整合
Kafka应用之Kafka与Spark Streaming整合
Spring Boot 整合 Spring Data MongoDB
Apache Zeppelin 整合 Spark 和 Hudi
热门
标签
更多标签
云服务器
ICP备案
对象存储
即时通信 IM
实时音视频
活动推荐
运营活动
广告
关闭
领券