腾讯云
开发者社区
文档
建议反馈
控制台
登录/注册
首页
学习
活动
专区
工具
TVP
最新优惠活动
文章/答案/技术大牛
搜索
搜索
关闭
发布
精选内容/技术社群/优惠产品,
尽在小程序
立即前往
文章
问答
(9999+)
视频
沙龙
3
回答
将
spark
数据
帧
写入
postgres
数据库
、
、
、
spark
簇设置如下:.setMaster('yarn-client') \.set("
spark
.executor.memory", "20g") \.set("
浏览 27
提问于2016-08-08
得票数 7
2
回答
如何
将
流式
数据
帧
写入
PostgreSQL?
、
、
、
我有一个流式
数据
帧
,我正在尝试将其
写入
数据库
。这里有
将
rdd或df
写入
Postgres
的文档。但是,我找不到关于如何在结构化流媒体中做到这一点的示例或文档。我已经阅读了文档https://
spark
.apache.org/docs/latest/structured-streaming-programming-guide.html#foreachbatch,但我不能理解在何处创建jdbc连接以及如何将其
浏览 17
提问于2019-02-19
得票数 2
回答已采纳
1
回答
将
Spark
数据
帧
写入
postgres
数据库
时出错
、
我正在尝试从我的
Spark
作业中写出一些元
数据
到
postgres
数据库
。中提供了以下驱动程序信息:#
spark
.master
spark
://master:7077#
spark
.eventLog.dir hdfs://namenode:8021/di
浏览 1
提问于2018-03-14
得票数 0
1
回答
spark
.sql()和
spark
.read.format("jdbc").option("query“、"")之间有什么区别?
、
、
、
我假设
spark
.sql(查询)是在使用
spark
.sql时使用的,而
spark
.read.format("jdbc").option("query“、"")则是在使用oracle语法时使用的。
浏览 3
提问于2021-08-16
得票数 3
回答已采纳
1
回答
有没有办法通过PyCharm添加
spark
.driver.extraClassPath?
、
我正试图在我的本地机器上运行
Spark
作业,以便
将
一些
数据
写入
postgres
数据库
。
浏览 3
提问于2018-02-15
得票数 0
回答已采纳
1
回答
是否可以在
Spark
写入
SQL
数据库
时使用它?
、
、
、
、
首先,我在Amazon上使用
Spark
1.5.2,在
postgres
数据库
中使用Amazon。 我目前正致力于让
Spark
将其结果
写入
postgres
数据库
,我正在使用
Spark
的jdbc进行此操作。当它正常工作时,我担心的是,如果我试图在
Spark
运行时使用psql连接到db,然后尝试从
Spark
正在
写入
的表中读取,它就会告诉我还没有写行。这种情况一直持续到火花结束,然后所有的行突然出现在
浏览 1
提问于2016-01-21
得票数 0
回答已采纳
2
回答
R DBI Sparklyr DBWritetable正在运行,但没有结果
、
、
、
、
从MS-SQL环境进入同样具有
spark
访问权限的配置单元环境。我已经使用
spark
和R包sparklyr进行了连接,并且可以使用带有
spark
连接的R包DBI连接到我们的配置单元集群,并将
数据
提取到R
数据
帧
中: sc <-
spark
_connect(master= "yarn-client",
spark
_home="/usr/hdp/current/
spark</
浏览 1
提问于2017-09-01
得票数 1
3
回答
sparklyr
将
数据
写入
hdfs或配置单元
我尝试使用sparklyr
将
数据
写入
hdfs或hive,但无法找到方法。是否有可能使用sparklyr
将
R
数据
帧
写入
hdfs或hive?请注意,我的R和hadoop运行在两个不同的服务器上,因此我需要一种从R
写入
远程hdfs的方法。 向Rahul致敬
浏览 16
提问于2017-06-28
得票数 6
1
回答
pySpark jdbc
写入
错误:调用o43.jdbc时出错。:scala.MatchError:空
、
、
、
我正在尝试使用pySpark
将
简单的
spark
数据
帧
写入
db2
数据库
。Dataframe只有一个
数据
类型为double的列。这是只有一行和一列的
数据
帧
: 这是
数据
帧
架构: 当我尝试使用以下语法将此
数据
帧
写入
db2表时: dataframe.write.mode('overwrite').jdbc(url=url,t
浏览 0
提问于2018-03-21
得票数 1
1
回答
使用sqlalchemy和psycogp2
将
数据
帧
推送到
postgres
、
、
我正在尝试
将
数据
帧
写入
postgres
。所使用的DBAPI是psycogp2。localconn='postgresql+psycopg2://
postgres
/PSWD@localhost:5432/localPG'df.to_sql("DUMMY", localEng) 但是它抛出的错误是(psycopg2.Operati
浏览 0
提问于2017-10-25
得票数 1
2
回答
pandas:迭代
数据
帧
,对每一行执行SQL查询
、
我有一个
数据
帧
和一个五百万行的本地
Postgres
数据库
。在
数据
帧
的每一行中,我希望添加一个列,该列是对
Postgres
数据库
的查询结果。writer.writerow(row) row['name'] = '' writer.writerow(row) 所以我迭代各行,并将结果
写入
本地有没有办法让我做得更整洁,并将结果保存在本地
数据<
浏览 22
提问于2021-06-28
得票数 0
1
回答
如何使用Apache作为Web应用程序的后端而不是
Postgres
、
、
、
、
我有一个Web,它使用
Postgres
作为后端
数据库
。目前的
数据
并没有那么大。但最终它将增长,并将拥有大
数据
。是否有可能将当前
数据库
--
Postgres
迁移到ApacheSpark作为更快访问
数据
的后端?如有任何帮助或建议,将不胜感激。谢谢。
浏览 0
提问于2016-09-03
得票数 0
1
回答
如何使用PySpark从熊猫
数据
框架
写入
Spark
表?
、
、
、
pandas.DataFrame.to_sql()方法
将
允许您将
数据
帧
的结果
写入
数据库
。这在标准RDBMS的上下文中工作得很好。如何在
Spark
中使用PySpark呢?
浏览 2
提问于2015-03-25
得票数 0
回答已采纳
1
回答
在Pyspark应用程序中异步运行DBAPI调用
、
我有一个应用程序,它创建一些
数据
帧
,将它们
写入
磁盘,然后使用vertica_python运行一个命令,
将
数据
加载到Vertica中。由于加密驱动器,
Spark
Vertica连接器无法工作。我想要做的是,让应用程序运行命令来加载
数据
,然后立即转移到下一个作业。然而,它正在做的是等待在Vertica中完成加载,然后再移动到下一个作业。我怎么才能让它做我想做的事呢?谢谢。这在正常情况下不应该被阻止,那么为什么它会出现在
Spark
中?具体地说,发生的情况是我
浏览 0
提问于2018-05-22
得票数 0
1
回答
有没有办法
将
地块文件中的
数据
直接插入到PostgreSQL
数据库
中?
、
、
、
我正在尝试恢复一些以拼图格式保存的历史备份文件,我想从它们中读取一次,并将
数据
写入
PostgreSQL
数据库
。我知道使用
spark
保存备份文件,但对我来说有一个严格的限制,即我不能在DB机器中安装
spark
,也不能在远程设备中使用
spark
读取拼图文件,并使用
spark
_df.write.jdbc将其
写入
数据库
一切都需要在DB机器上进行,在没有
spark
和Hadoop的情况下,只需要使用
Postgres</e
浏览 1
提问于2019-11-10
得票数 6
回答已采纳
1
回答
从
spark
jdbc连接向
数据库
发送选项
、
、
我正在尝试
将
一个大型
数据
帧
写入
db2
数据库
,但是我遇到了服务器上的日志,我的会话变得太大了。我如何从
spark
向db2发送与insert命令一起使用的+c标志,以便它一起绕过日志记录?有没有办法从
spark
提交
数据库
命令?我可以从db库中发出命令,但不确定如何同时使用这两个库。
浏览 10
提问于2018-03-01
得票数 0
1
回答
AWS Lambda可以读取RDS,但不能
写入
RDS
、
、
、
我目前正在编写一个AWS Lambda,它将
写入
RDS
数据库
。我可以从
数据库
中读取
数据
,但在尝试
写入
数据库
时连接超时。我想知道这是不是因为我试图从aws lambda中向
Postgres
数据库
编写一个geopandas DF,如下所示: eng = create_engine('postgresql://' + '
postgres
_db我知道我能够从
数据库
中读取<em
浏览 30
提问于2020-12-10
得票数 0
回答已采纳
1
回答
如何在不使用SQLAlchemy引擎的情况下
将
数据
帧
写入
Postgres
表?
、
、
、
我有一个想要
写入
Postgres
数据库
的
数据
框架。这个功能需要成为应用程序的一部分。现在,我
将
这个插入部分作为一个单独的脚本运行,创建一个SQLAlchemy engine并将其传递给df.to_sql(),以便
将
数据
帧
写入
数据库
表。但是,当我
将
这个功能集成到一个Flask应用程序中时,我已经有了到
Postgres
数据库
的现有连接,该
数据库
是使用
浏览 7
提问于2019-11-01
得票数 1
回答已采纳
1
回答
Spark
JDBC关系
数据库
取数优化
、
a)与传统的java JDBC调用相比,
Spark
有没有一种方法可以优化从关系
数据库
获取
数据
。b)如何在运行
Spark
查询时减少
数据库
的负载,因为我们将为所有查询直接命中生产
数据库
。假设
Spark
报告案例的生产中有3000万条订单记录和1.5亿条订单行记录。
浏览 2
提问于2015-08-18
得票数 2
2
回答
如何使用
Spark
写入
PostgreSQL hstore
、
、
、
、
我正在尝试
将
星火
数据
集
写入
现有的postgresql表中(不能像列类型一样更改表元
数据
)。这个表中的一个列是类型的,它造成了麻烦。在启动
写入
时,我看到了以下异常(此处原始映射为空,转义时为空字符串): at org.apache.
spark
.sql.execution.datasources.jdbc.JdbcUtils$$anonfu
浏览 4
提问于2016-12-05
得票数 7
回答已采纳
点击加载更多
扫码
添加站长 进交流群
领取专属
10元无门槛券
手把手带您无忧上云
相关
资讯
如何使用flink-connector-postgres-cdc将Kafka写数据到PostgreSQL数据库动态表中
第八篇|Spark SQL百万级数据批量读写入MySQL
管理大型 Postgres 数据库的 3 个技巧|Linux 中国
Postgres DevOps 数据库管理员的日常|Linux 中国
扫描出内网数据库并写入xlsx中
热门
标签
更多标签
云服务器
ICP备案
对象存储
腾讯会议
云直播
活动推荐
运营活动
广告
关闭
领券