腾讯云
开发者社区
文档
建议反馈
控制台
登录/注册
首页
学习
活动
专区
工具
TVP
最新优惠活动
文章/答案/技术大牛
搜索
搜索
关闭
发布
精选内容/技术社群/优惠产品,
尽在小程序
立即前往
文章
问答
(9999+)
视频
沙龙
3
回答
在写入dataframe - pyspark之前从表中
删除
记录
、
、
、
、
在从dataframe向表中写入
数据
之前,我正在尝试从表中
删除
记录。这对我不起作用。我做错了什么?query = "(delete from xx_files_tbl)" .option("url", "jdbc:sqlserver
浏览 172
提问于2020-10-14
得票数 1
回答已采纳
1
回答
表或视图未被插入到
mysql
中,而该表或视图存在于Pyspark中。
、
、
、
我试图使用Pyspark连接插入到现有的
Mysql
表中,但是我得到了以下错误 File "/usr/hdp/current/
spark
2-client/python/pyspark/sql/context.py", line 384, in sql
浏览 0
提问于2020-07-17
得票数 0
回答已采纳
6
回答
SPARK
使用
MySql
和JDBC更新DataFrames表
、
、
我试图使用
Spark
、DataFrames和JDBC连接在
MySql
上插入和更新一些
数据
。如果我更改为SaveMode.Overwrite,它将
删除
完整的表并创建一个
浏览 11
提问于2016-02-25
得票数 32
回答已采纳
5
回答
Spark
jdbc覆盖模式未按预期工作
、
、
、
并使用模式覆盖向目标写入 .option("url", "jdbc:
mysql
://localhost/test") .option("dbtable","temptgtUpdate") .option("use
浏览 3
提问于2020-05-10
得票数 0
1
回答
如何通过
Spark
WORKER节点从
MySQL
读取
数据
?
、
、
我是
spark
的新手。我们有从
mysql
读取
数据
的遗留java
spark
代码。但是,它在“主”节点加载
数据
,然后根据划分的组将
数据
广播到工作节点。return result;请注意,我们在map函数的外部加载所有组的
数据
,我认为这意味着所有
数据
加载都在主节点上完成,并将广播发送到工作节点进行计算。如果是,那么我担心
数据
太大,所以主内存将不够用。有什么方法可以将这个
数据</em
浏览 2
提问于2021-09-16
得票数 0
1
回答
如何在过滤前将
数据
从
数据
库加载到
Spark
、
我正在尝试运行这样一个PySpark应用程序: dataframe_
mysql
=
spark
.read.format('jdbc').options( url="jdbc:
mysql
://= dataframe_
mysql
.filter("da
浏览 3
提问于2022-08-12
得票数 0
回答已采纳
1
回答
使用
Spark
或Flink将基于Kafka事件的
数据
转换为关系星型模式
、
、
、
、
我正在为一个使用
MySQL
作为其
数据
存储的应用程序构建分析功能。我们有一个基于微服务的架构,也使用Kafka。我们的用例并不真正需要“实时”分析,但这可能会在以后添加。对于卷和用例,我不认为需要基于Hadoop的系统,但Kafka Connect,
Spark
和Flink是可能的。我打算构建一个基于星型模式的报告
数据
库,独立于主生产
数据
库,由维度和事实表组成,并允许Tableau报告这一点。可以编写代码来检查每个事件,然后更新事实表,但是考虑到我可能会在事实表中的
数据
桶上使用15到30分钟
浏览 0
提问于2018-03-23
得票数 3
1
回答
删除
MySQL
SELECT中的第一行而不使用偏移量
、
、
我有一个吡火花SQL脚本,它应该
删除
SELECT中的第一行。如何
删除
吡火花选择中的第一行?('SELECT `Course Name` AS title, `Discipline Code` AS discipline_code FROM books') 上面的查询包含表头,它不应该保存到
MySQL
我必须将标题保留在dataframe中,这样才能根据后面的
spark
中的标头选择一些列。我真正需要的是
删除
sp
浏览 12
提问于2022-06-05
得票数 0
回答已采纳
1
回答
如何将
spark
查询结果转换为dataframe python
、
、
、
如何将
spark
.sql查询结果转换为dataframe,当我在代码行下面运行时,它给了object任何读取object的方法,给出了
数据
结果df =
spark
_session.sql
浏览 14
提问于2022-06-22
得票数 0
1
回答
pySpark无法执行保存操作,因为select正在锁定表
、
、
、
、
.at com.
mysql
.jdbc.ConnectionImpl.execSQL(ConnectionImpl.java:2526) at com.
mysql
.jdbc.StatementImpl.
浏览 13
提问于2020-08-06
得票数 0
回答已采纳
2
回答
从
mysql
读取火花外壳中的
数据
、
、
首先,我构建了scala应用程序,使用这一行代码从apache中的
mysql
表中读取
数据
。","file:///tmp/
spark
-warehouse").getOrCreate()var df =
spark
.read.format("jdbc.option("password", "root")现在,我正尝
浏览 2
提问于2017-10-02
得票数 1
4
回答
火花无法从SBT中找到JDBC驱动程序
、
、
、
但是,当我添加行Class.forName("com.
mysql
.jdbc.Driver")时,它会抛出一个ClassNotFoundException。" %% "
spark
-core" % "2.1.0"libraryDependencies+= "
浏览 8
提问于2017-03-01
得票数 2
回答已采纳
1
回答
如何加入来自
mysql
和Oracle的SparkSQL
数据
?
、
在SparkSQL中可以加入
mysql
和Oracle
数据
库中的
数据
吗?我试图加入他们,但在
SPARK
_CLASSPATH中设置多个jars (用于
mysql
和Oracle的jdbc驱动程序)时遇到了一些问题。这是我的代码:import sys sys.path.append(&quo
浏览 2
提问于2015-12-30
得票数 1
1
回答
如何在火花上下文中指定多个jdbc驱动程序?
、
、
我有一个应用程序,它从
mysql
和postgresql读取
数据
并进行
数据
处理。我有以下函数来初始化
spark
: global sc, sqlContext, sqlCtx, sql,
spark
'
spark
.driver.extraClassPath', 'path/t
浏览 2
提问于2020-08-13
得票数 1
4
回答
从星火连接到
mysql
、
docker run -it -p 8088:8088 -p 8042:8042 -p 4040:4040 -h sandbox sequenceiq/
spark
:1.6.0 bash 这项工作如预期的那样Map("url"
浏览 5
提问于2016-09-11
得票数 0
1
回答
从
Mysql
中读取
Spark
、
、
我有一个
spark
作业,它从
mysql
读取一个表,但出于某种原因,
spark
将int列定义为布尔值。如何在表读取期间强制
数据
类型?火花会议:.config("
spark
.sql.autoBroadcastJoinThreshold", -1).config
浏览 10
提问于2022-10-10
得票数 1
回答已采纳
1
回答
火花源三角洲-湖泊次生砂岩
、
、
在相同的jupyter会话中使用"
spark
.sql.warehouse.dir“(无
数据
库)可以工作。但是在jupyter中重新启动内核后,目录
数据
库和表不再被识别。谢谢,克里斯蒂安 SparkSession.builder .config("
spark
.jars.packages"") "
spark<
浏览 1
提问于2021-09-17
得票数 3
1
回答
从
mysql
获取
数据
到Apache (scala)时出错
、
、
、
我想从
mysql
获得
数据
到
Spark
(scala),但当
数据
发生时会出错 com.
mysql
.cj.jdbc.exceptions.CommunicationsException:通信链路故障("jdbc").option("url", "jdbc:
mysql
://127.0.0.1:3360/crawldb").option("driver", "com.
浏览 1
提问于2019-07-24
得票数 0
回答已采纳
1
回答
通过PySpark将
数据
写入外部
数据
库
、
、
我想将
数据
从PySpark DataFrame写入外部
数据
库,比如Azure
MySQL
数据
库。到目前为止,我已经使用.write.jdbc()成功地做到了这一点,
spark
_df.write.jdbc(url=
mysql
_url, table=
mysql
_table, mode="append", properties={"user":
mysql
_user, "password": <em
浏览 2
提问于2021-11-03
得票数 1
回答已采纳
1
回答
如何在读取JDBC连接时使用谓词?
、
、
、
默认情况下,
spark
_read_jdbc()将整个
数据
库表读入
Spark
。我使用了以下语法来创建这些连接。<- "
mysql
-connector-java-5.1.43/
mysql
-connector-java-5.1.43-bin.jar" name = "table_name",
浏览 2
提问于2017-08-01
得票数 5
回答已采纳
点击加载更多
扫码
添加站长 进交流群
领取专属
10元无门槛券
手把手带您无忧上云
相关
资讯
MySQL 删除数据库|Mysql Drop Database
MySQL 删除数据库
恢复 MySQL 数据库删除数据
MySQL 插入,更新和删除数据
mysql数据库:查询,删除,插入
热门
标签
更多标签
云服务器
ICP备案
对象存储
即时通信 IM
实时音视频
活动推荐
运营活动
广告
关闭
领券