腾讯云
开发者社区
文档
建议反馈
控制台
登录/注册
首页
学习
活动
专区
工具
TVP
最新优惠活动
文章/答案/技术大牛
搜索
搜索
关闭
发布
精选内容/技术社群/优惠产品,
尽在小程序
立即前往
文章
问答
(9999+)
视频
沙龙
1
回答
加载
Spark
后
丢失
connectionProperties
值
、
、
首先,我配置调用load表:
spark
.sqlContext .format("jdbc") "dbtable" -> "table", "
connectionProperties
浏览 13
提问于2018-02-04
得票数 0
回答已采纳
2
回答
java中的火花MySQL连接器
、
、
、
static final SparkSession sparkSession = //JDBC connection properties <
浏览 4
提问于2020-04-25
得票数 0
回答已采纳
1
回答
为什么SparkSQL在访问MySQL表中的任何
值
时总是返回超出范围的
值
?
、
、
、
它确实成功地打印了表的架构,因此连接是工作的,但是每当我试图访问数据库中的任何列或
值
时,我总是走出范围异常: java.sql.SQLException:列的范围外
值
: value规范
connectionProperties
.put("user", s"$
浏览 0
提问于2019-05-07
得票数 1
回答已采纳
0
回答
java.lang.RuntimeException:为jdbc找到了多个源
、
、
、
我正在尝试将数据
加载
到hive able,同时将数据
加载
到hive表中,我遇到了错误"java.lang.RuntimeException: Multiple sources found for jdbc"SSLTrustStore=/usr/java/jdk1.8.0_144/jre/lib/security/oooacerts;user=xxxx;password=yyyyy" val
connectionProperties
= ne
浏览 0
提问于2018-07-19
得票数 1
1
回答
使用
Spark
/ java在dataframe
加载
查询的ResultSet
、
、
、
我希望在dataframe中
加载
select查询的结果集。} conn.close(); 在数据文件中
加载
浏览 0
提问于2020-07-09
得票数 0
回答已采纳
1
回答
如何防止Server在导入数据时剥离前导零
、
、
、
数据文件中的一个列是文本数据类型,该列中的
值
仅为整数。Server db中目标表中的对应列为varchar(100)类型。但是在数据导入之后,Server将像0474525431这样的
值
存储为4.74525431E8,即Scientific Notations。问题:在上述情况下,如何防止server将
值
存储到Scientific Notations中。更新from pyspark.sql.functions import * xy
浏览 3
提问于2022-05-14
得票数 0
回答已采纳
1
回答
在(Py)火花中读取JDBC源时不支持的数组错误?
、
、
、
、
以下是我的代码: .appName("Connect toDB") \
connectionProperties
= { "user" :(url=jdbcUrl, table=query, properties=<e
浏览 0
提问于2018-05-30
得票数 2
回答已采纳
1
回答
为什么星火在
加载
数据集时会报告“错误:未找到:输入属性”?
、
、
我在Windows10上运行
Spark
2.1.0,我遵循的是。当我试图使用链接中的第二种方法
加载
数据时,我会得到以下错误。scala> val
connectionProperties
= new Properties() ^
浏览 2
提问于2017-03-29
得票数 3
回答已采纳
1
回答
databricks:从datawarehouse临时目录读取
、
我正在编写一个如下所示的函数 def fromdw(): .format("com.databricks.
spark
.sqldw")\ .option("query",sqlquery)\ .option( "forward_
spark
_azure_storage_credentials","True")
浏览 5
提问于2019-12-17
得票数 0
1
回答
如何在Databricks中使用R读取使用Scala创建的临时视图?
、
、
、
、
我知道我必须使用sparklyr包来做这件事,所以假设我已经
加载
了这个包 %scalaval jdbcPassword = "xxxx"
connectionProperties
.put("user", s"${jdbcUsername}")
connectionProperties
.put("password", s&
浏览 13
提问于2020-06-16
得票数 1
1
回答
将数据写入mysql共享表中
、
|| shared_4 |+-------------------+val data = List((0, "a"), (11, "b"), (22, "c"), (33, "d"), (44, "e")) val total =
spark
.sparkContext.paralleliz
浏览 6
提问于2020-04-07
得票数 0
1
回答
如何根据列中的
值
范围拆分数据帧并将其存储在单独的文件中?
、
、
在从postgres读取表格
后
,我在
spark
中创建了一个dataframe,如下所示。val url = "jdbc:postgresql://localhost:5432/testdb"
connectionProperties
.setProperty("Driver", "org.postgresql.Driver")
conn
浏览 19
提问于2019-09-16
得票数 0
回答已采纳
1
回答
如何使用
Spark
与teradata进行并行连接
、
、
、
我正在尝试使用
Spark
连接将火花DataFrame插入到Teradata。
浏览 1
提问于2018-09-16
得票数 2
回答已采纳
1
回答
查询表名
、
我正在查询
spark
集群中的数据。如何检查我有权访问的所有数据库/表?user='{3}';password='{4}'".format(jdbcHostname, jdbcPort, jdbcDatabase, jdbcUsername, jdbcPassword) "password" : jdbcPassword, "driver" : "com.microsoft.
浏览 2
提问于2020-04-03
得票数 0
1
回答
如何将sqlite json列转换为
Spark
string或struct?
、
、
、
、
现在,我想提高查询速度,并将这些数据提取到索引的、更易于管理的内容中 问题是
spark
将json列视为BigDecimal,我不知道为什么或如何解决这个问题,我发现了一些东西,但没有任何帮助。24766932600, 8256434300] at org.sqlite.jdbc3.JDBC3ResultSet.getBigDecimal(JDBC3ResultSet.java:196) 我尝试的是
加载
/cache/iconic.db', dbtable='coauthors', driver=
浏览 12
提问于2019-04-07
得票数 0
1
回答
天蓝色数据库中的SQL查询时间过长
、
、
、
import com.microsoft.azure.sqldb.
spark
.config.Config import com.microsoft.azure.sqldb.
spark
.connect._下面是文档:火花主节点连接到SQL数据库或Server中的数据库,并从特定的表或使用特定的SQL查询
加载
数据。火花主节点将数据分发给工作节点以进行转换。或者,我必须先将表数据提取到
Spark
,然后运行SQL查询才能获得结果。你建议用哪种方法?
浏览 1
提问于2020-07-10
得票数 1
1
回答
java.lang.StringIndexOutOfBoundsException:超出范围的字符串索引:0
、
、
、
我试图将数据
加载
到hive表中,同时将数据
加载
到hive表中,我得到的错误是"java.lang.StringIndexOutOfBoundsException: String超出范围: 0“。val userNam =xxxx .format("com.databricks.
spark
.csvmore details")) fileProcessing.moveFile(sour
浏览 2
提问于2018-06-05
得票数 0
回答已采纳
2
回答
使用JDBC +参数化SQL查询+数据库的SQL数据库
、
、
、
、
在Databricks中,我将SQL表读取为.select("RuleCode","SourceSystem","PrimaryTable", "PrimaryColumn", "SecondaryColumn
浏览 12
提问于2020-05-17
得票数 0
回答已采纳
2
回答
如何使用varchar数据类型的partitionColumn读取scala上的表?
、
、
、
var finaldataframe =
spark
.read.format("jdbc") .option("driver", "com.microsoft.sqlserver.jdbc.SQLServerDriver
浏览 5
提问于2020-01-24
得票数 0
1
回答
使用具有相同列名(不同数据)的表连接数据集
、
、
Dataset<Row> uct =
spark
.read().jdbc(jdbcUrl, "uct",
connectionProperties
);Dataset<Row> uc = uct.join(s
浏览 0
提问于2018-01-19
得票数 0
回答已采纳
点击加载更多
扫码
添加站长 进交流群
领取专属
10元无门槛券
手把手带您无忧上云
相关
资讯
用随机森林分类算法进行Iris 数据分类训练,是怎样的体验?
如何使用pyspark统计词频?
什么是 Spark RDD?
Spark及Spark Streaming 核心原理及实践
教程:Apache Spark SQL入门及实践指南!
热门
标签
更多标签
云服务器
ICP备案
云直播
对象存储
腾讯会议
活动推荐
运营活动
广告
关闭
领券