腾讯云
开发者社区
文档
建议反馈
控制台
登录/注册
首页
学习
活动
专区
圈层
工具
MCP广场
文章/答案/技术大牛
搜索
搜索
关闭
发布
文章
问答
(9999+)
视频
沙龙
1
回答
使用
spark
/
java
的
mod
函数
、
、
、
我在
spark
上
使用
了以下代码: dataframe.withColumn("diffDate",col("current_time").minus( col("tracking_time")).divide(60*1000).
mod
(60)); 但是我得到了以下输出 +---------------+----------------+-----------------+ |tracking_time |1594110202934 |56.089116666466 |
浏览 19
提问于2020-07-07
得票数 0
回答已采纳
2
回答
使用
spark
实现散列
、
、
、
、
因此,我用
Java
语言实现了分离链接散列:https://github.com/Big-data-analytics-project/Static-hashing-closed/blob/main/Static%20hashing%20closed 下一步是
使用
spark
实现它,我试着阅读教程,但我仍然迷失方向。
浏览 21
提问于2020-11-04
得票数 0
1
回答
火花放电在多节点簇上
的
应用
、
、
我已经在多节点集群上设置了
Spark
,如本文所解释
的
:我还测试了是否可以启动星火外壳,执行Scala命令,并在上查看作业结果。') import numpy as nppri
浏览 2
提问于2019-05-01
得票数 2
3
回答
将数组类型列转换为小小写
我有一个数据文件,如下所示 (0, ['This','is','
Spark
']),|-- words: array (nullable = true)我正在应用一个def lower(token):
浏览 5
提问于2022-09-01
得票数 1
2
回答
火花logistic回归模型
的
硬编码
、
、
我
使用
PySpark训练了一个模型,并希望将它
的
性能与现有启发式
的
性能进行比较。 我只想硬编码一个系数为0.1、0.5和0.7
的
LR模型,调用测试数据
的
.transform来获得预测,并计算准确性。
浏览 3
提问于2018-06-25
得票数 2
回答已采纳
2
回答
如何从
Spark
StreamingContext
的
DStream中获取文件名?
、
、
、
事件经过多次尝试和谷歌搜索后,如果我
使用
流上下文,则无法获取fileName。我可以
使用
SparkContext
的
wholeTextFiles,但是,我必须重新实现流上下文
的
功能。注意: FileName (错误事件作为json文件)是系统
的
输入,因此在输出中保留该名称非常重要,以便在审计期间可以跟踪任何事件。 注意: FileName
的
格式如下。可以从事件json中提取SerialNumber部分,但是时间是以毫秒为单位存储
的
,很难以可靠
的
方式在下面
浏览 0
提问于2015-11-22
得票数 2
1
回答
如何
使用
支持泛型ID类型(int和long)
的
Spark
的
实现
、
我正在尝试
使用
Spark
构建一个推荐系统,其中
的
数据如下276725;034545104;0276729;052165615;3我
使用
Spark
2.1.0和mongoldb来加载数据。下面是我
的
代码,它定义了数据格式和转换后
的</em
浏览 3
提问于2017-01-16
得票数 2
1
回答
如何在纱线客户端上运行
spark
、
、
我尝试在yarn-client上运行pyspark,我不确定可能
的
原因以及无法正确解释日志 import sysfrom pysparkimport SparkContext, SparkConfconf.setMaster('yarn-client')sc = SparkContext(conf=conf) # sc= SparkContext.
浏览 3
提问于2019-02-12
得票数 1
1
回答
如何重命名现有的
Spark
SQL
函数
、
、
我正在
使用
Spark
对用户提交
的
数据调用
函数
。如何将已存在
的
函数
重命名为其他名称,如将REGEXP_REPLACE重命名为REPLACEss.udf.register("REPLACE", REGEXP_REPLACE)// This doesn't workss.udf.register("
mod
浏览 11
提问于2017-12-11
得票数 0
回答已采纳
1
回答
即使工作节点上不需要库,导入错误也会引发。
、
、
我正在为我
的
PySpark应用程序编写一个自定义库,它需要对一些CSV文件
使用
Pandas库进行一些预处理。但是,在我
使用
addPyFile
函数
将库作为包添加、导入所需
的
方法并执行该
函数
之后,它将引发一个ImportError。_1.py,我有from sub_module_1 import sub_
mod
_1 input_local_file问题
浏览 4
提问于2019-04-26
得票数 0
回答已采纳
3
回答
在配置单元中
使用
毫秒转换时间戳
的
纪元
、
、
、
如何在配置单元中将unix
的
毫秒纪元转换为毫秒
的
时间戳?cast()和from_unixtime()
函数
都无法以毫秒为单位获取时间戳。我试过.SSS,但是这个
函数
只是增加了年份,并没有把它作为毫秒
的
一部分。scala>
spark
.sql("select from_unixtime(1598632101000, 'yyyy-MM-dd hh:mm:ss.SSS')").show(false) +-----
浏览 84
提问于2020-08-31
得票数 1
回答已采纳
1
回答
在火花组件中找不到火花-1.4.0-hadoop2.6.0.jar
、
、
我从下载了源代码,并
使用
但是当我做jar -tf
spark
-assembly-1.4.0-hadoop2.6.0.jar |grep pyspark时,它没有显示任何结果,我正在CentOS 6.6上构建它。我看过,它看起来就像他
的
程序集JAR显示了一个吡火花类。请告诉我以下几点: 要在纱线上
浏览 6
提问于2015-09-28
得票数 0
1
回答
如何计算电火花中
的
模?
、
、
我是星火世界
的
新手,我想要计算一个额外
的
列,里面有整数模块。我没有在内置操作符中找到这个操作符。 有人知道吗?
浏览 5
提问于2020-02-12
得票数 11
2
回答
如何计算RDD[Long]
的
标准差和平均值?
、
、
我有一个名为RDD[Long]
的
mod
,我希望
使用
Spark
2.2和Scala2.11.8计算这个RDD
的
标准差和平均值。 avg($"col").as("avg") val stddev_val=
浏览 3
提问于2018-01-07
得票数 0
回答已采纳
1
回答
在工作节点上运行时发生
的
火花错误
、
、
Traceback (most recent call last): loader = get_loader(
mod
_na
浏览 24
提问于2021-12-23
得票数 0
1
回答
在linux机器上读取一个拼花文件
、
、
我试着读python中
的
拼图文件。我用地板和json进口
的
。我
使用
了下面的代码,因为我不想
使用
熊猫。我想在R中实现相同
的
功能,所以我尝试
使用
“网状”,在R中
使用
python
函数
,我
使用
了以下代码:py <- import_builtins() pq <- import,我得到了不同
的
错误。,或者用任何其他
的
方式来读取R.中
的
拼图
浏览 1
提问于2018-08-12
得票数 3
1
回答
ImportError:无法导入名称“”SparkContext“”
我
的
PYTHONPATH看起来像这样: C:\
spark
\
spark
-2.3.4-bin-hadoop2.7\python;C:\
spark
\
spark
-2.3.4-bin-hadoop2.7\pythonlast):
mod
_name,
mod
_spec, code = _get_m
浏览 125
提问于2019-10-12
得票数 1
2
回答
Greenplum
Spark
Connector org.postgresql.util.PSQLException:错误:将数据写入gpfdist时出错
、
、
、
我在Azure上有一个Greenplum集群,我正尝试从本地计算机
使用
spark
连接到该集群(
使用
Pivotal Greenplum
Spark
Connector)。我在我
的
scala代码中做了这样
的
事情: var options = Map[String, String]()options += ("user"(id,7)=1; update sample set stuff = su
浏览 134
提问于2020-03-25
得票数 0
1
回答
Apache
Spark
2.3.0 -如何将两个array<string>合并成一个array<string>
、
、
将两个array<string>合并成一个array<string>在2.4.x版本中是可能
的
,也很容易,但在2.3.0版本中找不到这样做
的
方法。输入-预期输出-有人能解释一下如何
使用
Java
在
Spark
中实现这一点吗?
浏览 9
提问于2021-09-22
得票数 1
2
回答
Spark
(2.3+)可从PySpark/Python调用
的
Java
函数
、
、
re
Spark
文档2.3: 将
Java
用户定义
函数
注册为SQL
函数
。参数:javaClassName -
java
类
的
全限定名 returnType -注册
的
Java
函数
的
返回类型。阅读上面我链接
的
文档,你会发
浏览 76
提问于2018-08-11
得票数 0
点击加载更多
相关
资讯
Java的函数式接口
spark streaming的使用心得
Java:什么是Java中的函数式编程
Spark 核心编程RDD的使用(1)
狂热运输2的玩家有福了,使用此工具,可以将1代MOD转为2代MOD
热门
标签
更多标签
云服务器
ICP备案
对象存储
即时通信 IM
云直播
活动推荐
运营活动
广告
关闭
领券