腾讯云
开发者社区
文档
建议反馈
控制台
登录/注册
首页
学习
活动
专区
工具
TVP
最新优惠活动
文章/答案/技术大牛
搜索
搜索
关闭
发布
精选内容/技术社群/优惠产品,
尽在小程序
立即前往
文章
问答
(9999+)
视频
沙龙
1
回答
在
PySpark
中
自动
删除
检查点
文件
、
我
在
我的
PySpark
代码
中
创建了spark上下文和会话, conf = SparkConf().set("spark.cleaner.referenceTracking.cleanCheckpoints/checkpoints") 在下面的代码
中
,我
在
一些数据帧上使用了checkpoint()。它的工作方式与预期一致。 但我希望
在
代码运行完成后
删除
检查点
。 有没有我可以使用的spark配置?如何在代码完成后
删除<
浏览 15
提问于2020-04-27
得票数 1
1
回答
是否有办法
在
EMR作业完成后
自动
删除
检查点
文件
夹?
、
、
我
在
我的
pyspark
代码
中
创建和使用
检查点
。由于我使用的是非常大的数据帧,因此随着时间的推移,它们的大小往往会膨胀。有没有办法
在
作业完成后
删除
检查点
文件
夹?例如,如下伪代码所示:spark = SparkSession.builder.getOrCreate() df3.write.
浏览 2
提问于2021-05-02
得票数 1
1
回答
从Hyper-V管理器
中
删除
Hyper-V
检查点
,但仍有
检查点
备份
文件
.能恢复吗?
因为我试图每周
自动
创建Hyper快照,并将
检查点
文件
备份到外部HDD,然后
删除
超过7天的
检查点
。如果我
删除
Hyper管理器
中
的Hyper
检查点
,但仍然需要
检查点
备份
文件
(like**.vmcx**、.vmgs和.vmrs
文件
),我能使用这些备份
文件
恢复它吗? 谢谢。
浏览 0
提问于2019-08-28
得票数 0
回答已采纳
1
回答
使用
检查点
从胞表读取和更新同一个表
、
、
我正在使用spark版本2.3,并试图将spark
中
的蜂巢表读取为:from
pyspark
.sql.functions import*在这里,我添加了一个新列,其中包含了从system到现有的dataframe的当前日期newdf.write.mode("o
浏览 0
提问于2018-12-06
得票数 2
回答已采纳
1
回答
isCheckPointed()为false
、
、
当我迭代地将500多个列添加到我的
pyspark
中
时,我遇到了堆栈溢出错误。所以我包括了
检查点
。检查站帮不上忙。因此,我创建了下面的玩具应用程序来测试我的
检查点
是否正常工作。在这个例子
中
,我所做的就是一次又一次地复制原始列来迭代地创建列。我坚持,
检查点
和计数每10个迭代。我注意到我的dataframe.rdd.isCheckpointed()总是返回False。我可以验证
检查点
文件
夹确实是
在
磁盘上创建和填充的。我在用哥库德的datap
浏览 1
提问于2017-11-16
得票数 1
回答已采纳
1
回答
如何清理星火结构流
中
积累的
检查点
文件
?
、
、
、
我为SparkContext添加了
检查点
,并为长期运行的火花结构化流作业编写了对kafka数据流的查询。但是,我注意到
检查点
文件
是
在
HDFS和S3
中
积累的,没有
自动
清理。我看到这些
文件
不断地占用存储空间。是否有办法为这些
检查点
文件
配置保留时间以使其
自动
删除
?还是需要运行某个cron作业来手动
删除
它们?如果我手动
删除
它们,会不会影响正在进行的火花作业?谢谢!
浏览 2
提问于2020-09-27
得票数 1
回答已采纳
1
回答
火花结构化流处理以前的
文件
、
我正在
中
实现
文件
源,如果
文件
已被修改,我希望再次处理相同的
文件
名。基本上是对
文件
的更新。目前,一旦处理完毕,火花将不会再次处理相同的
文件
名。与的星火流相比,似乎是有限的。有办法这样做吗?星火结构化流不会在任何地方记录这一点,它只处理具有不同名称的新
文件
。
浏览 0
提问于2018-03-13
得票数 2
2
回答
当规范大型CodeGen数据时,
PySpark
增长超过64 KB错误
、
、
、
、
我有一个包含1300万行和800个列的
PySpark
数据格式。我需要规范化这些数据,因此一直
在
使用这些代码,它可以使用一个更小的开发数据集。所以,我的问题是-是否有一种替代的技术来规范我所缺少的大型数据
文件
? 我用的是火花-2.0.1。
浏览 2
提问于2016-12-12
得票数 7
回答已采纳
1
回答
为什么在数据库被清空的情况下,HSQLDB会在多次插入之后生成OutOfMemoryError?
、
套件
中
的每个测试都会插入一个大批量,测试算法,然后
删除
所有记录。不幸的是,HSQLDB最终会抛出OutOfMemoryError,即使每次都会清除所有记录,并且数据库
中
的最大记录数在任何给定时间都不会改变。 这里有一个最低限度的JUnit测试来重现这一点。正如您所看到的,它只是插入然后
删除
一堆行。什么是HSQLDB
在
删除
后保留在内存中导致错误的原因?为了能够无限期地运行插入-
删除
操作(或者至少足够执行所有测试),我可以进行哪些更改?java.lang.OutOfMemo
浏览 21
提问于2018-08-19
得票数 0
回答已采纳
2
回答
Spark无效的
检查点
目录
、
我
在
我的程序中有一个长时间的迭代,我想每隔几次迭代就缓存和
检查点
(这个技术被建议用来减少web上的长历史),所以我不会有StackOverflowError,通过这样做 //and perform a transformation我像这样设置了
检查点
目录
浏览 2
提问于2015-09-05
得票数 2
回答已采纳
1
回答
tf.trainable_variables()返回model_fn之外的空白列表
在下载的tensorflow代码
中
,当调用model_fn_builder以下时,model_fn (向下)加载tf.trainable_variables()。我试图将tvars = tf.trainable_variables()移出model_fn,这样
在
每次调用预测时都不会加载变量(
在
每个预测生成器解析中都会调用model_fn)。tf
在
model_fn和外部是不同的吗?num_warmup_steps=num_warmup_steps, use_one_hot
浏览 0
提问于2019-01-31
得票数 1
回答已采纳
1
回答
Flink增量
检查点
,Flink会
自动
删除
旧
检查点
文件
吗?
对于Flink增量
检查点
,如果我正确理解它,它将首先创建一个完整的
检查点
,然后它将在以前的基础上每次创建一个增量
检查点
。 这条链子会很长吗?
在
恢复时,我们需要从第一个完整的
检查点
申请吗?我听说Flink会定期进行压缩/合并,这是否意味着它会周期性地创建一个完整的
检查点
,这样我们
在
恢复过程中就不需要进入非常老的完整
检查点
了吗?如果是的话,压缩/合并将在什么时候发生?还有一个问题,Flink是否保存所有
检查点
文
浏览 3
提问于2019-09-20
得票数 1
回答已采纳
1
回答
Flink,setDbStoragePath方法
在
RocksDBStateBackend
中
做什么?
我
在
RocksDBStateBackend中使用flink 1.11,代码如下所示:我的问题是: --我的理解是,当DbStoragePath被设置时,Flink将在存储到hadoop hdfs:///flink-checkpoints之前将所有
检查点
和状态放在本地磁盘
中
(
在
我的例子
中
是
浏览 0
提问于2021-02-24
得票数 0
回答已采纳
1
回答
如何使用recover_last_checkpoints of tf.train.Saver()方法?
、
文档写道,应该将
检查点
路径列表传递给它,但是如何获得该列表呢?通过硬编码?不,这是个愚蠢的做法。通过解析协议缓冲区
文件
(模型目录
中
名为checkpoint的
文件
)?,您有一个很好的实践来获得
检查点
路径列表吗? 我提出这个问题,是因为最近我为一件事而烦恼。如你所知,一天的训练可能会因为某种原因而崩溃,我必须从最近的检查站恢复过来。然而,
在
我恢复训练后,出现了一个问题。那些
在
崩溃前创建的旧
检查点
文件
留在了那里。保护程序只管理
在</
浏览 2
提问于2017-07-13
得票数 3
回答已采纳
1
回答
检查点
页数/秒和内存压力高
、
、
、
最近,我
在
mssqltips.com上阅读了一个关于Server上内存瓶颈的mssqltips.com。在这篇文章
中
,我读到以下内容:高
检查点
页数/秒高页码读取/秒低页预期寿命
自动
(保持恢复间隔)手册如此多的
检查点
表明系统非常繁
浏览 0
提问于2019-02-25
得票数 3
回答已采纳
2
回答
什么是SQL Server事务
中
的
检查点
?
检查点
的不同类型有哪些
、
什么是SQL Server事务
中
的
检查点
?
检查点
的不同类型有哪些
浏览 2
提问于2016-08-16
得票数 1
2
回答
Dataproc(StackOverFlowError)
中
的
Pyspark
检查点
、
、
当我使用
pyspark
持久化数据集时,我遇到了堆叠溢出错误。我将整个dataframe转换为双类型,然后坚持计算统计数据,我读到
检查点
是堆栈溢出的解决方案。但是,
在
dataproc
中
实现它有困难。 <
浏览 0
提问于2018-07-31
得票数 0
1
回答
如何在“稳定状态”中使用sqlite3?
、
问题是从来没有设置“
检查点
”,因为连接没有关闭,所以我的wal
文件
在
增长,而我的性能很差。PRAGMA wal_checkpoint(TRUNCATE);返回的第一个值是1,表示它被阻止完成。让多个进程始终
在
同一个数据库上运行的标准方法是什么? 我应该经常关闭和重新打开连接吗?
浏览 1
提问于2021-05-21
得票数 3
1
回答
垃圾
检查点
间隔是如何在hadoop
中
工作的?为什么需要checkpoint_intereval?
、
、
、
被
删除
,file2
在
第6间隔被
删除
。
在
checkpoint_intereval期间还是在任何时候?2)每个
检查点
间隔的只有
在
新
文件
被
删除
并且rest抽象时才会形成新
文件
夹?(因此,这是否意味着每2分钟的
检查点
对我们来说是抽象的,而不是每2分钟更改一次目录名) 3) 我们将垃圾间隔设置为9分钟(例如),目的是让
文件
在
垃圾中保
浏览 2
提问于2017-02-19
得票数 1
1
回答
OpenLDAP业务数据库日志
文件
维护和
自动
删除
、
、
我有一个关于OpenLDAP/BDB
在
data目录
中
创建的日志
文件
的问题。这些
文件
的格式为log.XXXXXXXXXX (X是数字),并且每个
文件
都具有相同的大小(可在DB_CONFIG
中
配置)。我
在
OpenLDAP和BDB文档
中
读到了很多关于
检查点
和日志
文件
维护的内容。这些
文件
增长非常快,需要维护,这似乎是很正常的。通常情况下,您应该定期备份它们,然后
删除
它们。问题是实
浏览 8
提问于2015-02-06
得票数 0
点击加载更多
扫码
添加站长 进交流群
领取专属
10元无门槛券
手把手带您无忧上云
相关
资讯
在 Git 中怎样克隆、修改、添加和删除文件?
终端基础:在 Linux 中删除文件和文件夹|Linux 中国
在TortoiseGit中自动启动pageant自动导入ppk文件
永久删除的文件在计算机中的位置?
内存卡删除文件自动恢复
热门
标签
更多标签
云服务器
ICP备案
云直播
对象存储
腾讯会议
活动推荐
运营活动
广告
关闭
领券