我正在尝试为AWS键空间编写一个Spark。随机地,有些记录正在更新,有些记录正在抛出此异常。com.datastax.oss.driver.api.core.type.codec.CodecNotFoundException: Codec not found for requested operation$1.load(DefaultCodecRegistry.java:92)
at com.datastax.oss.driver.shaded.guava.common.cache.LocalCache$Segment.get(Local
我的macOS (high see )客户端可以正确地查看和读取/写入~/数据,甚至可以在数据/归属池中写入数据。问题是,zfs错误地获取了macOS池的存储容量,将homepool的存储空间表示为~/data的存储空间,而由于homepool挂载了ZFS池,所以homepool非常大。这阻止了Finder复制大文件,并且Finder认为没有可用的空间。这是个bug吗?