今天,我找到了一个大小为4MB的“空”目录。
它没有可见的内容,所以我尝试了ls -lah。这给我看了一些隐藏的文件(不是很大)。搜索目录如此大的原因,我发现点文件(.)的大小为3.9MB。
在那个文件里存储了什么?这不是一种指向同一个目录的链接吗?
以下是shell输出(匿名):
-bash# more /proc/version
Linux version 2.6.18-8.1.15.el5 (mockbuild@builder6.centos.org) (gcc version 4.1.1 20070105 (Red Hat 4.1.1-52)) #1 SMP Mon Oct 22 08
出于测试目的,我创建了以下目录。
user@linux:~$ mkdir dir0{1..3}
user@linux:~$ ls -l
total 12K
drwxr-xr-x 2 user user 4.0K Mei 31 10:45 dir01
drwxr-xr-x 2 user user 4.0K Mei 31 10:45 dir02
drwxr-xr-x 2 user user 4.0K Mei 31 10:45 dir03
user@linux:~$
然后,我用find -exec删除了它
user@linux:~$ find -type d -exec rmdir {}
我是python的初学者,正在尝试创建100个随机写入数据的文件。为此,我创建了一个嵌套的For循环
file_size=['10','20','50','100','500']
for i in range(100):
j="abcd1234:"+(format(i, '03d'))
<action to create file>
for size in file_size:
cmd_wr
我正在做一个项目,这是一个叉子。我正在为macOS和Linux开发这个项目。到目前为止,在macOS上编译我的项目是成功的,但是我遇到了一些目录的问题。在Makefile.am中,应该创建DB和缓存的目录:。
# create the meme DB, cache, makepkg-template and system hook directories upon install
install-data-local:
for dir in "$(DESTDIR)$(localstatedir)/lib/meme" "$(DESTDIR)$(localstate
我找到了本网站;它有压缩文件(主页上的链接)和所有的艺术品。其中一些具有.ans扩展,它们看起来像在Linux/Unix上使用的ANSI转义代码,但是当我在XFce终端中使用cat打开其中一个扩展时,它会产生垃圾(但在颜色上)。他们看起来不像图片库。
链接中的主要艺术品的第一行如下(从Emacs复制):
[0;1m[30mthere is no substitute [0;33mÜܲ[1;43m°±²²[40mÛ[43mÛ²±[0;33mÝ ßÜ[1;43m²²²[40mÛÛ²[40m[K
文件类型为DOS,但它们可以只在Windows上创建。
在搜索ANSI艺术时,我还发现本网站的压缩文件
我按照以下步骤在我的Debian中安装GHDL编译器,但是现在我需要卸载这个编译器来安装x64版本,但我不能。
By downloading the binaries and unpacking them manually:
$ wget http://ghdl.free.fr/site/uploads/Main/ghdl-i686-linux-latest.tar
$ sudo tar xvf ghdl-i686-linux-latest.tar
(这将生成文件ghdl-0.29-i 686-pc-linux.tar.bz 2)
$ cd ghdl-0.29-i686-pc-lin
我正在跟踪一个关于码头的在线教程。作者举了这个例子:
FROM busybox
RUN dd if=/dev/zero of=/tmp/test1 bs=1M count=50
RUN dd if=/dev/zero of=/tmp/test2 bs=1M count=50
docker image ls
FROM busybox
RUN dd if=/dev/zero of=/tmp/test1 bs=1M count=50
RUN dd if=/dev/zero of=/tmp/test2 bs=1M count=50
RUN rm -rf /tmp/test1
RUN rm -rf /t
我们在zfs上托管一个postgresql95 OLAP数据库,打开lz4压缩。按照建议,我们将zfs记录大小调到8KB,因为这是postgres块大小。先写日志位于它自己的数据集中,记录大小设置为1M:
NAME PROPERTY VALUE SOURCE
ssd recordsize 128K default
ssd/pgdata recordsize 8K local
ssd/pgdata/log recordsize 1M local
我注意到原木压缩比要好得多。我不知道原因是它
我试图使用滚动运行elasticsearch查询。这是我想做的,但这不管用。我按照这里的说明:
$ curl -u $(whoami) -XPOST 'https://myhost.io/elasticsearch/_msearch?scroll=1m' --data-binary @query.json -H "kbn-version:6.7.1" | jq
Enter host password for user '<first.last>':
% Total % Received % Xferd Average Sp