awk / arch /
bc /
cp / clock -w / chmod / chkconfig / cal / cut /chmod / cat / crotable / clean /
date / diff / df / du -sh /
echo / exit /
find / free / fdisk -l /
gzip / Grep /
Help / histroy / head / hostname /
ifconfig / init
kill /
ls / less / locate /logout / lastlog / lscpu / ln / lscpu / lsblk / lspci
mv / mkdir / more / make && make install /
nl / netstat -ntlp /
Pwd / ping / ps /
Reboot / rm -rf / rpm /
scp / ssh-keygen / ssh-copy-id / setup / Shutdown / server /sh /sed / sync / su / sudo / sort /
tar / tail -f / top /tac / tree / tzselect /
useradd / users / useradd / userdel / ulimit / uname / unzip /
vi /
wget / who / which / wc /
yum /
Zip /
tail -f : 小f跟踪文件的唯一index的就算文件修改了名字后也是跟踪的原来的文件。
tail -F :按照文件的名字来跟踪。
具体的用法可以访问:http://man.linuxde.net/ 或者链接:http://pan.baidu.com/s/1slCn4O9 密码:rscu 如果无法下载请联系作者。
[root@hadoop1 ~]# find / -ctime -1
-1 是前一天的,一次类推
[root@hadoop1 local]# ls -l -R start_sh/
start_sh/:
total 32
-rw-r--r--. 1 root root 14 Dec 10 17:56 1.text
-rw-r--r--. 1 root root 16 Dec 10 17:58 2.text
[root@hadoop1 local]# du -h start_sh/
36K start_sh/
[root@hadoop1 local]# du -ah start_sh/
4.0Kstart_sh/zookeeper.sh
4.0Kstart_sh/2.text
4.0Kstart_sh/spark_start.sh
4.0Kstart_sh/hadoop.sh
4.0Kstart_sh/slave
4.0Kstart_sh/1.text
4.0Kstart_sh/kafka_start.sh
4.0Kstart_sh/redis.sh
36Kstart_sh/
[root@hadoop1 local]# du -ch kafka
68Kkafka/config
5.4Mkafka/logs
27Mkafka/libs
496Kkafka/site-docs
80Kkafka/bin/windows
3.2Mkafka/bin
36Mkafka
36Mtotal
[root@hadoop1 /]# shutdown -h now
[root@hadoop1 /]# shutdown -h +10
[root@hadoop1 /]# halt
[root@hadoop1 /]# reboot
[root@hadoop1 /]# clear
Ctrl + l 清屏快捷键
命令模式、插入模式、末行模式
向右移动 --> l
向左移动 --> h
向下移动 --> j
向上移动 --> k
删除光标所在位置的字符 --> x
删除光标所在的行 --> dd(敲 d 两次)
保存当前修改并退出 --> ZZ
撤销上一步操作 --> u
移动光标到行首 --> 0 (数字0)
移动光标到行末 --> $
移动光标到当前页最顶行 --> H
移动光标到当前页最底行 --> L
向前翻一页(Page Up) --> Ctrl + f
向后翻一页(Page Down) --> Ctrl + b
复制当前行的数据 --> yy
粘贴已经复制的数据 --> p
把当前行第一次出现的old字符串替换成new字符串 --> :s/old/new
把当前行出现的所有old字符串替换陈gnew字符串 --> :s/old/new/g
把文件中出现的所有old字符串替换陈gnew字符串 --> :%s/old/new/g
退出并保存 --> ZZ
在光标 左侧输入正文[常用] --> i
在光标 右侧输入正文[常用] --> a
在光标所在行的 下一行增添新行 --> o
在光标所在行的 上一行增添新行 --> O
在光标 所在行的开头输入正文 --> I
在光标 所在行的末尾输入正文 --> A
保存文件 [常用] --> w
将当前文件的内容保存到file文件 --> w file
保存文件并退出vi编辑器[常用] --> wq
读取file 文件的内容,插入当前光标所在行的后面 --> r file
退出vi编辑器(如果当前文件有改动,则无法退出) --> q
强制退出vi编辑器(不保存修改)[常用] --> q!
光标到行首 --> Home
光标到行尾 --> End
向上翻页 --> Page Up
向下翻页 --> Page Down
删除光标位置的字符 --> Delect
向前移动一页 --> Ctrl+f
向后移动一页 --> Ctrl+b
光标向左移动一个字符 [常用] --> h
光标向下移动一个字符 [常用] --> j
光标向上移动一个字符 [常用] --> k
光标向右移动一个字符 [常用] --> l
把光标移到行尾 [常用] --> 0
把光标移到行首 [常用] --> $
把光标移到文件的末尾 [常用] --> G
把光标移到文件的开头 [常用] --> gg
把光标移到下一个单词的开头[常用]->w
把光标移到当前或下一个单词的字尾[常用]->e
快速删除全部内容 -> dG
[root@hadoop1 /]# cat 1.text
a
b
a
[root@hadoop1 /]# sed 's/b/xiaozhang/g' 1.text
a
xiaozhang
a
[root@hadoop1 /]# last -n 3| awk '{print$1}'
root
root
Reboot
Print可以选择第几列
[root@hadoop1 /]# cat /etc/passwd|awk -F ':' '{print$1}'
root
bin
daemon
adm
BEGIN 选择打印的头部信息,END 结束的时得打印
[root@hadoop1 /]# cat /etc/passwd |awk -F ':' 'BEGIN {print "name,shell"} {print
name,shell
root,/bin/bash
bin,/sbin/nologin
daemon,/sbin/nologin
Ctrl + l
[root@skycloud2 redis_cluster]# netstat -nltp|grep redis
格式基本格式 :
*****command
分 时 日 月 周 命令
例如:
30 21 * * * /usr/local/etc/rc.d/lighttpd restart
上面的例子表示每天的21:30重启apache。
45 4 1,10,22 * * /usr/local/etc/rc.d/lighttpd restart
上面的例子表示每月1、10、22日的4 : 45重启apache。
10 1 * * 6,0 /usr/local/etc/rc.d/lighttpd restart
上面的例子表示每周六、周日的1 : 10重启apache。
0,30 18-23 * * * /usr/local/etc/rc.d/lighttpd restart
上面的例子表示在每天18 : 00至23 : 00之间每隔30分钟重启apache。
0 23 * * 6 /usr/local/etc/rc.d/lighttpd restart
上面的例子表示每星期六的11 : 00 pm重启apache。
* */1 * * * /usr/local/etc/rc.d/lighttpd restart
每一小时重启apache
* 23-7/1 * * * /usr/local/etc/rc.d/lighttpd restart
晚上11点到早上7点之间,每隔一小时重启apache
0 11 4 * mon-wed /usr/local/etc/rc.d/lighttpd restart
每月的4号与每周一到周三的11点重启apache
0 4 1 jan * /usr/local/etc/rc.d/lighttpd restart
一月一号的4点重启apache
实例:sudo ln -s 源文件 目标文件
删除:[root@hadoop1 software] rm -rf 源文件
[root@hadoop1 ~]# cat /proc/version
Linux version 2.6.32-573.el6.x86_64 (mockbuild@c6b9.bsys.dev.centos.org) (gcc version 4.4.7 20120313 (Red Hat 4.4.7-16) (GCC) ) #1 SMP Thu Jul 23 15:44:03 UTC 2015
[root@hadoop1 ~]# cat /proc/cpuinfo
processor: 0
vendor_id: GenuineIntel
cpu family: 6
model: 58
model name: Intel(R) Core(TM) i3-3110M CPU @ 2.40GHz
stepping: 9
microcode: 18
cpu MHz: 2394.639
cache size: 3072 KB
physical id: 0
siblings: 1
core id: 0
cpu cores: 1
apicid: 0
initial apicid: 0
fpu: yes
fpu_exception: yes
cpuid level: 13
wp: yes
flags: fpu vme de pse tsc msr pae mce cx8 apic sep mtrr pge mca cmov pat pse36 clflush dts mmx fxsr sse sse2 ss syscall nx rdtscp lm constant_tsc up arch_perfmon pebs bts xtopology tsc_reliable nonstop_tsc aperfmperf unfair_spinlock pni pclmulqdq ssse3 cx16 pcid sse4_1 sse4_2 x2apic popcnt tsc_deadline_timer xsave avx f16c hypervisor lahf_lm arat epb pln pts dts fsgsbase smep
bogomips: 4789.27
clflush size: 64
cache_alignment: 64
address sizes: 42 bits physical, 48 bits virtual
power management:
[root@hadoop1 ~]# fdisk -l
Disk /dev/sda: 21.5 GB, 21474836480 bytes
255 heads, 63 sectors/track, 2610 cylinders
Units = cylinders of 16065 * 512 = 8225280 bytes
Sector size (logical/physical): 512 bytes / 512 bytes
I/O size (minimum/optimal): 512 bytes / 512 bytes
Disk identifier: 0x0008bfe5
Device Boot Start End Blocks Id System
/dev/sda1 * 1 39 307200 83 Linux
Partition 1 does not end on cylinder boundary.
/dev/sda2 39 2350 18566144 83 Linux
/dev/sda3 2350 2611 2097152 82 Linux swap / Solaris
[root@hadoop1 ~]# ll -h
total 64K
-rw-------. 1 root root 3.3K Mar 3 2017 anaconda-ks.cfg
-rw-r--r--. 1 root root 41K Mar 3 2017 install.log
-rw-r--r--. 1 root root 9.0K Mar 3 2017 install.log.syslog
[root@hadoop1 ~]# find . -type f -size +800M | xargs ls -lh
-rw-rw-r-- 1 hadoop root 24G Mar 6 08:49 ./data/cities.txt
-rw-rw-r-- 1 hadoop root 18G Mar 6 08:49 ./data/order.txt
-rw-rw-r-- 1 hadoop root 50G Mar 6 10:17 ./data/maxinfo.txt
-rw-rw-r-- 1 hadoop root 19G Mar 6 08:49 ./data/order.txt
-rw-rw-r-- 1 hadoop root 35G Mar 6 10:00 ./data/max.txt
yum install 全部安装
yum install package1 安装指定的安装包package1
yum groupinsall group1 安装程序组group1
yum update 全部更新
yum update package1 更新指定程序包package1
yum check-update 检查可更新的程序
yum upgrade package1 升级指定程序包package1
yum groupupdate group1 升级程序组group1
yum info package1 显示安装包信息package1
yum list 显示所有已经安装和可以安装的程序包,使用@标记
yum list package1 显示指定程序包安装情况package1
yum groupinfo group1 显示程序组group1信息yum search string 根据关键字string查找安装包
yum remove | erase package1 删除程序包package1
yum groupremove group1 删除程序组group1
yum deplist package1 查看程序package1依赖情况
yum clean packages 清除缓存目录下的软件包
yum clean headers 清除缓存目录下的 headers
yum clean oldheaders 清除缓存目录下旧的 headers
yum clean, yum clean all (= yum clean packages; yum clean oldheaders) 清除缓存目录下的软件包及旧的headers
[root@hadoop1 ~]# pkill java
或
[root@hadoop1 ~]# killall java
或
Jps | zargs kill -9
[root@hadoop1 ~]# iostat -d -k 2 10
Linux 2.6.32-573.el6.x86_64 (hadoop1.hadoop.com) 05/29/2017 _x86_64_(1 CPU)
Device: tps kB_read/s kB_wrtn/s kB_read kB_wrtn
sda 22.21 534.63 32.45 389710 23656
Device: tps kB_read/s kB_wrtn/s kB_read kB_wrtn
sda 0.00 0.00 0.00 0 0
-d : 显示设备(磁盘)使用状态
-m : 某些使用block为单位的列强制使用Kilobytes为单位
2 : 多少秒刷新一次
10 : 表示一共显示多少次
$ lsof -i :18630
chrome 3294 xiaoxu 240u IPv4 624822 0t0 TCP localhost:33222->xiaoxu:18630 (ESTABLISHED)
chrome 3294 xiaoxu 255u IPv4 624823 0t0 TCP localhost:33224->xiaoxu:18630 (ESTABLISHED)
java 18253 xiaoxu 2279u IPv6 616200 0t0 TCP *:18630 (LISTEN)
java 18253 xiaoxu 2293u IPv6 624657 0t0 TCP xiaoxu:18630->localhost:33222 (ESTABLISHED)
************
-b:删除覆盖以前的建立的软连接
-d, -F:允许超级用户制作目录的硬链接
-f : 强制执行
-i :交互模式,文存在则提示用户是否覆盖
-n:把符号链接视为一般的链接
-v:显示详细的处理过程
$ ln -s /google/chrome/google-chrome /usr/bin/
/google/chrome/google-chrome:源文件的路径
/usr/bin/:目标文件的路径
echo 1772 |awk '{printf("%x\n",
6ec
$ ethtool em1
Settings for em1:
Supported ports: [ FIBRE ]
Supported link modes: 1000baseT/Full
10000baseT/Full
Supported pause frame use: Symmetric Receive-only
Supports auto-negotiation: No
Advertised link modes: 10000baseT/Full
Advertised pause frame use: No
Advertised auto-negotiation: No
Speed: 10000Mb/s (表示万M网卡,如果是1000M则表示千M网卡)
Duplex: Full
Port: FIBRE
PHYAD: 1
Transceiver: internal
Auto-negotiation: off
Cannot get wake-on-lan settings: Operation not permitted
Current message level: 0x00000000 (0)
Link detected: yes
rcp代表“remote file copy”(远程文件拷贝)
$ scp -r root@192.168.3.122:/root/yarnLog.log ~/softWare/software
scp就是secure copy,一个在linux下用来进行远程拷贝文件的命令
$ rcp -r root@192.168.3.122:/root/yarnLog.log ~/softWare/software
在“lsblk”代表( 名单块设备 ),通过在树状时尚标准输出分配给他们的名称(但不是RAM)打印块设备
$ lsblk
NAME MAJ:MIN RM SIZE RO TYPE MOUNTPOINT
sda 8:0 0 465.8G 0 disk
└─sda1 8:1 0 465.8G 0 part /
sdb 8:16 1 14.7G 0 disk
└─sdb1 8:17 1 14.7G 0 part /media/xiaoxu/522D-5D8F