目录
1、Shell操作日期时间1
2、高级文本处理命令4
5.1、wc4
5.2、sort6
5.3、uniq7
2.4、cut9
5.5、grep(文本生成器)10
5.6、sed(流编辑器)13
5.7、awk(报表生成器)16
5.8、find18
3、Shell操作字符串20
3.1、字符串截取20
3.2、字符串替换22
3.3、获取字符串长度22
4、Shell脚本自动安装MySQL23
1、Shell操作日期时间
date - print or set the system date and time
linux系统为我们提供了一个命令date,专门用来显示或者设置系统日期时间的。
语法格式为:
date [OPTION]... [+FORMAT] 或者
date [-u|--utc|--universal] [MMDDhhmm[[CC]YY][.ss]]
常用的可选项有:
--help:显示辅助信息
--version:显示date命令版本信息
-u:显示目前的格林威治时间
-d:做日期时间相关的运算
--date='-dateStr':做日期时间的相关运算
1、显示系统当前日期时间
[root@hadoop ~]# date
以指定格式显示日期时间
[root@hadoop ~]# date '+%Y-%m-%d %H:%M:%S'
2、设置系统日期时间
[root@hadoop ~]# date -s "2017-01-01 01:01"
3、有时候,我们操作日期时间,经常会要获取前几天或者后几天的时间,那么date命令也给我们提供了实现这个功能的可选项'-d'和'--date',请看下面细细的例子
先看'-d':
## 获取下一天的时间
[root@hadoop ~]# date -d next-day '+%Y-%m-%d %H:%M:%S'
[root@hadoop ~]# date -d 'next day' '+%Y-%m-%d %H:%M:%S'
另外一种写法:
[root@hadoop ~]# date '+%Y-%m-%d %H:%M:%S' -d tomorrow
## 获取上一天的时间
[root@hadoop ~]# date -d last-day '+%Y-%m-%d %H:%M:%S'
另外一种写法:
[root@hadoop ~]# date '+%Y-%m-%d %H:%M:%S' -d yesterday
## 获取下一月的时间
[root@hadoop ~]# date -d next-month '+%Y-%m-%d %H:%M:%S'
## 获取上一月的时间
[root@hadoop ~]# date -d last-month '+%Y-%m-%d %H:%M:%S'
## 获取下一年的时间
[root@hadoop ~]# date -d next-year '+%Y-%m-%d %H:%M:%S'
## 获取上一年的时间
[root@hadoop ~]# date -d last-year '+%Y-%m-%d %H:%M:%S'
## 获取上一周的日期时间:
[root@hadoop ~]# date -d next-week '+%Y-%m-%d %H:%M:%S'
[root@hadoop ~]# date -d next-monday '+%Y-%m-%d %H:%M:%S'
[root@hadoop ~]# date -d next-thursday '+%Y-%m-%d %H:%M:%S'
那么类似的,其实,last-year,last-month,last-day,last-week,last-hour,last-minute,last-second都有对应的实现。相反的,last对应next,自己可以根据实际情况灵活组织
接下来,我们来看'--date',它帮我实现任意时间前后的计算,来看具体的例子:
## 获取一天以后的日期时间
[root@hadoop ~]# date '+%Y-%m-%d %H:%M:%S' --date='1 day'
[root@hadoop ~]# date '+%Y-%m-%d %H:%M:%S' --date='-1 day ago'
## 获取一天以前的日期时间
[root@hadoop ~]# date '+%Y-%m-%d %H:%M:%S' --date='-1 day'
[root@hadoop ~]# date '+%Y-%m-%d %H:%M:%S' --date='1 day ago'
上面的例子显示出来了使用的格式,使用精髓在于改变前面的字符串显示格式,改变数据,改变要操作的日期对应字段,除了天也有对应的其他实现:year,month,week,day,hour,minute,second,monday(星期,七天都可)
4、date 能用来显示或设定系统的日期和时间,在显示方面,使用者能设定欲显示的格式,格式设定为一个加号后接数个标记,其中可用的标记列表如下:
使用范例:
[root@hadoop ~]# date '+%Y-%m-%d %H:%M:%S'
日期方面:
%a : 星期几 (Sun..Sat)
%A : 星期几 (Sunday..Saturday)
%b : 月份 (Jan..Dec)
%B : 月份 (January..December)
%c : 直接显示日期和时间
%d : 日 (01..31)
%D : 直接显示日期 (mm/dd/yy)
%h : 同 %b
%j : 一年中的第几天 (001..366)
%m : 月份 (01..12)
%U : 一年中的第几周 (00..53) (以 Sunday 为一周的第一天的情形)
%w : 一周中的第几天 (0..6)
%W : 一年中的第几周 (00..53) (以 Monday 为一周的第一天的情形)
%x : 直接显示日期 (mm/dd/yyyy)
%y : 年份的最后两位数字 (00.99)
%Y : 完整年份 (0000..9999)
时间方面:
%%: 打印出%
%n : 下一行
%t : 跳格
%H : 小时(00..23)
%k : 小时(0..23)
%l : 小时(1..12)
%M : 分钟(00..59)
%p : 显示本地AM或PM
%P : 显示本地am或pm
%r : 直接显示时间(12 小时制,格式为 hh:mm:ss [AP]M)
%s : 从 1970 年 1 月 1 日 00:00:00 UTC 到目前为止的秒数
%S : 秒(00..61)
%T : 直接显示时间(24小时制)
%X : 相当于%H:%M:%S %p
%Z : 显示时区
若是不以加号作为开头,则表示要设定时间,而时间格式为 MMDDhhmm[[CC]YY][.ss]
MM 为月份,
DD 为日,
hh 为小时,
mm 为分钟,
CC 为年份前两位数字,
YY 为年份后两位数字,
ss 为秒数
5、有用的小技巧
## 获取相对某个日期前后的日期:
[root@hadoop ~]# date -d 'may 14 -2 weeks'
## 把时间当中无用的0去掉,比如:01:02:25会变成1:2:25
[root@hadoop ~]# date '+%-H:%-M:%-S'
## 显示文件最后被更改的时间
[root@hadoop ~]# date "+%Y-%m-%d %H:%M:%S" -r bin/removeJDK.sh
## 求两个字符串日期之间相隔的天数
[root@hadoop ~]#
expr '(' $(date +%s -d "2016-08-08") - $(date +%s -d "2016-09-09") ')' / 86400
expr `expr $(date +%s -d "2016-08-08") - $(date +%s -d "2016-09-09")` / 86400
## shell中加减指定间隔单位
[root@hadoop ~]# A=`date +%Y-%m-%d`
[root@hadoop ~]# B=`date +%Y-%m-%d -d "$A +48 hours"`
2、高级文本处理命令
5.1、wc
功能: 统计文件行数、字节、字符数
常用选项:
-c:统计文件字节数,一个英文字母1字节,一个汉字占2-4字节(根据编码)
-m:统计文件字符数,一个英文字母1字符,一个汉字占1个字符
-l:统计多少行
-L:统计最长行的长度, 也可以统计字符串长度
-w:统计字数
-help:显示帮助信息
--version:显示版本信息
一个汉字到底几个字节?
占2个字节的:〇
占3个字节的:基本等同于GBK,含21000多个汉字
占4个字节的:中日韩超大字符集里面的汉字,有5万多个
一个utf8数字占1个字节
一个utf8英文字母占1个字节
示例:
统计文件信息
[linux@linux ~]$ wc wc.txt
4 8 77 mingxing.txt
行数 单词数 字节数 文件名
统计字符串长度
[linux@linux ~]$ echo "hello" | wc -L
5
统计文件行数:
[linux@linux ~]$ wc -l mingxing.txt
6 mingxing.txt
统计文件字数:
[linux@linux ~]$ wc -w mingxing.txt
7 mingxing.txt
5.2、sort
功能:排序文本,默认对整列有效
常用可选项:
-f:忽略字母大小写,就是将小写字母视为大写字母排序
-M:根据月份比较,比如 JAN、DEC
-h:根据易读的单位大小比较,比如 2K、1G
-g:按照常规数值排序
-n:根据字符串数值比较
-r:倒序排序
-k:位置1,位置2根据关键字排序,在从第位置1开始,位置2结束
-t:指定分隔符
-u:去重重复行
-o:将结果写入文件
示例:
[linux@linux ~]$ cat sort.txt ## 准备排序文件,查看该内容
aaa:10:1.1
ccc:20:2.2
bbb:40:4.4
eee:40:5.5
ddd:30:3.3
bbb:40:4.4
[linux@linux ~]$ sort sort.txt ## 直接排序,把整行当做一列字符串,字典顺序
aaa:10:1.1
bbb:40:4.4
bbb:40:4.4
ccc:20:2.2
ddd:30:3.3
eee:40:5.5
[linux@linux ~]$ sort -nk 2 -t : sort.txt ## 以:作为分隔符,取第二个字段按照数值进行排序
aaa:10:1.1
ccc:20:2.2
ddd:30:3.3
bbb:40:4.4
bbb:40:4.4
eee:40:5.5
[linux@linux ~]$ sort -nk 2 -u -t : sort.txt ## 和上一个不一样的是-u为了去重
aaa:10:1.1
ccc:20:2.2
ddd:30:3.3
bbb:40:4.4
多列排序:以:分隔,按第二列数值排倒序,第三列正序
[linux@linux ~]$ sort -n -t: -k2,2r -k3 sort.txt
aaa:10:1.1
ccc:20:2.2
ddd:30:3.3
eee:40:5.5
bbb:40:4.4
bbb:40:4.4
5.3、uniq
功能: 去除重复行,只会统计相邻的
常用选项:
-c:打印出现的次数
-d:只打印重复行
-u:只打印不重复行
-D:只打印重复行,并且把所有重复行打印出来
-f N:比较时跳过前 N 列
-i:忽略大小写
-s N:比较时跳过前 N 个字符
-w N:对每行第 N 个字符以后内容不做比较
示例1:
[linux@linux ~]$ cat uniq.txt ## 查看准备测试的文件的uniq.txt的内容
abc
cde
xyz
cde
xyz
abd
[linux@linux ~]$ sort uniq.txt | uniq ## 先给文件排序,然后去重
abc
abd
cde
xyz
[linux@linux ~]$ sort uniq.txt | uniq -c ## 打印每行重复次数
1 abc
1 abd
2 cde
2 xyz
[linux@linux ~]$ sort uniq.txt | uniq -u -c ## 打印不重复行,并给出次数
1 abc
1 abd
[linux@linux ~]$ sort uniq.txt | uniq -d -c ## 打印重复行,并给出次数
2 cde
2 xyz
[linux@linux ~]$ sort uniq.txt | uniq -w 2 ## 以开头前两个字符为判断标准去重
abc
cde
xyz
示例2:
先准备两个文件:a.txt 和 b.txt
文件内容分别为:
需求:
1、求两个文件的交集:
[hadoop@hadoop04 data]$ cat a.txt b.txt | sort | uniq -d
2、求两个文件的并集:
[hadoop@hadoop04 data]$ cat a.txt b.txt | sort | uniq
3、求a.txt和b.txt的差集
[hadoop@hadoop04 data]$ cat a.txt b.txt b.txt | sort | uniq -u
4、求b.txt和a.txt的差集
[hadoop@hadoop04 data]$ cat b.txt a.txt a.txt | sort | uniq -u
2.4、cut
cut命令可以从一个文本文件或者文本流中提取文本列
cut语法
cut -d'分隔字符' -f fields ## 用于有特定分隔字符
cut -c 字符区间 ## 用于排列整齐的信息
选项与参数:
-d:后面接分隔字符。与 -f 一起使用
-f:依据 -d的分隔字符将一段信息分割成为数段,用 -f 取出第几段的意思
-c:按照字符截取
-b:按照字节截取
例子1:
首先看PATH变量:
[root@localhost ~]# echo $PATH
/usr/local/sbin:/usr/local/bin:/sbin:/bin:/usr/sbin:/usr/bin:/root/bin
将PATH变量取出,找出第五个路径
[root@localhost ~]# echo $PATH | cut -d ':' -f 5
/usr/sbin
将PATH变量取出,找出第三和第五个路径,以下三种方式都OK
[root@localhost ~]# echo $PATH | cut -d ':' -f 3,5
[root@localhost ~]# echo $PATH | cut -d : -f 3,5
[root@localhost ~]# echo $PATH | cut -d: -f3,5
/sbin:/usr/sbin
将PATH变量取出,找出第三到最后一个路径
[root@localhost ~]# echo $PATH | cut -d ':' -f 3-
/sbin:/bin:/usr/sbin:/usr/bin:/root/bin
将PATH变量取出,找出第一到第三,还有第五个路径
[root@localhost ~]# echo $PATH | cut -d ':' -f 1-3,5
/usr/local/sbin:/usr/local/bin:/sbin:/usr/sbin
例子2:
先准备已空格分开的这么段数据:
黄渤 huangbo 18 jiangxi
徐峥 xuzheng 22 hunan
王宝强 wangbaoqiang 44 liujiayao
获取中间的年龄:
[root@localhost ~]# cut -f 3 -d ' ' cut.txt
18
22
44
获取第二个字符到第五个字符之间的字符:
[root@localhost ~]# cut -c 2-5 cut.txt
渤 hu
峥 xu
宝强 w
获取第二个字节到第五个字节中的字节:
[root@hadoop ~]# cut -b 4-6 cut.txt
渤
峥
宝
5.5、grep(文本生成器)
grep是一种强大的文本搜索工具,他能使用正则表达式搜索文本,并把匹配的行统计出来
命令:grep [选项] [–color=auto] ‘搜索字符串’ filename
常用参数:
-c:统计符合条件的字符串出现的总行数。
-E:支持扩展正则表达式。
-i:忽略字符大小写。
-n:在显示匹配到的字符串前面加上行号。
-v:显示没有”搜索字符串”内容的那一行。
-l:列出文件内容中有搜索字符串的文件名称。
-o:只输出文件中匹配到的部分。
–color=auto:将匹配到的字符串高亮出来。
1、基本使用
查询包含hadoop的行
grep hadoop /etc/passwd
[root@localhost ~]# grep hadoop /etc/passwd
hadoop:x:500:504:hadoop01:/home/hadoop:/bin/bash
grep huangbo ./*.txt ## 寻找当前路径下所有txt当中内容那些是带了huangbo字符串的
[root@localhost ~]# grep huangbo ./*.txt
./mazhonghua.txt:my name is huangbo is is huangbo
./sutdent.txt:huangbo 18 jiangxi
2、先看一份数据:grep.txt
huangbo is shuaige
huangxiaoming is shuaige
liuyifei is meinv
hello world hello tom hello kitty
#how old are you
#one two three four five six seven eight nine ten
2.1、统计出现某个字符串的行的总行数
grep -c 'hello' grep.txt
grep -c 'is' grep.txt
[hadoop@hadoop04 ~]# grep -c 'hello' grep.txt
[hadoop@hadoop04 ~]# grep -c 'is' grep.txt
2.2、查询不包含is的行
grep -v 'is' grep.txt
[hadoop@hadoop04 ~]# grep -v 'is' grep.txt
2.3、正则表达包含huang
grep '.*huang.*' grep.txt
[hadoop@hadoop04 ~]# grep '.*huang.*' grep.txt
2.4、输出匹配行的前后N行(会包括匹配行)
使用-A参数输出匹配行的后一行:grep -A 1 "huangxiaoming" grep.txt
使用-B参数输出匹配行的前一行:grep -B 1 "huangxiaoming" grep.txt
使用-C参数输出匹配行的前后各一行:grep -C 1 "huangxiaoming" grep.txt
3、正则表达(点代表任意一个字符)
grep 'h.*p' /etc/passwd
4、正则表达以hadoop开头
grep '^hadoop' /etc/passwd
5、正则表达以hadoop结尾
grep 'hadoop$' /etc/passwd
以h或r开头的
grep '^[hr]' /etc/passwd
不是以h和r开头的
grep '^[^hr]' /etc/passwd
不是以h到r开头的
grep '^[^h-r]' /etc/passwd
正则表达式的简单规则:
. : 任意一个字符
a* : 任意多个a(零个或多个a)
a? : 零个或一个a
a+ : 一个或多个a
.* : 任意多个任意字符
\. : 转义.
o\ : o重复两次
[A-Z]
[ABC]
查找不是以#开头的行
grep -v '^#' grep.txt | grep -v '^$'
[root@localhost ~]# grep -v '^#' grep.txt
[root@localhost ~]# grep -v '^#' grep.txt | grep -v '^$'
5.6、sed(流编辑器)
sed叫做流编辑器,在shell脚本和Makefile中作为过滤一使用非常普遍,也就是把前一个程序的输出引入sed的输入,经过一系列编辑命令转换成为另一种格式输出。sed是一种在线编辑器,它一次处理一行内容,处理时,把当前处理的行存储在临时缓冲区中,称为”模式空间”,接着用sed命令处理缓冲区中的内容,处理完成后,把缓冲区的内容送往屏幕。接着处理下一行,这样不断重复,直到文件末尾。文件内容并没有改变,除非你使用重定向存储输出。
选项:
-n:一般sed命令会把所有数据都输出到屏幕,如果加入-n选项的话,则只会把经过sed命令处理的行输出到屏幕。
-e:允许对输入数据应用多条sed命令编辑。
-i:用sed的修改结果直接修改读取数据的文件,而不是由屏幕输出。
动作:
a:追加,在当前行后添加一行或多行。
c:行替换,用c后面的字符串替换原数据行。
i:插入,在当前行前插入一行或多行。
p:打印,输出指定的行。
s:字符串替换,用一个字符串替换另外一个字符串。格式为'行范围s/旧字符串/新字符串/g' (如果不加g的话,则表示只替换每行第一个匹配的串)
1、删除:d命令
sed '2d' huangbo.txt-----删除huangbo.txt文件的第二行。
sed '2,$d' huangbo.txt-----删除huangbo.txt文件的第二行到末尾所有行。
sed '$d' huangbo.txt-----删除huangbo.txt文件的最后一行。
sed '/test/d ' huangbo.txt-----删除huangbo.txt文件所有包含test的行。
sed '/[A-Za-z]/d ' huangbo.txt-----删除huangbo.txt文件所有包含字母的行。
2、整行替换:c命令
将第二行替换成hello world
sed '2c hello world' huangbo.txt
3、字符串替换:s命令
sed 's/hello/hi/g' huangbo.txt
## 在整行范围内把hello替换为hi。如果没有g标记,则只有每行第一个匹配的hello被替换成hi。
sed 's/hello/hi/2' huangbo.txt
## 此种写法表示只替换每行的第2个hello为hi
sed 's/hello/hi/2g' huangbo.txt
## 此种写法表示只替换每行的第2个以后的hello为hi(包括第2个)
sed -n 's/^hello/hi/p' huangbo.txt
## (-n)选项和p标志一起使用表示只打印那些发生替换的行。也就是说,如果某一行开头的hello被替换成hi,就打印它。
sed -n '2,4p' huangbo.txt
## 打印输出huangbo.txt中的第2行和第4行
sed -n 's/hello/&-hi/gp' huangbo.txt
sed 's/^192.168.0.1/&-localhost/' huangbo.txt
sed 's/^192.168.0.1/[&]/' huangbo.txt
## &符号表示追加一个串到找到的串后。所有以192.168.0.1开头的行都会被替换成它自已加 -localhost,变成192.168.0.1-localhost。第三句表示给IP地址添加中括号
sed -n 's/\(liu\)jialing/\1tao/p' huangbo.txt
sed -n 's/\(liu\)jia\(ling\)/\1tao\2ss/p' huangbo.txt
## liu被标记为\1,所以liu会被保留下来(\1 == liu)
## ling被标记为\2,所以ling也会被保留下来(\2 == ling)
## 所以最后的结果就是\1tao\2ss == "liu" + "tao" + "ling" + "ss"
此处切记:\1代表的是被第一个()包含的内容,\1代表的是被第一个()包含的内容,……
上面命令的意思就是:被括号包含的字符串会保留下来,然后跟其他的字符串比如tao和ss组成新的字符串liutaolingss
sed 's#hello#hi#g' huangbo.txt
## 不论什么字符,紧跟着s命令的都被认为是新的分隔符,所以,“#”在这里是分隔符,代替了默认的“/”分隔符。表示把所有hello替换成hi。
选定行的范围:逗号
sed -n '/today/,/hello/p' huangbo.txt
## 所有在模板today和hello所确定的范围内的行都被打印。都找第一个,也就是说,从第一个insert到第一个hello
sed -n '5,/^hello/p' huangbo.txt
sed -n '/^hello/,8p' huangbo.txt
## 打印从第五行开始到第一个包含以hello开始的行之间的所有行。
sed '/today/,/hello/s/$/www/' huangbo.txt
## 对于模板today和hello之间的行,每行的末尾用字符串www替换。
sed '/today/,/hello/s/^/www/' huangbo.txt
## 对于模板today和hello之间的行,每行的开头用字符串www替换。
sed '/^[A-Za-z]/s/5/five/g' huangbo.txt
## 将以字母开头的行中的数字5替换成five
4、多点编辑:e命令
sed -e '1,5d' -e 's/hello/hi/' huangbo.txt
## (-e)选项允许在同一行里执行多条命令。如例子所示,第一条命令删除1至5行,第二条命令用hello替换hi。命令的执行顺序对结果有影响。如果两个命令都是替换命令,那么第一个替换命令将影响第二个替换命令的结果。
sed --expression='s/hello/hi/' --expression='/today/d' huangbo.txt
## 一个比-e更好的命令是--expression。它能给sed表达式赋值。
5、从文件读入:r命令
sed '/hello/r file' huangbo.txt
## file里的内容被读进来,显示在与hello匹配的行下面,如果匹配多行,则file的内容将显示在所有匹配行的下面。
6、写入文件:w命令
sed -n '/hello/w file' huangbo.txt
## 在huangbo.txt中所有包含hello的行都被写入file里。
7、追加命令:a命令
sed '/^hello/a\\--->this is a example' huangbo.txt
## '--->this is a example'被追加到以hello开头的行(另起一行)后面,sed要求命令a后面有一个反斜杠。
8、插入:i命令
sed '/will/i\\some thing new -------------------------' huangbo.txt
## 如果test被匹配,则把反斜杠后面的文本插入到匹配行的前面。
9、下一个:n命令
sed '/hello/' huangbo.txt替换下一行的第一个aa
sed '/hello/' huangbo.txt替换下一行的全部aa
## 如果hello被匹配,则移动到匹配行的下一行,替换这一行的aa,变为bb,并打印该行,然后继续。
10、退出:q命令
sed '10q' huangbo.txt
## 打印完第10行后,退出sed。
同样的写法:
sed -n '1,10p ' huangbo.txt
5.7、awk(报表生成器)
awk是一个强大的文本分析工具,相对于grep的查找,sed的编辑,awk在其对数据分析并生成报告时,显得尤为强大。默认情况下,简单来说awk就是把文件逐行的读入,以默认分隔符空格或者tab将每行切片,切开的部分再进行各种分析处理。
1、假设last -n 5的输出如下:
[root@localhost ~]# last -n 5
root pts/0 192.168.123.1 Wed Dec 28 01:55 still logged in
reboot system boot 2.6.32-573.el6.x Tue Dec 27 04:25 - 03:11 (22:46)
root pts/1 192.168.123.1 Tue Dec 27 02:00 - 02:00 (00:00)
root pts/1 192.168.123.1 Tue Dec 27 01:59 - 02:00 (00:00)
root pts/0 192.168.123.1 Tue Dec 27 01:59 - down (00:16)
2、只显示五个最近登录的账号:
[root@localhost ~]# last -n 5 | awk ''
root
reboot
root
root
root
awk工作流程是这样的:读入有'\n'换行符分割的一条记录,然后将记录按指定的域分隔符划分域,填充域,$0则表示所有域,$1表示第一个域,$n表示第n个域。默认域分隔符是"空白键" 或 "[tab]键",所以$1表示登录用户,$3表示登录用户ip,以此类推
3、显示/etc/passwd的账户:
[root@localhost ~]# cat /etc/passwd |awk -F ':' ''
root
bin
daemon
adm
lp
这种是awk+action的示例,每行都会执行action。
-F指定域分隔符为':'
4、显示/etc/passwd的账户和账户对应的shell,而账户与shell之间以tab键分割
[root@localhost ~]# cat /etc/passwd |awk -F ':' ''
root /bin/bash
bin /sbin/nologin
daemon /sbin/nologin
adm /sbin/nologin
lp /sbin/nologin
5、BEGIN and END
如果只是显示/etc/passwd的账户和账户对应的shell,而账户与shell之间以逗号分割,而且在所有行添加列名name,shell,在最后一行添加"blue,/bin/nosh"。
cat /etc/passwd |awk -F ':' 'BEGIN END '
cat /etc/passwd | awk -F ':' 'BEGIN END '
name,shell
root,/bin/bash
daemon,/bin/sh
....
blue,/bin/nosh
awk工作流程是这样的:先执行BEGIN,然后读取文件,读入有/n换行符分割的一条记录,然后将记录按指定的域分隔符划分域,填充域,$0则表示所有域,$1表示第一个域,$n表示第n个域,随后开始执行模式所对应的动作action。接着开始读入第二条记录••••••直到所有的记录都读完,最后执行END操作。
6、搜索/etc/passwd有root关键字的所有行
awk -F: '/root/' /etc/passwd
root:x:0:0:root:/root:/bin/bash
这种是pattern的使用示例,匹配了pattern(这里是root)的行才会执行action(没有指定action,默认输出每行的内容)。
搜索支持正则,例如找root开头的: awk -F: '/^root/' /etc/passwd
搜索/etc/passwd有root关键字的所有行,并显示对应的shell
awk -F ':' '/root/' /etc/passwd
/bin/bash
这里指定了action
6、awk常见内置变量
FILENAME:awk浏览的文件名
FNR:浏览文件的记录数,也就是行数。awk是以行为单位处理的,所以每行就是一个记录
NR:awk读取文件每行内容时的行号
NF:浏览记录的域的个数。可以用它来输出最后一个域
FS:设置输入域分隔符,等价于命令行-F选项
OFS:输出域分隔符
统计/etc/passwd:文件名,每行的行号,每行的列数,对应的完整行内容
awk -F ':' '' /etc/passwd
awk -F':' '' /etc/passwd
filename:/etc/passwd,linenumber:3,columns:7,linecontent:bin:x:2:2:bin:/bin:/bin/sh
filename:/etc/passwd,linenumber:4,columns:7,linecontent:sys:x:3:3:sys:/dev:/bin/sh
使用printf替代print,可以让代码更加简洁,易读
awk -F ':' '' /etc/passwd
指定输入分隔符,指定输出分隔符:
awk 'BEGIN ' /etc/passwd
sshd x
tcpdump x
linux x
8、实用例子
打印最后一列:
awk -F: '' /etc/passwd
awk -F: '' /etc/passwd
统计文件行数:
awk 'BEGIN END ' /etc/passwd
打印9*9乘法表:
awk 'BEGIN}'
awk 'BEGIN print ""}}'
awk 'BEGIN print ""}}'
计算1-100之和:
echo "sum" | awk 'BEGIN } END '
5.8、find
功能: 搜索文件目录层次结构
格式: find path -option actions
find [表达式]
常用可选项:
-name 根据文件名查找,支持('* ' , '? ')
-type 根据文件类型查找(f-普通文件,c-字符设备文件,b-块设备文件,l-链接文件,d-目录)
-perm 根据文件的权限查找,比如 755
-user 根据文件拥有者查找
-group 根据文件所属组寻找文件
-size 根据文件小大寻找文件
-o 表达式 或
-a 表达式 与
-not 表达式 非
示例:
[linux@linux txt]$ ll ## 准备的测试文件
total 248
-rw-rw-r--. 1 linux linux 235373 Apr 18 00:10 hw.txt
-rw-rw-r--. 1 linux linux 0 Apr 22 05:43 LINUX.pdf
-rw-rw-r--. 1 linux linux 3 Apr 22 05:50 liujialing.jpg
-rw-rw-r--. 1 linux linux 0 Apr 22 05:43 mingxing.pdf
-rw-rw-r--. 1 linux linux 57 Apr 22 04:40 mingxing.txt
-rw-rw-r--. 1 linux linux 66 Apr 22 05:15 sort.txt
-rw-rw-r--. 1 linux linux 214 Apr 18 10:08 test.txt
-rw-rw-r--. 1 linux linux 24 Apr 22 05:27 uniq.txt
[linux@linux txt]$ find /home/linux/txt/ -name "*.txt" ## 查找文件名txt结尾的文件
/home/linux/txt/uniq.txt
/home/linux/txt/mingxing.txt
/home/linux/txt/test.txt
/home/linux/txt/hw.txt
/home/linux/txt/sort.txt
## 忽略大小写查找文件名包含linux
[linux@linux txt]$ find /home/linux/txt -iname "*linux*"
/home/linux/txt/LINUX.pdf
## 查找文件名结尾是.txt或者.jpg的文件
[linux@linux txt]$ find /home/linux/txt/ \( -name "*.txt" -o -name "*.jpg" \)
/home/linux/txt/liujialing.jpg
/home/linux/txt/uniq.txt
/home/linux/txt/mingxing.txt
/home/linux/txt/test.txt
/home/linux/txt/hw.txt
/home/linux/txt/sort.txt
另一种写法:find /home/linux/txt/ -name "*.txt" -o -name "*.jpg"
使用正则表达式的方式去查找上面条件的文件:
[linux@linux txt]$ find /home/linux/txt/ -regex ".*\(\.txt\|\.jpg\)$"
/home/linux/txt/liujialing.jpg
/home/linux/txt/uniq.txt
/home/linux/txt/mingxing.txt
/home/linux/txt/test.txt
/home/linux/txt/hw.txt
/home/linux/txt/sort.txt
## 查找.jpg结尾的文件,然后删掉
[linux@linux txt]$ find /home/linux/txt -type f -name "*.jpg" -delete
[linux@linux txt]$ ll
total 248
-rw-rw-r--. 1 linux linux 235373 Apr 18 00:10 hw.txt
-rw-rw-r--. 1 linux linux 0 Apr 22 05:43 LINUX.pdf
-rw-rw-r--. 1 linux linux 0 Apr 22 05:43 mingxing.pdf
-rw-rw-r--. 1 linux linux 57 Apr 22 04:40 mingxing.txt
-rw-rw-r--. 1 linux linux 66 Apr 22 05:15 sort.txt
-rw-rw-r--. 1 linux linux 214 Apr 18 10:08 test.txt
-rw-rw-r--. 1 linux linux 24 Apr 22 05:27 uniq.txt
3、Shell操作字符串
3.1、字符串截取
Linux中操作字符串,也是一项必备的技能。其中尤以截取字符串更加频繁,下面为大家介绍几种常用方式,截取字符串
1、#截取,删除左边字符串(包括制定的分隔符),保留右边字符串
预先定义一个变量:WEBSITE='http://hadoop//centos/huangbo.html'
[root@hadoop ~]# echo $
结果:hadoop//centos/huangbo.html
2、##截取,删除左边字符串(包括指定的分隔符),保留右边字符串,和上边一个#不同的是,它一直找到最后,而不是像一个#那样找到一个就满足条件退出了。
[root@hadoop ~]# echo $
结果:centos/huangbo.html
3、%截取,删除右边字符串(包括制定的分隔符),保留左边字符串
[root@hadoop ~]# echo $
结果:http://hadoop
4、%%截取,删除右边字符串(包括指定的分隔符),保留左边字符串,和上边一个%不同的是,它一直找到最前,而不是像一个%那样找到一个就满足条件退出了。
[root@hadoop ~]# echo $
结果:http:
总结以上四种方式:
# 去掉左边,最短匹配模式, ##最长匹配模式。
% 去掉右边,最短匹配模式, %%最长匹配模式
5、从左边第几个字符开始,以及截取的字符的个数
[root@hadoop ~]# echo $
结果:tp
6、从左边第几个字符开始,一直到结束
[root@hadoop ~]# echo $
结果:tp://hadoop//centos//huangbo.html
7、从右边第几个字符开始,以及字符的个数
[root@hadoop ~]# echo $
结果:ht
8、从右边第几个字符开始,一直到结束
[root@hadoop ~]# echo $
结果:html
9、利用awk进行字符串截取
[root@hadoop ~]# echo $WEBSITE | awk ''
结果:ttp://
10、利用cut进行字符串截取
[root@hadoop ~]# echo $WEBSITE | cut -b 1-4
http
[root@hadoop ~]# echo $WEBSITE | cut -c 1-4
http
[root@hadoop ~]# echo $WEBSITE | cut -b 1,4
hp
[root@hadoop ~]# echo $WEBSITE | cut -c 1,4
hp
11、获取最后几个字符
[root@hadoop ~]# echo $
结果:tml
12、截取从倒数第3个字符后的2个字符
[root@hadoop ~]# echo $
结果:tm
3.2、字符串替换
使用格式:$
例子:
定义变量VAR:
[linux@linux ~]$ VAR="hello tom, hello kitty, hello xiaoming"
替换第一个hello:
[linux@linux ~]$ echo $
hi tom, hello kitty, hello xiaoming
替换所有hello:
[linux@linux ~]$ echo $
hi tom, hi kitty, hi xiaoming
3.3、获取字符串长度
在此为大家提供五种方式获取某字符串的长度
1、使用wc -L命令
[root@hadoop ~]# echo $ |wc -L
35
2、使用expr的方式去计算
[root@hadoop ~]# expr length $
35
3、通过awk + length的方式获取字符串长度
[root@hadoop ~]# echo $ | awk ''
35
4、通过awk的方式计算以""分隔的字段个数
[root@hadoop ~]# echo $ |awk -F "" ''
35
5、通过#的方式获取字符串(最简单,最常用)
[root@hadoop ~]# echo ${#WEBSITE}
35
4、Shell脚本自动安装MySQL
安装mysql脚本:
#!/bin/bash
## auto install mysql
## 假如是第二次装,那么要先停掉服务,并且卸载之前的mysql
service mysql stop
EXISTS_RPMS=`rpm -qa | grep -i mysql`
echo $
for RPM in $
do
rpm -e --nodeps $
done
## 删除残留文件
rm -fr /usr/lib/mysql
rm -fr /usr/include/mysql
rm -f /etc/my.cnf
rm -fr /var/lib/mysql
## 从服务器获取安装mysql的rpm包
wget http://linux/soft/MySQL-client-5.6.26-1.linux_glibc2.5.x86_64.rpm
wget http://linux/soft/MySQL-server-5.6.26-1.linux_glibc2.5.x86_64.rpm
## 删除之前的密码文件,以免产生干扰
rm -rf /root/.mysql_secret
## 安装服务器
rpm -ivh MySQL-server-5.6.26-1.linux_glibc2.5.x86_64.rpm
## 获取到生成的随机密码
##PSWD=`cat /root/.mysql_secret | awk -F ':' ''`
PSWD=` grep -v '^$' /root/.mysql_secret | awk -F ':' ''`
##PSWD=$
## 安装客户端
rpm -ivh MySQL-client-5.6.26-1.linux_glibc2.5.x86_64.rpm
## 然后删除刚刚下下来的rpm包
rm -rf MySQL-client-5.6.26-1.linux_glibc2.5.x86_64.rpm
rm -rf MySQL-server-5.6.26-1.linux_glibc2.5.x86_64.rpm
## 提示安装的步骤都完成了。
echo "install mysql server and client is done .!!!!!!"
## 打印出来刚刚生成的mysql初始密码
echo "random password is:$"
## 开启mysql服务
service mysql start
手动第一次登陆,然后改掉密码
[root@hadoop bin]# mysql -uroot -pZjVIWvOGD18bT7oX
mysql> set PASSWORD=PASSWORD('root');
现在就可以写脚本链接mysql进行操作了
[root@hadoop bin]# vi initMysql.sh
#!/bin/bash
mysql -uroot -proot
GRANT ALL PRIVILEGES ON *.* TO 'root'@'%' IDENTIFIED BY 'root' WITH GRANT OPTION;
FLUSH PRIVILEGES;
use mysql;
select host, user, password from user;
EOF
领取专属 10元无门槛券
私享最新 技术干货