在开始之前,部署Kubernetes集群机器需要满足以下几个条件:
【环境角色】
master:192.168.32.128
node1:192.168.32.129
node2:192.168.32.130
关闭防火墙:
$ systemctl stop firewalld
$ systemctl disable firewalld
关闭selinux:
$ sed -i 's/enforcing/disabled/' /etc/selinux/config # 永久
$ setenforce 0 # 临时
关闭swap:
$ swapoff -a # 临时
$ vim /etc/fstab # 永久
设置主机名:
$ hostnamectl set-hostname <hostname>
在master添加hosts:
$ cat >> /etc/hosts << EOF
192.168.32.128 k8s-master
192.168.32.129 k8s-node1
192.168.32.130 k8s-node2
EOF
将桥接的IPv4流量传递到iptables的链:
$ cat > /etc/sysctl.d/k8s.conf << EOF
net.bridge.bridge-nf-call-ip6tables = 1
net.bridge.bridge-nf-call-iptables = 1
EOF
$ sysctl --system # 生效
时间同步:
$ yum install ntpdate -y
$ ntpdate time.windows.com
TIPS:需要在所有集群机器上执行的命令,可以用XSHELL的发送命令到所有会话,提高部署效率
$ wget https://mirrors.aliyun.com/docker-ce/linux/centos/docker-ce.repo -O /etc/yum.repos.d/docker-ce.repo
$ yum -y install docker-ce-18.06.1.ce-3.el7
$ systemctl enable docker && systemctl start docker
$ docker --version
Docker version 18.06.1-ce, build e68fc7a
配置下镜像仓库地址:
# cat > /etc/docker/daemon.json << EOF
{
"registry-mirrors": ["https://b9pmyelo.mirror.aliyuncs.com"]
}
EOF
$ cat > /etc/yum.repos.d/kubernetes.repo << EOF
[kubernetes]
name=Kubernetes
baseurl=https://mirrors.aliyun.com/kubernetes/yum/repos/kubernetes-el7-x86_64
enabled=1
gpgcheck=0
repo_gpgcheck=0
gpgkey=https://mirrors.aliyun.com/kubernetes/yum/doc/yum-key.gpg https://mirrors.aliyun.com/kubernetes/yum/doc/rpm-package-key.gpg
EOF
yum install -y kubelet-1.18.0 kubeadm-1.18.0 kubectl-1.18.0
systemctl enable kubelet
TIPS:K8S集群还未拉起,故这里的kubelet是无法启动的,等master初始化时会自动拉起
kubeadm init \
--apiserver-advertise-address=192.168.32.128 \
--image-repository registry.aliyuncs.com/google_containers \
--kubernetes-version v1.18.0 \
--service-cidr=10.92.0.0/12 \
--pod-network-cidr=10.220.0.0/16 \
--ignore-preflight-errors=all
部署完成后获取node加入集群的命令以及token:
kubeadm join 192.168.32.128:6443 --token 733dim.91wwhdfgqn8c461r \
--discovery-token-ca-cert-hash sha256:6f4f75170f512fc2fb11f13637023fbb56734b301826bf53485a9e6e75b60f42
使用kubectl命令【如需node节点使用此命令,可使用scp命令分别拷贝config文件至对应目录】
mkdir -p $HOME/.kube
sudo cp -i /etc/kubernetes/admin.conf $HOME/.kube/config
sudo chown $(id -u):$(id -g) $HOME/.kube/config
$ kubectl get nodes
在node节点中分别执行,master init后产生的加入命令:
TIPS:这里加入node后会看到node状态为NotReady,是因为没有安装CNI,kubelet无法通过网络给apiserver上报node状态,安装CNI后即可恢复
[root@localhost kubelet.service.d]# kubectl get nodes
NAME STATUS ROLES AGE VERSION
k8s-master NotReady master 5m29s v1.18.0
k8s-node1 NotReady <none> 35s v1.18.0
k8s-node2 NotReady <none> 35s v1.18.0
wget https://docs.projectcalico.org/manifests/calico.yaml
下载完成后,修改calico.yaml【定义Pod网络(CALICO_IPV4POOL_CIDR),与前面pod CIDR配置一样即可】
修改完成后应用即可:
# kubectl apply -f calico.yaml
# kubectl get pods -n kube-system
应用后可以看到CNI POD正在初始化中,静待拉起~
[root@localhost kubelet.service.d]# kubectl get pods -n kube-system
NAME READY STATUS RESTARTS AGE
calico-kube-controllers-578894d4cd-2bf65 0/1 Pending 0 12s
calico-node-6hhln 0/1 Init:0/3 0 12s
calico-node-bsds9 0/1 Init:0/3 0 12s
calico-node-rlkt5 0/1 Init:0/3 0 12s
....................
calico running 状态后,查看节点已全部 Ready【也可直接拉起pod或配置deploy实测验证】
[root@localhost kubelet.service.d]# kubectl get node
NAME STATUS ROLES AGE VERSION
k8s-master Ready master 9m48s v1.18.0
k8s-node1 Ready <none> 4m54s v1.18.0
k8s-node2 Ready <none> 4m54s v1.18.0
原创声明:本文系作者授权腾讯云开发者社区发表,未经许可,不得转载。
如有侵权,请联系 cloudcommunity@tencent.com 删除。
原创声明:本文系作者授权腾讯云开发者社区发表,未经许可,不得转载。
如有侵权,请联系 cloudcommunity@tencent.com 删除。