前往小程序,Get更优阅读体验!
立即前往
首页
学习
活动
专区
圈层
工具
发布
首页
学习
活动
专区
圈层
工具
MCP广场
社区首页 >专栏 >kubeadm搭建kubernets-1.16.2

kubeadm搭建kubernets-1.16.2

作者头像
cuijianzhe
发布于 2022-06-14 11:26:00
发布于 2022-06-14 11:26:00
36300
代码可运行
举报
文章被收录于专栏:cuijianzhecuijianzhe
运行总次数:0
代码可运行

环境准备

节点规划

主机名

节点 ip

角色

部署组件

k8s-master

10.200.51.36

master

etcd, kube-apiserver, kube-controller-manager, kubectl, kubeadm, kubelet, kube-proxy, flannel

k8s-slave1

10.200.51.49

node

kubectl, kubelet, kube-proxy, flannel

k8s-slave2

10.200.51.54

node

kubectl, kubelet, kube-proxy, flannel

组件版本

组件

版本

说明

CentOS

7.7.1908

Kernel

Linux 3.10.0-1062.9.1.el7.x86_64

etcd

3.3.15

使用容器方式部署,默认数据挂载到本地路径

coredns

1.6.2

kubeadm

v1.16.2

kubectl

v1.16.2

kubelet

v1.16.2

kube-proxy

v1.16.2

flannel

v0.11.0

设置 hosts 解析

操作节点:所有节点(k8s-master,k8s-slave)均需执行

hostnamectl set-hostname k8s-master

添加 hosts 解析

代码语言:javascript
代码运行次数:0
运行
AI代码解释
复制
cat >> /etc/hosts <<EOF
10.200.51.36 k8s-master
10.200.51.49 k8s-slave1
10.200.51.54 k8s-slave2
EOF

调整系统配置

  • 设置安全组开放端口

如果节点间无安全组限制(内网机器间可以任意访问),可以忽略,否则,至少保证如下端口可通:

k8s-master 节点:TCP:6443,2379,2380,60080,60081UDP 协议端口全部打开

k8s-slave 节点:UDP 协议端口全部打开

  • 关闭 swap swapoff -a #防止开机自动挂载 swap 分区 sed -i '/ swap / s/^\(.*\)$/#\1/g' /etc/fstab
  • 关闭 selinux 和防火墙
代码语言:javascript
代码运行次数:0
运行
AI代码解释
复制
sed -ri 's#(SELINUX=).*#\1disabled#' /etc/selinux/config
setenforce 0
systemctl disable firewalld && systemctl stop firewalld
  • 修改内核参数
代码语言:javascript
代码运行次数:0
运行
AI代码解释
复制
cat <<EOF >  /etc/sysctl.d/k8s.conf
net.bridge.bridge-nf-call-ip6tables = 1
net.bridge.bridge-nf-call-iptables = 1
net.ipv4.ip_forward=1
vm.max_map_count=262144
EOF
modprobe br_netfilter
sysctl -p /etc/sysctl.d/k8s.conf
  • 设置 yum 源
代码语言:javascript
代码运行次数:0
运行
AI代码解释
复制
$ curl -o /etc/yum.repos.d/Centos-7.repo http://mirrors.aliyun.com/repo/Centos-7.repo
$ curl -o /etc/yum.repos.d/docker-ce.repo http://mirrors.aliyun.com/docker-ce/linux/centos/docker-ce.repo
$ cat <<EOF > /etc/yum.repos.d/kubernetes.repo
[kubernetes]
name=Kubernetes
baseurl=http://mirrors.aliyun.com/kubernetes/yum/repos/kubernetes-el7-x86_64
enabled=1
gpgcheck=0
repo_gpgcheck=0
gpgkey=http://mirrors.aliyun.com/kubernetes/yum/doc/yum-key.gpg
        http://mirrors.aliyun.com/kubernetes/yum/doc/rpm-package-key.gpg
EOF
$ yum clean all && yum makecache

安装 docker

操作节点:matser、slave

  • 查看所有的可用版本
代码语言:javascript
代码运行次数:0
运行
AI代码解释
复制
$ yum list docker-ce --showduplicates | sort -r
$ yum install docker-ce-18.09.9
代码语言:javascript
代码运行次数:0
运行
AI代码解释
复制
[root@k8s-master ~]# cat /etc/docker/daemon.json 
{
  "insecure-registries": [    
    "10.200.51.36:5000" 
  ],
  "exec-opts": ["native.cgroupdriver=systemd"],                          
  "registry-mirrors" : [
    "https://dockerhub.azk8s.cn",
    "https://registry.docker-cn.com",
    "https://vtbf99sa.mirror.aliyuncs.com"
  ]
}
  • 启动 docker systemctl enable docker && systemctl start docker

kubernets 组建理解

理解集群资源

组件是为了支撑 k8s 平台的运行,安装好的软件。

资源是如何去使用 k8s 的能力的定义。比如,k8s 可以使用 Pod 来管理业务应用,那么 Pod 就是 k8s 集群中的一类资源,集群中的所有资源可以提供如下方式查看:

$ kubectl api-resources

如何理解 namespace:

命名空间,集群内一个虚拟的概念,类似于资源池的概念,一个池子里可以有各种资源类型,绝大多数的资源都必须属于某一个 namespace。集群初始化安装好之后,会默认有如下几个 namespace:

代码语言:javascript
代码运行次数:0
运行
AI代码解释
复制
[root@k8s-master ~]# kubectl get namespace
NAME                   STATUS   AGE
default                Active   47h
kube-node-lease        Active   47h
kube-public            Active   47h
kube-system            Active   47h
kubernetes-dashboard   Active   46h
  • 所有 NAMESPACED 的资源,在创建的时候都需要指定 namespace,若不指定,默认会在 default 命名空间下
  • 相同 namespace 下的同类资源不可以重名,不同类型的资源可以重名
  • 不同 namespace 下的同类资源可以重名
  • 通常在项目使用的时候,我们会创建带有业务含义的 namespace 来做逻辑上的整合

kubectl 的使用

类似于 docker,kubectl 是命令行工具,用于与 APIServer 交互,内置了丰富的子命令,功能极其强大。 https://kubernetes.io/docs/reference/kubectl/overview/

代码语言:javascript
代码运行次数:0
运行
AI代码解释
复制
$ kubectl -h
$ kubectl get -h
$ kubectl create -h
$ kubectl create namespace -h

kubectl 如何管理集群资源

kubectl get po -v=7

安装 k8s

所有节点安装:

代码语言:javascript
代码运行次数:0
运行
AI代码解释
复制
$ yum install -y kubelet-1.16.2 kubeadm-1.16.2 kubectl-1.16.2 --disableexcludes=kubernetes
## 查看kubeadm 版本
$ kubeadm version
## 设置kubelet开机启动
$ systemctl enable kubelet
初始化配置文件

操作节点: 只在 master 节点(k8s-master)执行

代码语言:javascript
代码运行次数:0
运行
AI代码解释
复制
$ kubeadm config print init-defaults > kubeadm.yaml
$ cat kubeadm.yaml
apiVersion: kubeadm.k8s.io/v1beta2
bootstrapTokens:
- groups:
  - system:bootstrappers:kubeadm:default-node-token
  token: abcdef.0123456789abcdef
  ttl: 24h0m0s
  usages:
  - signing
  - authentication
kind: InitConfiguration
localAPIEndpoint:
  advertiseAddress: 10.200.51.36  # apiserver地址,因为单master,所以配置master的节点内网IP
  bindPort: 6443
nodeRegistration:
  criSocket: /var/run/dockershim.sock
  name: k8s-master  # 默认读取当前master节点的hostname
  taints:
  - effect: NoSchedule
    key: node-role.kubernetes.io/master
---
apiServer:
  timeoutForControlPlane: 4m0s
apiVersion: kubeadm.k8s.io/v1beta2
certificatesDir: /etc/kubernetes/pki
clusterName: kubernetes
controllerManager: {}
dns:
  type: CoreDNS
etcd:
  local:
    dataDir: /var/lib/etcd
imageRepository: registry.cn-hangzhou.aliyuncs.com/google_containers   # 修改成阿里镜像源
kind: ClusterConfiguration
kubernetesVersion: v1.16.2
networking:
  dnsDomain: cluster.local
  podSubnet: 10.244.0.0/16    # Pod 网段,flannel插件需要使用这个网段
  serviceSubnet: 10.96.0.0/12
scheduler: {}

对于上面的资源清单的文档比较杂,要想完整了解上面的资源对象对应的属性,可以查看对应的 godoc 文档,地址: https://godoc.org/k8s.io/kubernetes/cmd/kubeadm/app/apis/kubeadm/v1beta2

下载镜像

操作节点:只在 master 节点(k8s-master)执行

#查看需要使用的镜像列表,若无问题,将得到如下列表:

代码语言:javascript
代码运行次数:0
运行
AI代码解释
复制
[root@k8s-master ~]# kubeadm config images list --config kubeadm.yaml
registry.cn-hangzhou.aliyuncs.com/google_containers/kube-apiserver:v1.16.2
registry.cn-hangzhou.aliyuncs.com/google_containers/kube-controller-manager:v1.16.2
registry.cn-hangzhou.aliyuncs.com/google_containers/kube-scheduler:v1.16.2
registry.cn-hangzhou.aliyuncs.com/google_containers/kube-proxy:v1.16.2
registry.cn-hangzhou.aliyuncs.com/google_containers/pause:3.1
registry.cn-hangzhou.aliyuncs.com/google_containers/etcd:3.3.15-0
registry.cn-hangzhou.aliyuncs.com/google_containers/coredns:1.6.2

#提前下载镜像到本地

kubeadm config images pull --config kubeadm.yaml

#查看使用的镜像源

代码语言:javascript
代码运行次数:0
运行
AI代码解释
复制
[root@k8s-master ~]# kubeadm config images list --config kubeadm.yaml
registry.cn-hangzhou.aliyuncs.com/google_containers/kube-apiserver:v1.16.2
registry.cn-hangzhou.aliyuncs.com/google_containers/kube-controller-manager:v1.16.2
registry.cn-hangzhou.aliyuncs.com/google_containers/kube-scheduler:v1.16.2
registry.cn-hangzhou.aliyuncs.com/google_containers/kube-proxy:v1.16.2
registry.cn-hangzhou.aliyuncs.com/google_containers/pause:3.1
registry.cn-hangzhou.aliyuncs.com/google_containers/etcd:3.3.15-0
registry.cn-hangzhou.aliyuncs.com/google_containers/coredns:1.6.2

初始化 master 节点

kubeadm init --config kubeadm.yaml

若初始化成功后,接下来按照提示信息操作,配置 kubectl 客户端的认证

代码语言:javascript
代码运行次数:0
运行
AI代码解释
复制
Your Kubernetes control-plane has initialized successfully!

To start using your cluster, you need to run the following as a regular user:

  mkdir -p $HOME/.kube
  sudo cp -i /etc/kubernetes/admin.conf $HOME/.kube/config
  sudo chown $(id -u):$(id -g) $HOME/.kube/config

You should now deploy a pod network to the cluster.
Run "kubectl apply -f [podnetwork].yaml" with one of the options listed at:
  https://kubernetes.io/docs/concepts/cluster-administration/addons/

Then you can join any number of worker nodes by running the following on each as root:

kubeadm join 192.168.51.209:6443 --token abcdef.0123456789abcdef \
    --discovery-token-ca-cert-hash sha256:f98a23b18ce654b63be45cabae9c6029bf8fded846b82c05a8f5d24b9a5627e6

注意:此时使用 kubectl get nodes 查看节点应该处于 notReady 状态,因为还未配置网络插件 若执行初始化过程中出错,根据错误信息调整后,执行 kubeadm reset 后再次执行 init 操作即可。

添加 slave 节点到集群中

操作节点:所有的 slave 节点(k8s-slave)需要执行

在每台 slave 节点,执行如下命令,该命令是在 kubeadm init 成功后提示信息中打印出来的,需要替换成实际 init 后打印出的命令。

代码语言:javascript
代码运行次数:0
运行
AI代码解释
复制
kubeadm join 10.200.51.36:6443 --token abcdef.0123456789abcdef \
    --discovery-token-ca-cert-hash sha256:1c4305f032f4bf534f628c32f5039084f4b103c922ff71b12a5f0f98d1ca9a4f

安装 flannel 网络插件

操作节点:只在 master 节点(k8s-master)执行

  • 下载 flannel 的 yaml 网络插件
代码语言:javascript
代码运行次数:0
运行
AI代码解释
复制
wget https://raw.githubusercontent.com/coreos/flannel/2140ac876ef134e0ed5af15c65e414cf26827915/Documentation/kube-flannel.yml

修改配置,指定网卡名称,添加一行配置:

代码语言:javascript
代码运行次数:0
运行
AI代码解释
复制
[root@k8s-master ~]# vim kube-flannel.yml

...
 containers:
      - name: kube-flannel
        image: quay.io/coreos/flannel:v0.11.0-amd64
        command:
        - /opt/bin/flanneld
        args:
        - --ip-masq
        - --kube-subnet-mgr
        - --iface=ens33    # 如果机器存在多网卡的话,指定内网网卡的名称,默认不指定的话会找第一块网
        resources:
          requests:
            cpu: "100m"
            memory: "50Mi"
          limits:
            cpu: "100m"
            memory: "50Mi"
        securityContext:
          privileged: false
          capabilities:
             add: ["NET_ADMIN"]
...

先拉取镜像,此过程国内速度比较慢

$ docker pull quay.io/coreos/flannel:v0.11.0-amd64

执行 flannel 安装

$ kubectl create -f kube-flannel.yml

验证集群

代码语言:javascript
代码运行次数:0
运行
AI代码解释
复制
[root@k8s-master ~]# kubectl get nodes
NAME         STATUS   ROLES    AGE   VERSION
k8s-master   Ready    master   2d    v1.16.2
k8s-slave1   Ready    <none>   2d    v1.16.2
k8s-slave2   Ready    <none>   47h   v1.16.2

部署 dashboard

推荐使用下面这种方式

代码语言:javascript
代码运行次数:0
运行
AI代码解释
复制
$ wget https://raw.githubusercontent.com/kubernetes/dashboard/v2.0.0-beta5/aio/deploy/recommended.yaml
$ vi recommended.yaml
# 修改Service为NodePort类型
---

kind: Service
apiVersion: v1
metadata:
  labels:
    k8s-app: kubernetes-dashboard
  name: kubernetes-dashboard
  namespace: kubernetes-dashboard
spec:
  ports:
    - port: 443
      targetPort: 8443
  selector:
    k8s-app: kubernetes-dashboard
  type: NodePort   # 加上type=NodePort变成NodePort类型的服务
---
  • 查看访问地址,本例为 31600 端口
代码语言:javascript
代码运行次数:0
运行
AI代码解释
复制
[root@k8s-master ~]# kubectl -n kubernetes-dashboard get svc
NAME                        TYPE        CLUSTER-IP     EXTERNAL-IP   PORT(S)         AGE
dashboard-metrics-scraper   ClusterIP   10.98.136.3    <none>        8000/TCP        46h
kubernetes-dashboard        NodePort    10.105.51.87   <none>        443:31600/TCP   46h

推荐用火狐浏览器打开:https://10.200.51.36

  • 创建 ServiceAccount 进行访问
代码语言:javascript
代码运行次数:0
运行
AI代码解释
复制
[root@k8s-master ~]# cat admin.yaml 
kind: ClusterRoleBinding
apiVersion: rbac.authorization.k8s.io/v1beta1
metadata:
  name: admin
  annotations:
    rbac.authorization.kubernetes.io/autoupdate: "true"
roleRef:
  kind: ClusterRole
  name: cluster-admin
  apiGroup: rbac.authorization.k8s.io
subjects:
- kind: ServiceAccount
  name: admin
  namespace: kubernetes-dashboard

---
apiVersion: v1
kind: ServiceAccount
metadata:
  name: admin
  namespace: kubernetes-dashboard
代码语言:javascript
代码运行次数:0
运行
AI代码解释
复制
[root@k8s-master ~]# kubectl create -f admin.yaml
[root@k8s-master ~]#  kubectl -n kubernetes-dashboard get secret |grep admin-token
admin-token-rxxdr                  kubernetes.io/service-account-token   3      46h
#使用该命令拿到token
[root@k8s-master ~]#  kubectl -n kubernetes-dashboard get secret admin-token-rxxdr -o jsonpath={.data.token}|base64 -d
eyJhbGciOiJSUzI1NiIsImtpZCI6IlFGT1ltSGp0S1RfckhVaW1XNV9qQVVxZ0t1TEk1WFUzbDN6U193N2tkbjAifQ.eyJpc3MiOiJrdWJlcm5ldGVzL3NlcnZpY2VhY2NvdW50Iiwia3ViZXJuZXRlcy5pby9zZXJ2aWNlYWNjb3VudC9uYW1lc3BhY2UiOiJrdWJlcm5ldGVzLWRhc2hib2FyZCIsImt1YmVybmV0ZXMuaW8vc2VydmljZWFjY291bnQvc2VjcmV0Lm5hbWUiOiJhZG1pbi10b2tlbi1yeHhkciIsImt1YmVybmV0ZXMuaW8vc2VydmljZWFjY291bnQvc2VydmljZS1hY2NvdW50Lm5hbWUiOiJhZG1pbiIsImt1YmVybmV0ZXMuaW8vc2VydmljZWFjY291bnQvc2VydmljZS1hY2NvdW50LnVpZCI6IjU0NmIxMGY3LWJlNTItNGYzMC1iMDcwLTUyOTAxNmI2ZGRiYiIsInN1YiI6InN5c3RlbTpzZXJ2aWNlYWNjb3VudDprdWJlcm5ldGVzLWRhc2hib2FyZDphZG1pbiJ9.Y0rX5hxebuJShcTMNPaMgCXicVSZtxcx31HoZhiB-_cFt8PAdU5GU8nGiGbvt2LW-iNqn_0E1RuuMwEsD26rfnClt23IPZpBriPEZ84fb4QQZurFsloCthM8R2YmPVy3owYN-Y-dEilsSnofhHpB2Z6oLKXHt0W7yNqUse7MSRlQNedosgpTP0E6AhL9z7GoE6l-M_SUuhR2gNc8jqo8EkG-06jOJB5DIi_SLzME4sAduqkRm4zDlJECortKvpfr02FEQ5UBwxquteqqQjyOAWo1K3tM8_fd_RMwWXCZAaaJLXgOXhDzAzkkDACx2XR0Ugzin3W_IAyVGqcCvleP2Q

然后浏览器访问:

清理环境

如果你的集群安装过程中遇到了其他问题,我们可以使用下面的命令来进行重置:

代码语言:javascript
代码运行次数:0
运行
AI代码解释
复制
$ kubeadm reset
$ ifconfig cni0 down && ip link delete cni0
$ ifconfig flannel.1 down && ip link delete flannel.1
$ rm -rf /var/lib/cni/

标题:kubeadm搭建kubernets-1.16.2

作者:cuijianzhe

地址:https://cloud.tencent.com/developer/article/2022865

本文参与 腾讯云自媒体同步曝光计划,分享自作者个人站点/博客。
如有侵权请联系 cloudcommunity@tencent.com 删除

本文分享自 作者个人站点/博客 前往查看

如有侵权,请联系 cloudcommunity@tencent.com 删除。

本文参与 腾讯云自媒体同步曝光计划  ,欢迎热爱写作的你一起参与!

评论
登录后参与评论
暂无评论
推荐阅读
LVS负载均衡之LVS-NAT搭建Web群集
其原理及特点详细介绍请看LVS的NAT模式LVS负载均衡之LVS-NAT搭建Web群集
星哥玩云
2022/07/25
5610
LVS负载均衡之LVS-NAT搭建Web群集
基于 NAT(地址转换模式)构建 LVS 负载均衡
LVS 基本配置详解请参考博文:https://blog.51cto.com/14227204/2436891 案例环境:
小手冰凉
2019/09/12
7290
LVS 负载均衡集群 – 直接路由模式(LVS-DR)
为方便进行原理分析,将 Client 与集群机器放在同一网络中,数据包流经的路线为 1 – 2 – 3 – 4。
全栈程序员站长
2022/09/15
7550
LVS 负载均衡集群 – 直接路由模式(LVS-DR)
大点干!早点散----------LVS负载均衡之LVS-NAT部署实战
VMware软件 一台centos7作为LVS网关,双网卡 两台centos7作为Apache服务器 一台centos7作为NFS存储 一台win10作为客户端
不吃小白菜
2020/09/03
6060
大点干!早点散----------LVS负载均衡之LVS-NAT部署实战
LVS负载均衡群集详解
无论是哪种群集,都至少包括两台节点服务器,而对外表现为一个整体,只提供一个访问入口(域名或IP地址),相当于一台大型计算机。根据群集所针对的目标差异,可以分为以下三种类型:
小手冰凉
2019/09/10
1.4K0
LVS负载均衡群集详解
LVS负载均衡群集--NAT+DR模式
一、实验拓扑图 二、实验目标:实现NAT + LVS-DR负载均衡群集 三、实验要求:(群集IP地址为192.168.1.254,所有主机关闭防火墙和NetworkManager服务) 1、lvs的配
L宝宝聊IT
2018/06/20
6790
LVS负载均衡群集--NAT模式
一、实验拓扑图 二、实验目标:实现地址转换模式(LVS-NAT)的群集 三、实验要求 1、按上图要求部署网络。Client使用宿主机,其他四台为linux服务器,将所有linux服务器的防火墙关闭,N
L宝宝聊IT
2018/06/20
1K0
搭建 LVS+HA网站服务群集
搭建keepalived+DR/NAT模式的高可用web群集,这篇博文以keepalived+DR的环境来搭建一个高可用的web服务群集。
小手冰凉
2019/09/19
5070
搭建 LVS+HA网站服务群集
LVS负载均衡群集
1、群集:至少包括两台节点服务器,对外表现为一个整体 类型: 1)负载均衡群集(LB) 以提高应用系统的响应能力,尽可能处理更多的访问请求、减少延迟为目标,获得高并发、高负载(LB)的整体能力。 2)高可用群集(HA) 以提高应用系统的可靠性、尽可能的减少中断时间为目标,确保服务的连续性,达到高可用(HA)的容错效果。 3)高性能运算群集(HPC) 以提高应用系统的CPU运算速度、扩展硬件资源和分析能力为目标,获得相当于大型、超级计算机的高性能运算(HPC)能力。 2、负载均衡的结构: 负载调度器:群集访问
L宝宝聊IT
2018/06/20
9250
Linux 集群总结 + LVS(负载均衡器)原理及配置
相信你已经对集群分类有了大致了解了,那么我们现在详细说说使用LVS来实现负载均衡集群。
小土豆Yuki
2020/06/15
3.1K0
Linux 集群总结 + LVS(负载均衡器)原理及配置
负载均衡群集LVS-DR 与 LVS-NAT
调度服务器: 一块网卡: Vmnet1:192.168.80.100 -------------------------加载LVS内核模块---------------------- LVS现在已成为Linux内核的一部分,默认编译为ip_vs模块,必要时能够自动调用。以下操作可以手动加载ip_vs模块,并查看当前系统中ip_vs模块的版本信息 [root@lss ~]# cat /proc/net/ip_vs cat: /proc/net/ip_vs: 没有那个文件或目录 [root@lss ~]# modprobe ip_vs //加载ip_vs模块, [root@lss ~]# cat /proc/net/ip_vs //查看ip_vs版本信息 [root@lss ~]# rpm -ivh /mnt/Packages/ipvsadm-1.27-7.el7.x86_64.rpm //安装管理软件,不需要启动
星哥玩云
2022/07/13
2950
负载均衡群集LVS-DR 与 LVS-NAT
06 NFS服务
张哥编程
2024/12/07
790
第二章 负载均衡LB服务之LVS(二)
LVS配置集群其实比较简单,首先需要在LVS服务器安装ipvsadm、iptables-services服务,命令如下:
晓天
2019/09/10
9650
第二章  负载均衡LB服务之LVS(二)
如何部署LVS-NAT集群实现负载均衡?
“每个理性的IT人士都置顶了吴柯的运维笔记” 要求:使用LVS实现NAT模式的集群调度服务器,为用户提供Web服务。 集群对外公网IP地址为202.114.106.20 调度器内网IP地址为192.1
吴柯
2018/04/16
6940
如何部署LVS-NAT集群实现负载均衡?
NFS服务(映射nfsnobody)实验
实验说明1. 搭建一个NFS服务器作为两台Apache Server的数据存储服务器,相当于一个网络存储服务器。(类似于NAS)实验准备1号13虚拟机:NFS服务器,双网卡,10网段和11网段2号23虚拟机:Apache Server1,单网卡,10网段3号33虚拟机:Apache Server2,单网卡,11网段4号43虚拟机:客户端-双网卡,通过不同IP访问Apache实验步骤搭建Apache服务器两台1号虚拟机搭建NFS服务器,创建共享目录/html将Apache的/var/www/html挂载在NF
用户10048459
2022/09/19
1.1K0
centos系统安装搭建nfs-server
CentOS 8安装nfs-utils软件包使用以下命令安装nfs-utils软件包:sudo yum install nfs-utils创建共享目录创建一个共享目录,例如:sudo mkdir /data/share并将其权限设置为可写:sudo chmod 777 /data/share配置nfs编辑/etc/exports文件以配置nfs。在文件末尾添加以下行:/data/share *(rw,sync,no_subtree_check)这将允许所有客户端访问/data/share目录,并授予读写权限
隔壁没老王
2023/04/11
1.6K0
Centos7下NFS服务器搭建及客户端连接配置
表示允许172.27.34.0和172.27.9.0两个网段的服务器访问,若对所有ip地址都可以访问则可设置为*:
loong576
2019/09/10
4.2K0
Centos7下NFS服务器搭建及客户端连接配置
NFS远程共享存储
构建储NFS远程共享存 因为NFS有很多功能,不同的功能需要使用不同的端口。因此NFS无法固定端口。而RPC会记录NFS端口的信息,这样就能够通过RPC实现服务端和客户端的RPC来沟通端口信息。 ​ 那RPC和NFS之间又是如何之间相互通讯的? ​ 首先当NFS启动后,就会随机的使用一些端口,然后NFS就会向RPC去注册这些端口。RPC就会记录下这些端口。并且RPC会开启111端口,等待客户端RPC的请求,如果客户端有请求,那服务端的RPC就会将记录的NFS端口信息告知客户端。 NFS NF
用户8639654
2021/08/18
2.7K0
Linux系统安装NFS服务器
NFS是一种网络文件系统,英文全称Network File System,通过NFS可以让不同的主机系统之间共享文件或目录。通过NFS,用户可以直接在本地NFS客户端读写NFS服务端上的文件,是非常好的共享存储工具。本篇文章将介绍如何在CentOS7上安装NFS服务器,包括服务端和客户端安装两部分。
Damon小智
2024/02/03
1.1K1
Linux系统安装NFS服务器
大点干!早点散----------负载均衡LVS-DR群集部署
cip为客户端的地址 vip为虚拟地址 rip为真实的服务器 lip为本地地址
不吃小白菜
2020/09/03
6810
大点干!早点散----------负载均衡LVS-DR群集部署
相关推荐
LVS负载均衡之LVS-NAT搭建Web群集
更多 >
LV.1
这个人很懒,什么都没有留下~
目录
  • 环境准备
    • 节点规划
    • 组件版本
    • 设置 hosts 解析
    • 调整系统配置
    • 安装 docker
    • kubernets 组建理解
      • kubectl 的使用
    • 安装 k8s
      • 初始化 master 节点
      • 添加 slave 节点到集群中
      • 安装 flannel 网络插件
      • 先拉取镜像,此过程国内速度比较慢
      • 验证集群
      • 部署 dashboard
  • 推荐使用下面这种方式
    • 清理环境
领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档