当前位置: 首页 > news >正文

佛山格尔做网站的公司怎么让客户主动找你

佛山格尔做网站的公司,怎么让客户主动找你,crm免费客户管理系统,新乡网站建设设计制作镜像 k8s集群 有两个镜像需要制作,一个是master节点,一个是node节点。 在master节点上成功部署了k8s的控制平面,在node节点上部署了worker节点的配置,不知道打包镜像重启之后集群的状态是什么样的。 确认集群在运行&#…
制作镜像
k8s集群

有两个镜像需要制作,一个是master节点,一个是node节点。

在master节点上成功部署了k8s的控制平面,在node节点上部署了worker节点的配置,不知道打包镜像重启之后集群的状态是什么样的。

确认集群在运行:

root@master:~/iperf# kubectl get nodes
NAME     STATUS   ROLES           AGE   VERSION
master   Ready    control-plane   24h   v1.28.2
node2    Ready    work            23h   v1.28.2
root@master:~/iperf# kubectl get pods --all-namespaces
NAMESPACE        NAME                                       READY   STATUS    RESTARTS       AGE
example-hotrod   example-hotrod-77df45ccfb-lm748            2/2     Running   2 (137m ago)   3h12m
kube-system      calico-kube-controllers-658d97c59c-wpxnc   1/1     Running   0              18h
kube-system      calico-node-nrlph                          1/1     Running   0              18h
kube-system      calico-node-qz8pz                          1/1     Running   1 (137m ago)   18h
kube-system      coredns-6554b8b87f-4qm9x                   1/1     Running   0              24h
kube-system      coredns-6554b8b87f-7hbjs                   1/1     Running   0              24h
kube-system      etcd-master                                1/1     Running   0              24h
kube-system      kube-apiserver-master                      1/1     Running   0              24h
kube-system      kube-controller-manager-master             1/1     Running   0              24h
kube-system      kube-proxy-8jlr5                           1/1     Running   1 (137m ago)   23h
kube-system      kube-proxy-vt2xm                           1/1     Running   0              24h
kube-system      kube-scheduler-master                      1/1     Running   0              24h
root@master:~/iperf# kubectl get svc --all-namespaces
NAMESPACE        NAME             TYPE        CLUSTER-IP     EXTERNAL-IP   PORT(S)                          AGE
default          kubernetes       ClusterIP   10.96.0.1      <none>        443/TCP                          24h
example-hotrod   example-hotrod   NodePort    10.110.11.37   <none>        8080:30188/TCP                   17h
example-hotrod   jaeger           NodePort    10.111.85.38   <none>        6831:32549/UDP,16686:30629/TCP   17h
kube-system      kube-dns         ClusterIP   10.96.0.10     <none>        53/UDP,53/TCP,9153/TCP           24h

删除当前的数据:

进入jeager目录,将此次运行生成的数据删掉

root@master:~/jaeger/data_collect# lscollect_trace_json.py    generated_requests.json   gen_trace.py   trace_collector.log   traces   traces.tar   trace_to_csv.py
root@master:~/jaeger/data_collect# ls
collect_trace_json.py  generated_requests.json  gen_trace.py  trace_collector.log  traces  traces.tar  trace_to_csv.py
root@master:~/jaeger/data_collect# rm generated_requests.json 
root@master:~/jaeger/data_collect# rm -r traces
root@master:~/jaeger/data_collect# rm traces.tar 
performance 

进入根目录下的performance目录,删除相关的csv文件。

进入运行数据存储的目录/mnt/data1,删除里面的数据。

iperf

进入iperf文件夹,删掉iperf_result.csv文件。

随后查看实例是否挂载了云盘。发现只有系统盘。

制作镜像

选中实例,然后创建自定义镜像。名称为k8s_master_20250112。

另一个的名称为k8s_node_20250112。 

验证镜像

为了验证我们的镜像是否成功,也为了熟悉下次创建集群的时候应该重做哪些配置,需要解决哪些问题,用刚才创建的镜像新建两个实例。

用上面的两个镜像重新创建实例之后,进到master节点,此时发现还是原来的集群在运行,可能是镜像保存了之前的状态。所以需要删掉原来的k8s配置,重新初始化。在node和master节点同时执行下面的命令:

kubeadm reset -f

同时根据提示手动清理了下面的文件:

rm -rf /etc/cni/net.d
rm -rf ~/.kube

但是在重新初始化之前,还是要像第一遍配置k8s一样,进行配置的检查. 

1.进入/etc/modules-load.d文件夹,执行./ipvs.conf,重新加载ipvs模块。

cd /etc/modules-load.d
./ipvs.conf
lsmod | grep ip_vs

显示结果如下: 

root@iZuf66eyuxf6qiujl2gvxrZ:/etc/modules-load.d# ls
ipvs.conf  modules.conf
root@iZuf66eyuxf6qiujl2gvxrZ:/etc/modules-load.d# ./ipvs.conf 
root@iZuf66eyuxf6qiujl2gvxrZ:/etc/modules-load.d# lsmod | grep ip_vs
ip_vs_ftp              16384  0
ip_vs_sed              16384  0
ip_vs_nq               16384  0
ip_vs_sh               16384  0
ip_vs_dh               16384  0
ip_vs_lblcr            16384  0
ip_vs_lblc             16384  0
ip_vs_wrr              16384  0
ip_vs_rr               16384  0
ip_vs_wlc              16384  0
ip_vs_lc               16384  0
ip_vs                 176128  22 ip_vs_wlc,ip_vs_rr,ip_vs_dh,ip_vs_lblcr,ip_vs_sh,ip_vs_nq,ip_vs_lblc,ip_vs_wrr,ip_vs_lc,ip_vs_sed,ip_vs_ftp
nf_nat                 49152  3 nft_chain_nat,xt_MASQUERADE,ip_vs_ftp
nf_conntrack          172032  4 xt_conntrack,nf_nat,xt_MASQUERADE,ip_vs
nf_defrag_ipv6         24576  2 nf_conntrack,ip_vs
libcrc32c              16384  6 nf_conntrack,nf_nat,btrfs,nf_tables,raid456,ip_vs

2.修改内核参数

modprobe br_netfilter
cat > /etc/sysctl.d/k8s.conf <<EOF
net.bridge.bridge-nf-call-ip6tables = 1
net.bridge.bridge-nf-call-iptables = 1
net.ipv4.ip_forward = 1
EOF

3.设置容器运行时

crictl config runtime-endpoint unix:///run/containerd/containerd.sock

 4.拉取镜像

# 使用 ctr 命令拉取所需镜像
ctr -n k8s.io images pull registry.aliyuncs.com/google_containers/kube-apiserver:v1.28.2
ctr -n k8s.io images pull registry.aliyuncs.com/google_containers/kube-controller-manager:v1.28.2
ctr -n k8s.io images pull registry.aliyuncs.com/google_containers/kube-scheduler:v1.28.2
ctr -n k8s.io images pull registry.aliyuncs.com/google_containers/kube-proxy:v1.28.2
ctr -n k8s.io images pull registry.aliyuncs.com/google_containers/pause:3.9
ctr -n k8s.io images pull registry.aliyuncs.com/google_containers/etcd:3.5.7-0
ctr -n k8s.io images pull registry.aliyuncs.com/google_containers/coredns:v1.10.1

5.修改master节点上kubeadm.yaml的信息。控制节点ip和控制节点名称。

6.重启docker和containerd

systemctl restart docker
systemctl restart containerd

 7.执行下面命令

kubeadm init --config=kubeadm.yaml --ignore-preflight-errors=SystemVerification

初始化成功。 

8.配置kubectl

.kube 是 kubectl 默认查找配置的目录,admin.conf 是 kubeadm 在初始化集群时创建的管理员配置文件,它包含了访问集群所需的所有信息:API server 的地址和端口,集群的证书信息,用户认证信息(证书、token等),将admin.conf放置到.kube里面。

mkdir -p $HOME/.kube
cp -i /etc/kubernetes/admin.conf $HOME/.kube/config
chown $(id -u):$(id -g) $HOME/.kube/config  # 赋予正确权限
export KUBECONFIG=/etc/kubernetes/admin.conf

export KUBECONFIG=/etc/kubernetes/admin.conf 是告诉kubectl去哪里找配置文件。 

随后查看kubectl get nodes,发现控制平面已经初始化成功,有些pod也开始运行了。

9.将kubeadm join命令粘贴到node节点。

10.kubectl apply -f calico.yaml,可以看到集群开始运行。

 

 运行jeager

后来发现要改的地方实在太多了,还不如保持master节点不变,一直换node节点。

至少镜像是成功的。

http://www.15wanjia.com/news/15659.html

相关文章:

  • 做网站怎么买域名百度pc版网页
  • 行业网站建设多少钱谷歌浏览器网页版入口手机版
  • 室内设计可以去哪些公司搜索引擎优化seo网站
  • 网站管理系统有哪些深圳网站建设公司
  • 青岛 外语网站建设网站查询关键词排名软件
  • 网站建设服务器费用长沙网络推广网站制作
  • 做外贸有什么免费网站沈阳网站建设公司
  • 网站建设 网站设计网络营销的特征和功能
  • 一键生成100个原创视频seo快速优化软件网站
  • 服装网站策划书目前较好的crm系统
  • 邵阳棋牌软件开发海阳seo排名优化培训
  • 哈尔滨网络招聘做整站优化
  • 旅游网站建设经费预算免费建站
  • 玉林网站开发企业网站设计
  • 怎样做网商网站台州seo优化公司
  • 如何用ip做网站网络公司网络推广
  • 太原做网站b2b平台是什么意思啊
  • 广州微网站建设价位东莞网站推广技巧
  • 湖南做旅游网站济南竞价托管
  • 建立网站需要多少钱 纠正错误湖南岚鸿全网营销系统怎么样
  • 营销型网站制作公司谷歌排名优化入门教程
  • 浙江电商网站建设销售山东seo
  • 衡水网站建设优化推广免费引流推广
  • 网站关键字如何设置免费信息推广网站
  • 网站制作技巧网站建设制作免费
  • 网页交互设计报价自己的网站怎么样推广优化
  • 浙江省建设信息港网站帮收款的接单平台
  • 快速做网站关键词排名最火网站排名
  • 注册网站会有哪些风险蜜雪冰城推广软文
  • 六安政府网百度seo收费