Loading [MathJax]/jax/output/CommonHTML/config.js
前往小程序,Get更优阅读体验!
立即前往
首页
学习
活动
专区
圈层
工具
发布
首页
学习
活动
专区
圈层
工具
MCP广场
社区首页 >专栏 >你不可能搞不定腾讯云K8S的Service/Ingress

你不可能搞不定腾讯云K8S的Service/Ingress

原创
作者头像
李国宝
修改于 2019-09-02 04:43:24
修改于 2019-09-02 04:43:24
2.5K0
举报

你不可能搞不定腾讯云K8S的Service/Ingress

前言

上一个手把手教程上简单介绍过k8s中的Pod/Service,

里面提到过Service是K8S中的负载均衡, 同时也可以在不同Pod中使用Service name互相访问.

如果我们在外部(公网)访问K8S的服务怎么办呢?

首先, 你的有个公网IP.

然后....关掉这个教程.

回到正文.

在k8s中, ingress来负责对外提供访问, 一般域名配置, 域名证书都在这边.

是不是有点熟悉? 这不就是NGINX?

对的, 甚至ingress的实现就有一部分是NGINX.

但是, 大家都知道, 公网IP这种东西, 可是要收费的.

腾讯云的收费标准: 应用型负载均衡器(支持HTTP/HTTPS)0.02元/小时

有钱的同学直接用就好了,

教程见腾讯云集群管理, 点点点就好了.

穷人不配用公网? 不, 我们有自己的倔强!

想下, 我们在做k8s集群的时候, 用的主机不是本来就带公网IP吗?

虽然现在主机已经是k8s的worker节点了, 不过机器还是可以继续用的呀.

所以, 我们的方案是,

主机上装个NGINX, 由NGINX用端口转发的方式转到内部K8S Service中 ,

这样就完美了.

这样的话, 那么我们的主机怎么访问k8s Service呢?

在前面我们简单提过, k8s的pod,service都是在自己的内网的.

虽然现在主机和k8s的服务可能都在一个主机上, 然而里面还是有逻辑层内网隔离的.

那么, 这样怎么办呢?

放心, k8s service早就有解决方案啦.

答案是:

在腾讯云中的使用service.kubernetes.io/qcloud-loadbalancer-internal-subnetid annotations来申请内网IP.

代码语言:txt
AI代码解释
复制
---

apiVersion: v1
kind: Service
metadata:
  # 这个annotations是腾讯云申请内网IP的配置, 需要改成自己k8s所在网络的子网id
  # postgresql 这里其实可以不要内网service ip, 内网直接用service name访问即可
  annotations:
    service.kubernetes.io/loadbalance-id: lb-你自己的loadbalanceid
    service.kubernetes.io/qcloud-loadbalancer-internal-subnetid: subnet-你自己的子网id
  name: codelover-blog
  namespace: default
spec:
  externalTrafficPolicy: Cluster
  ports:
  - nodePort: 32278
    port: 80
    protocol: TCP
    targetPort: 80
  selector:
    run: codelover-blog
  sessionAffinity: None
  type: LoadBalancer

查看一下配置的效果

代码语言:txt
AI代码解释
复制
➜  codelover-blog git:(master) ✗ kc get service                  
NAME             TYPE           CLUSTER-IP       EXTERNAL-IP   PORT(S)                      AGE
codelover-blog   LoadBalancer   172.16.255.232   172.17.0.28   80:32278/TCP                 55d


root@VM-0-13-ubuntu:~# curl -vvvv 172.17.0.28
* Rebuilt URL to: 172.17.0.28/
*   Trying 172.17.0.28...
* Connected to 172.17.0.28 (172.17.0.28) port 80 (#0)
> GET / HTTP/1.1
> Host: 172.17.0.28
> User-Agent: curl/7.47.0
> Accept: */*
>
< HTTP/1.1 200 OK
< Server: nginx/1.17.1
< Date: Sun, 01 Sep 2019 05:30:51 GMT
< Content-Type: text/html
< Content-Length: 45988
< Last-Modified: Mon, 08 Jul 2019 03:59:21 GMT
< Connection: keep-alive
< ETag: "5d22bf99-b3a4"
< Accept-Ranges: bytes
<
<!DOCTYPE html>

现在内网IP有了, 下面也就是配置一下NGINX的事情了.

代码语言:txt
AI代码解释
复制
    server {
            listen 80;
            server_name  你的域名;
            location / {
                proxy_pass   http://172.17.0.28:80;
            }

            error_page   500 502 503 504  /50x.html;
            location = /50x.html {
                    root   html;
            }
            proxy_set_header Host $host;
            proxy_set_header X-Real-IP $remote_addr;
            proxy_set_header X-Forwarded-For $proxy_add_x_forwarded_for;
	          gzip on;
            gzip_min_length 5k;
            gzip_buffers 4 16k;
            gzip_http_version 1.1;
            gzip_comp_level 3;
            gzip_types text/plain application/json application/javascript text/css application/xml text/javascript image/jpeg image/gif image/png;
            gzip_vary on;
    }

好了, 完事.

原创声明:本文系作者授权腾讯云开发者社区发表,未经许可,不得转载。

如有侵权,请联系 cloudcommunity@tencent.com 删除。

原创声明:本文系作者授权腾讯云开发者社区发表,未经许可,不得转载。

如有侵权,请联系 cloudcommunity@tencent.com 删除。

评论
登录后参与评论
暂无评论
推荐阅读
编辑精选文章
换一批
如何重现 DeepSeek 推理性能突破
DeepSeek-V3 在多个评测中展现出强大性能,成为当前最受关注的开源大模型之一。由于采用了大规模 MoE 架构,如何优化推理性能,是工程落地上的关键难点。DeepSeek 团队于 2 月相继开源了 DeepEP、DeepGEMM、FlashMLA、EPLB 等关键组件。在开源社区工作的基础上,我们在 RTP-LLM 上完成了优化工作,对齐了 DeepSeek 推理系统的性能。
深度学习与Python
2025/05/21
580
如何重现 DeepSeek 推理性能突破
Deepseek-V2技术报告解读!全网最细!
深度求索Deepseek近日发布了v2版本的模型,沿袭了1月发布的 Deepseek-MoE(混合专家模型)的技术路线,采用大量的小参数专家进行建模,同时在训练和推理上加入了更多的优化。沿袭了一贯的作风,Deepseek对模型(基座和对话对齐版本)进行了完全的mit协议开源,可以商用。对于算力不是那么充足的开发者,官方提供了API调用的方案,费用更是达到了全场最低!
zenRRan
2025/02/03
1.2K0
Deepseek-V2技术报告解读!全网最细!
PPT汇总:DeepSeek核心技术前世今生
因为本文是小白方式,尽可能讲解思路为主,所以技术上涉及到的公式部分不会细讲哦。公式部分如有时间会单开文章细细讲解。
腾讯云开发者
2025/03/06
5400
PPT汇总:DeepSeek核心技术前世今生
万字长文详解DeepSeek核心技术
在今年的春节期间,DeepSeek 火出了圈。凭借 DeepSeek-V3 与 DeepSeek-R1 的创新技术和卓越表现,DeepSeek 迅速成为了行业内外的焦点。不管是技术专家还是普通用户,都对 DeepSeek 赞不绝口。我们特别准备了这篇技术科普文章,期望无论你是不是技术同学,都能够读懂 DeepSeek。
腾讯云开发者
2025/02/18
1.9K0
万字长文详解DeepSeek核心技术
如何看待 DeepSeek 发布的 MoE 大模型 DeepSeek-V2?(从推理角度分析)
来源丨https://www.zhihu.com/question/655172528/answer/3491439374
BBuf
2025/02/03
2280
如何看待 DeepSeek 发布的 MoE 大模型 DeepSeek-V2?(从推理角度分析)
大模型KV Cache节省神器MLA学习笔记(包含推理时的矩阵吸收分析)
这里提一下,我维护的几个记录个人学习笔记以及社区中其它大佬们的优秀博客链接的仓库都获得了不少star,感谢读者们的认可,我也会继续在开源社区多做贡献。github主页:https://github.com/BBuf ,欢迎来踩
BBuf
2024/06/18
2.8K0
大模型KV Cache节省神器MLA学习笔记(包含推理时的矩阵吸收分析)
DeepSeek一天能赚多少钱?官方突然揭秘V3/R1推理系统,成本全透明
就在所有人以为 DeepSeek 预告的 5 天开源告一段落时,今天中午 12 点 11 分,官方 𝕏 帐号再次更新,宣告「开源周」还在继续。不过这第六天 DeepSeek 并没有开源新的软件库,而是介绍了 DeepSeek-V3/R1 的推理系统。
机器之心
2025/03/03
810
DeepSeek一天能赚多少钱?官方突然揭秘V3/R1推理系统,成本全透明
深度解析为什么Deepseek v3的成本这么低
这个问题其实可以从它发布的技术报告中窥见一二。 DeepSeek V3的训练总共才用了不到280万个GPU小时,而Llama 3 405B却用了3080万GP
算法一只狗
2025/01/05
4.1K0
深度解析为什么Deepseek v3的成本这么低
源2.0-M32大模型发布,MoE全新门控网络Attention Router值得关注
近期,一个新的MoE大模型“源2.0-M32”发布,它创新性地提出和采用了“基于注意力机制的门控网络”技术,构建包含32个专家(Expert)的混合专家模型(MoE),大幅提升了模型算力效率。
公众号-arXiv每日学术速递
2024/05/31
3790
源2.0-M32大模型发布,MoE全新门控网络Attention Router值得关注
AI智能体研发之路-模型篇(二):DeepSeek-V2-Chat 训练与推理实战
5月6日私募基金幻方发布DeepSeek-V2,千亿级模型,每百万Tokens仅需1元-2元。5月15日,字节发布白菜价的豆包大模型,5月21日阿里、百度相机大幅下调甚至免费开放自家商用模型接口,大模型价格战正式打响。而被誉为大模型价格屠夫的“DeepSeek-V2”到底是怎么个事儿,是否可以进行训练和推理,今天我们来展开讲一讲。
LDG_AGI
2024/08/13
1.5K0
AI智能体研发之路-模型篇(二):DeepSeek-V2-Chat 训练与推理实战
马斯克烧60亿美元难题,国内大厂有解?开源MoE模算效率黑马登场,3.7B参数单挑Llama 3-70B
最近马斯克就公开表示,因为苦于买不到足够的芯片,xAI只能推迟Gork 2的训练和发布。
新智元
2024/06/05
1060
马斯克烧60亿美元难题,国内大厂有解?开源MoE模算效率黑马登场,3.7B参数单挑Llama 3-70B
DeepSeek V3把训练大模型的成本给干下来了
一夜之间,DeepSeek突然之间炸场,各个大佬都在纷纷转发,而且发布即开源,直接用50多页的论文公布了其训练细节
算法一只狗
2024/12/29
4.9K0
DeepSeek V3把训练大模型的成本给干下来了
单个4090可推理,2000亿稀疏大模型「天工MoE」开源
在大模型浪潮中,训练和部署最先进的密集 LLM 在计算需求和相关成本上带来了巨大挑战,尤其是在数百亿或数千亿参数的规模上。为了应对这些挑战,稀疏模型,如专家混合模型(MoE),已经变得越来越重要。这些模型通过将计算分配给各种专门的子模型或「专家」,提供了一种经济上更可行的替代方案,有可能以极低的资源需求达到甚至超过密集型模型的性能。
机器之心
2024/06/04
6220
单个4090可推理,2000亿稀疏大模型「天工MoE」开源
万字长文解构DeepSeek V1/V2/V3/R1进化史:从算法革命到推理涌现!
在今年的春节期间,DeepSeek 火出了圈。凭借 DeepSeek-V3 与 DeepSeek-R1 的创新技术和卓越表现,DeepSeek 迅速成为了行业内外的焦点。不管是技术专家还是普通用户,都对 DeepSeek 赞不绝口。我们特别准备了这篇技术科普文章,期望无论你是不是技术同学,都能够读懂 DeepSeek。
腾讯云开发者
2025/02/27
7960
万字长文解构DeepSeek V1/V2/V3/R1进化史:从算法革命到推理涌现!
MoE 高效训练的 A/B 面:与魔鬼做交易,用「显存」换「性能」
MoE(Mixture of Experts),又称「混合专家」,本质是一种模块化的稀疏激活。怎么理解?
AI科技评论
2024/06/03
9430
MoE 高效训练的 A/B 面:与魔鬼做交易,用「显存」换「性能」
[DeepSeek]-DeepSeek技术解析:MoE架构实现与代码实战
以下是一篇结合DeepSeek技术解析与代码示例的技术文章,重点展示其核心算法实现与落地应用:
远方2.0
2025/03/15
4310
[DeepSeek]-DeepSeek技术解析:MoE架构实现与代码实战
深度求索开源国内首个 MoE 大模型 | DeepSeekMoE:在专家混合语言模型中实现终极专家专业化
在大语言模型时代,混合专家模型(MoE)是一种很有前途的架构,用于在扩展模型参数时管理计算成本。然而,传统的 MoE 架构(如 GShard)会激活 N 位专家中的 top-K 专家,但在确保专家专业化(即每位专家获取的知识不重叠且重点突出)方面面临挑战。作为回应,研究者提出了 DeepSeekMoE 架构,以实现终极的专家专业化。它涉及两个主要战略:
叶庭云
2024/05/25
1.9K0
深度求索开源国内首个 MoE 大模型 | DeepSeekMoE:在专家混合语言模型中实现终极专家专业化
DeepSeek开源周Day1:重磅发布FlashMLA,重新定义AI推理效率天花板
DeepSeek开源周Day1:重磅发布FlashMLA,重新定义AI推理效率天花板
没事学点编程小知识
2025/02/24
1380
[DeepSeek]解析DeepSeek的技术内核:混合专家架构如何重塑AI效能
在当今大型语言模型(LLM)竞争激烈的赛道上,中国AI企业DeepSeek凭借其独特的技术路线脱颖而出。其核心优势之一,便是对混合专家(Mixture of Experts,简称MoE)架构的创新应用,这一技术选择不仅重塑了AI模型的效能表现,更为行业带来了全新的思考方向。本文将深入解析DeepSeek如何通过MoE架构实现算力与性能的最优平衡。
远方2.0
2025/03/27
1650
[DeepSeek]解析DeepSeek的技术内核:混合专家架构如何重塑AI效能
深度解析DeepSeek核心机制:从模型架构到应用场景
随着大规模语言模型(LLM)的崛起,DeepSeek作为一款具备卓越性能的AI模型,在代码生成、文本理解、对话交互等多个领域展现了强大能力。本文将深入解析DeepSeek的核心机制,包括其模型架构、训练策略、推理优化及其在实际应用中的表现,并通过代码示例展示其强大之处。
江南清风起
2025/03/14
4680
深度解析DeepSeek核心机制:从模型架构到应用场景
推荐阅读
如何重现 DeepSeek 推理性能突破
580
Deepseek-V2技术报告解读!全网最细!
1.2K0
PPT汇总:DeepSeek核心技术前世今生
5400
万字长文详解DeepSeek核心技术
1.9K0
如何看待 DeepSeek 发布的 MoE 大模型 DeepSeek-V2?(从推理角度分析)
2280
大模型KV Cache节省神器MLA学习笔记(包含推理时的矩阵吸收分析)
2.8K0
DeepSeek一天能赚多少钱?官方突然揭秘V3/R1推理系统,成本全透明
810
深度解析为什么Deepseek v3的成本这么低
4.1K0
源2.0-M32大模型发布,MoE全新门控网络Attention Router值得关注
3790
AI智能体研发之路-模型篇(二):DeepSeek-V2-Chat 训练与推理实战
1.5K0
马斯克烧60亿美元难题,国内大厂有解?开源MoE模算效率黑马登场,3.7B参数单挑Llama 3-70B
1060
DeepSeek V3把训练大模型的成本给干下来了
4.9K0
单个4090可推理,2000亿稀疏大模型「天工MoE」开源
6220
万字长文解构DeepSeek V1/V2/V3/R1进化史:从算法革命到推理涌现!
7960
MoE 高效训练的 A/B 面:与魔鬼做交易,用「显存」换「性能」
9430
[DeepSeek]-DeepSeek技术解析:MoE架构实现与代码实战
4310
深度求索开源国内首个 MoE 大模型 | DeepSeekMoE:在专家混合语言模型中实现终极专家专业化
1.9K0
DeepSeek开源周Day1:重磅发布FlashMLA,重新定义AI推理效率天花板
1380
[DeepSeek]解析DeepSeek的技术内核:混合专家架构如何重塑AI效能
1650
深度解析DeepSeek核心机制:从模型架构到应用场景
4680
相关推荐
如何重现 DeepSeek 推理性能突破
更多 >
领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档