Loading [MathJax]/jax/output/CommonHTML/config.js
腾讯云
开发者社区
文档
建议反馈
控制台
登录/注册
首页
学习
活动
专区
圈层
工具
MCP广场
文章/答案/技术大牛
搜索
搜索
关闭
发布
首页
学习
活动
专区
圈层
工具
MCP广场
返回腾讯云官网
广州三区怎么了?
写回答
关注问题
社区首页
>
问答首页
>
广州三区怎么了?
问
广州三区怎么了?
提问于 2019-01-25 07:51:16
回答 1
关注 0
查看 308
云服务器
写回答
关注问题
分享
举报
回答 1
推荐
最新
御姐万岁
发布于 2021-04-16 07:52:00
不支持的,修改配置POD都会重启。
点赞
评论
收藏
分享
举报
和开发者交流更多问题细节吧,去
写回答
相关文章
GPUManager虚拟化方案
容器服务
容器
GPU 云服务器
GPU是一种用于矩阵计算的PCIe设备,一般用于解码、渲染和科学计算等并行计算场景,不同场景对GPU使用方式不同,使用的加速库也各不相同,本文提到的GPU虚拟化主要针对科学计算场景,使用的加速库为nvidia cuda。
何猛
2020/08/25
21.9K
87
docker容器命名和资源配额控制(2)
容器
容器镜像服务
linux
bash
bash 指令
docker 容器命名和重命名 容器命名语法:docker run -d --name 容器实例名 容器镜像名 要执行的命令容器重命名语法: docker rename 旧容器名 新容器名
cuijianzhe
2022/06/14
448
0
查看tensorflow是否支持GPU,以及测试程序
gpu
测试程序# Pythonimport tensorflow as tfhello = tf.constant('Hello, TensorFlow!')sess = tf.Session()print(sess.run(hello))是否支持GPUimport tensorflow as tfsess = tf.Session(config=tf.ConfigProto(log_device_placement=True))>>>Device mapping:/job:localhost/replica:0
狼啸风云
2019/10/28
5.7K
0
AIGC时代,基于云原生 MLOps 构建属于你的大模型(上)
企业
aigc
部署
模型
云原生
为了满足企业在数字化转型过程中对更新迭代生产力工具的需求,灵雀云近日推出了云原生 MLOps 解决方案,帮助企业快速落地AI技术、实现智能化应用和服务。
灵雀云
2023/08/09
636
0
腾讯云容器月报 | 一篇带你看完优秀上新,最飒的功能用起来
kubernetes
容器
容器服务
最新发布 腾讯云容器服务公有云版本(TKE 公有云版) 1. TKE 公有云版上线节点池功能 借助腾讯云容器服务节点池统一机型、统一标签和Taint、节点池动态扩缩容等功能,您可以方便快捷地创建、管理和销毁节点,以及实现节点的动态扩缩容。 【适用场景】:推荐使用节点池进行节点管理,以提高集群节点管理的易用性。 【解决痛点】:规范异构节点(机型配置不同)分组管理;降低集群频繁扩缩容操作成本;通过节点池标签快速制定业务调度规则,解决集群内应用程序调度规则复杂问题;便捷管理 Kubernetes 版本升级、Do
腾讯云原生
2022/04/14
790
0
如何使用 Kubernetes 资源配额
kubernetes
cpu
requests
stdin
volume
当有人提到需要管理Kubernetes计算资源(尤其是CPU和内存)时,就会想到控制这个词。之所以提出控制资源使用,大都是在Kubernetes 平台部署了一段时间、开发人员正在广泛使用该集群、经常因为资源争用出现问题。
用户5166556
2023/03/18
680
0
有赞算法平台之模型部署演进
kubernetes
node.js
大数据
编程算法
tensorflow
模型部署作为算法工程落地的最后一公里,其天然对算法团队而言具有较高的复杂性,不仅要考虑如何高效地部署、管理不同框架模型,还需要考虑分布式服务的负载均衡、故障容错、可扩展性、资源隔离、限流、核心指标监控等问题。这些都极大的依赖于工程团队的能力,不是算法团队的强项,如何解决这最后一公里,让焦点聚焦在模型开发上,是模型部署服务模块需要解决的问题。
有赞coder
2022/02/09
1.3K
1
Harbor制品仓库资源配额的使用
文件存储
容器镜像服务
本文节选自《 Harbor权威指南》 一书第8章,作者为 Harbor 开源项目维护者王岩。
Henry Zhang
2021/04/21
2.8K
0
Kubernetes中资源配额管理
容器
创建Pod的时候,可以为每个容器指定资源消耗的限制。Pod的资源请求限制则是Pod中所有容器请求资源的总和。
大江小浪
2018/12/13
1.7K
0
OpenStack发布Queens版本,扩展对GPU和容器支持
openstack
容器
存储
机器学习
OpenStack本周发布了第17个代码版本Queens,该版本包含一些重大的更新,例如软件定义存储功能、GPU兼容性以及容器工作负载的跟踪等。Queens不仅有利于具有关键任务负载的企业,而且有利于
SDNLAB
2018/03/28
1.2K
0
容器共享GPU时查看容器使用的GPU编号
分布式
容器
对于单机多卡的 GPU 服务器,在做容器的 GPU 分配的时候,可以选择通过环境变量 NVIDIA_VISIBLE_DEVICES来指定 GPU 的索引或者 UUID。 因为在容器中看到的 GPU 索引都是从0开始的,如果想找到对应母机上的 GPU 卡,通过 UUID 又不太好确定。
runzhliu
2020/08/06
1.9K
0
支持快速调整配额的令牌桶算法
编程算法
令牌桶算法被大家所熟识,这里就不再展开介绍。令牌桶遇到配置调整可以通过粗暴的重启来完成,本文提供一个热调整算法。
键盘工
2019/02/25
970
0
047.集群管理-资源及配额管理
kubernetes
对于Kubernetes资源,有两个重要参数:CPU Request与Memory Request。
木二
2020/04/08
1.5K
0
Nginx动态修改响应内容,避免静态资源404
nginx
javascript
编程算法
https
网络安全
nginx中经常会因为业务需求,需要通过location配置不同的子目录,访问不同的后端,如下
李俊鹏
2020/07/16
4.3K
0
判断gpu是否可用
gpu
# 查看Keras 是否可使用gpu from keras import backend as K gpu =K.tensorflow_backend._get_available_gpus() print(gpu) # 查看tensorflow是否可使用gpu import tensorflow as tf print(tf.test.is_gpu_available())
Dean0731
2020/05/11
1.3K
0
使用 Elastic GPU 管理 Kubernetes GPU 资源
kubernetes
容器
深度学习
徐蓓,腾讯云容器技术专家,腾讯云异构计算容器负责人,多年云计算一线架构设计与研发经验,长期深耕 Kubernetes、在离线混部与 GPU 容器化领域,Kubernetes KEP Memory QoS 作者,Kubernetes 积极贡献者。 当前存在问题 GPU 具备大量核心和高速内存,擅长并行计算,非常适合训练和运行机器学习模型。由于近几年 AI 技术愈发成熟,落地场景越来越多,对 GPU 的需求呈井喷趋势。而在资源管理调度平台上,Kubernetes 已成为事实标准。所以很多客户选择在 Kubern
腾讯云原生
2022/04/21
3.4K
0
vivo AI 计算平台的 K8s 分级配额管理实践
部署
对象
管理
配置
实践
作者 | 刘东阳 审校 | 赵钰莹 2018 年底,vivo AI 研究院为了解决统一高性能训练环境、大规模分布式训练、计算资源的高效利用调度等痛点,着手建设 AI 计算平台。经过四年多的持续迭代,平台建设和落地取得了很大进展,成为 vivo AI 领域的核心基础平台。平台从当初服务深度学习训练为主,到现在演进成包含 VTraining、VServing、VContainer 三大模块,对外提供模型训练、模型推理和容器化能力的基础设施。平台的容器集群有数千个节点,拥有超过数百 PFLOPS 的 GP
深度学习与Python
2023/03/29
402
0
GPU Mounter - 支持 GPU 热挂载的 Kubernetes 插件
容器
深度学习
kubernetes
容器镜像服务
GPU Mounter 是一个支持动态调整运行中 Pod 可用 GPU 资源的 Kubernetes 插件,已经开源在 GitHub[1]:
米开朗基杨
2021/03/16
1.4K
0
使用Bitfusion在K8s上共享GPU资源
kubernetes
容器
容器镜像服务
https
注:微信公众号不按照时间排序,请关注公众号“亨利笔记”,并加星标以置顶,以免错过更新。
Henry Zhang
2021/08/05
1.9K
1
GPU技术_支持nvlink的显卡
gpu
intel
nvidia
p2p
x86
上一篇文章《浅析GPU通信技术(上)-GPUDirect P2P》中我们提到通过GPUDirect P2P技术可以大大提升GPU服务器单机的GPU通信性能,但是受限于PCI Expresss总线协议以及拓扑结构的一些限制,无法做到更高的带宽,为了解决这个问题,NVIDIA提出了NVLink总线协议。
全栈程序员站长
2022/11/17
3.2K
0
相似问题
GPUManager组件可以为namespace设置GPU资源配额吗?
1
246
GPUManager k8s内pod只能共享所在节点上的GPU资源吗?
0
159
GPUManager组件可以动态修改管控GPU显存和算力吗?不重启pod情况下调整算力规格?
0
142
人脸核身是否支持修改license?
1
122
GPUManager可以指定显卡吗?
1
323
相关问答用户
请输入您想邀请的人
小雨云
邀请回答
liquid
擅长3个领域
邀请回答
白德鑫
萃橙科技 | 合伙人
擅长4个领域
邀请回答
派大星的数据屋
高级数据分析师
擅长5个领域
邀请回答
揭光发
腾讯 | 技术专家
擅长2个领域
邀请回答
添加站长 进交流群
领取专属
10元无门槛券
AI混元助手
在线答疑
关注
腾讯云开发者公众号
洞察
腾讯核心技术
剖析业界实践案例
领券
问题归档
专栏文章
快讯文章归档
关键词归档
开发者手册归档
开发者手册 Section 归档