前往小程序,Get更优阅读体验!
立即前往
首页
学习
活动
专区
圈层
工具
发布
首页
学习
活动
专区
圈层
工具
MCP广场
社区首页 >专栏 >非java异构服务如何集成到SpringCLoud集群中

非java异构服务如何集成到SpringCLoud集群中

原创
作者头像
欢醉
发布于 2023-03-13 00:43:57
发布于 2023-03-13 00:43:57
45500
代码可运行
举报
文章被收录于专栏:james大数据架构james大数据架构
运行总次数:0
代码可运行

  一个项目可能由于各种原因会存在多个语言编写的系统同时存在,但主项目如果采用的SpringCloud框架的话就无法通过微服务方式访问其他的异构系统,因此SpringCloud 生态圈给我们提供了很好的插件式服务,利用 sidecar 我们也可以轻松方便的集成异构系统到我们自己的系统来。

  如之前介绍过如此将NET MVC服务运行在Linux容器中,此时就可以通过Sidecar组件将此服务集成到SpringCloud服务中作为普通的服务调用。

1.创建一个SpringBoot服务

2.添加 maven 引用包

添加SpringCloud相关依赖后添加如下依赖:

代码语言:javascript
代码运行次数:0
运行
AI代码解释
复制
<!-- 异构系统模块 -->
<dependency>
    <groupId>com.alibaba.cloud</groupId>
    <artifactId>spring-cloud-starter-alibaba-sidecar</artifactId>
    <version>2.1.3.RELEASE</version>
</dependency>

3.添加应用配置

application.yml中添加:

代码语言:javascript
代码运行次数:0
运行
AI代码解释
复制
# 配置异构服务
sidecar:
  port: ${sidecar-port:3000}
  ip:  ${ip-address:localhost}
  health-check-url: http://${ip-address:localhost}:${sidecar.port}/health

注意: 在老版本中需要添加sidecar微服务启动类注解@EnableSidecar,如果添加文中的依赖的话是不需要的,默认是开启。

  sidecar-port指的是代理MVC服务的端口,ip指的是代理MVC服务的ip,MVC服务需要添加一个健康检测的health接口,如果是最新的Cloud框架为/actuator/health

4.运行此服务

  可以看到注册到注册中心的服务ip和端口为MVC服务的,其它服务通过服务名可直接访问到此MVC服务。

原创声明:本文系作者授权腾讯云开发者社区发表,未经许可,不得转载。

如有侵权,请联系 cloudcommunity@tencent.com 删除。

原创声明:本文系作者授权腾讯云开发者社区发表,未经许可,不得转载。

如有侵权,请联系 cloudcommunity@tencent.com 删除。

评论
登录后参与评论
暂无评论
推荐阅读
编辑精选文章
换一批
英伟达系列显卡大解析B100、H200、L40S、A100、A800、H100、H800、V100如何选择,含架构技术和性能对比带你解决疑惑
近期,AIGC领域呈现出一片繁荣景象,其背后离不开强大算力的支持。以ChatGPT为例,其高效的运行依赖于一台由微软投资建造的超级计算机。这台超级计算机配备了数万个NVIDIA A100 GPU,并利用60多个数据中心的数十万个GPU辅助,为ChatGPT提供了强大的算力支持。这种规模的算力部署不仅体现了AIGC技术的先进性,也预示着人工智能技术未来的发展趋势。这种集成了高性能计算、大数据处理和人工智能算法的超级计算机,将成为推动科技进步的重要引擎。
汀丶人工智能
2024/01/29
8.2K0
英伟达系列显卡大解析B100、H200、L40S、A100、A800、H100、H800、V100如何选择,含架构技术和性能对比带你解决疑惑
深度分析NVIDIA A100显卡架构(附论文&源码下载)
基于安培体系结构的NVIDIA A100 GPU是为了从其许多新的体系结构特征和优化中提供尽可能多的AI和HPC计算能力而设计的。在台积电7nm N7 FinFET制造工艺上,A100提供了比Tesla V100中使用的12nm FFN工艺更高的晶体管密度、更好的性能和更好的功率效率。一种新的Multi-Instance GPU(MIG)能为多租户和虚拟化GPU环境提供了增强的客户端/应用程序故障隔离和QoS,这对云服务提供商特别有利。一个更快和更强的错误抗力的第三代NVIDIA的NVLink互连提供了改进的多GPU性能缩放的超尺度数据中心。
计算机视觉研究院
2020/07/16
3.4K0
深度分析NVIDIA A100显卡架构(附论文&源码下载)
英伟达A100 GPU的核心数,Tesla系列
GeForce RTX是英伟达(NVIDIA)公司旗下的一个高端显卡系列。其中,“GeForce”是英伟达推出的显卡品牌,广泛应用于游戏、图形设计、视频编辑等多个领域,以其出色的图形处理能力和性能而著称。“RTX”则代表了该系列显卡所具备的特殊技术和功能,具体来说,“RTX”是Ray Tracing Texel eXtreme的缩写,意味着光线追踪技术的极致表现。
zhangjiqun
2024/07/31
6730
一文读懂 NVIDIA A100 GPU
Hello folks,我是 Luga,今天我们来聊一下人工智能应用场景 - 构建高效、灵活的计算架构的 GPU 底座 - NVIDIA A100 。
Luga Lee
2025/01/16
5410
一文读懂 NVIDIA A100 GPU
揭秘A100、A800、H800、V100在高性能计算与大模型训练中的地位
AGI | NLP | A100 | H100 | Nvidia | Aurora
液冷服务器
2023/06/29
3.9K0
揭秘A100、A800、H800、V100在高性能计算与大模型训练中的地位
性能提升20倍:英伟达GPU旗舰A100登场,全新7nm架构安培出炉
虽然因为新冠疫情爆发,今年的 GTC 2020 大会也在最后时刻宣布转为线上,不过人们期待 7 纳米制程英伟达 GPU 的热情并没有消退。
机器之心
2020/05/19
1.2K0
性能提升20倍:英伟达GPU旗舰A100登场,全新7nm架构安培出炉
深度学习最佳 GPU,知多少?
Hello folks,我是 Luga,今天我们来聊一下人工智能应用场景中一个至关重要的解决方案:如何选型高效、灵活的 GPU 方案。
Luga Lee
2025/01/07
6710
深度学习最佳 GPU,知多少?
黄仁勋从煤气灶下取出最新GPU:7nm全新安培架构,售价20万美元,训练性能顶6张V100
因为美国疫情的原因,英伟达和其他科技公司一样,把今年的GPU技术大会(GTC 2020)改成线上举行。
量子位
2020/05/19
9530
黄仁勋从煤气灶下取出最新GPU:7nm全新安培架构,售价20万美元,训练性能顶6张V100
英伟达Tensor Core架构技术原理
英伟达的Tensor Core架构是一种专为加速人工智能、深度学习、高性能计算(HPC)等领域中的矩阵运算和张量运算而设计的硬件单元。自首次在Volta架构中引入以来,Tensor Cores已成为NVIDIA高端GPU的核心特性,并在后续的Turing、Ampere及之后的架构中持续进化。
用户7353950
2024/06/06
7480
英伟达Tensor Core架构技术原理
英伟达A100与H100:全面对比分析
随着人工智能(AI)和高性能计算(HPC)领域的飞速发展,GPU作为加速计算的关键组件变得越来越重要。英伟达作为GPU市场的领导者,不断推出新的产品来满足日益增长的需求。本文将深入探讨英伟达A100和H100这两款GPU之间的主要差异,帮助读者更好地理解这些高性能计算解决方案的特点及其适用场景。
用户7353950
2024/11/23
2.9K0
英伟达A100与H100:全面对比分析
NVIDIA消费级显卡4060/4090 AI训练能效比较
NVIDIA GeForce RTX 4060 是基于Ada Lovelace架构的一款显卡,它被设计为中端市场的产品,旨在提供高性能的同时保持相对较低的功耗和价格点。
用户7353950
2024/07/05
3.7K0
NVIDIA消费级显卡4060/4090 AI训练能效比较
【AI系统】GPU 架构回顾(从2018年-2024年)
2018 年 Turing 图灵架构发布,采用 TSMC 12 nm 工艺,总共 18.6 亿个晶体管。在 PC 游戏、专业图形应用程序和深度学习推理方面,效率和性能都取得了重大进步。相比上一代 Volta 架构主要更新了 Tensor Core(专门为执行张量/矩阵操作而设计的专门执行单元,深度学习计算核心)、CUDA 和 CuDNN 库的不断改进,更好地应用于深度学习推理。RT Core(Ray Tracing Core)提供实时的光线跟踪渲染,包括具有物理上精确的投影、反射和折射,更逼真的渲染物体和环境。支持 GDDR6 内存,与 GDDR5 内存相比,拥有 14 Gbps 传输速率,实现了 20%的的效率提升。NVLink2.0 支持 100 GB/s 双向带宽,使特定的工作负载能够有效地跨两个 GPU 进行分割并共享内存。
用户11307734
2024/11/27
3910
腾讯云即将支持Ampere架构A100 Tensor Core GPU云服务器
    最近随着下一代NVIDIA Ampere计算架构全新发布,腾讯云作为国内云厂商的领导者,将成为业内率先推出采用NVIDIA A100 Tensor Core GPU的云服务实例的云厂商之一。为企业在深度学习训练与推理、高性能计算、数据分析、视频分析等领域提供更高性能的计算资源,同时进一步降低企业的使用成本,帮助企业更快投入市场。     腾讯云即将搭载的NVIDIA A100 Tensor Core GPU,为各种规模的AI、数据分析和HPC都提供了前所未有的加速,以应对各种各样复杂的计算挑
腾讯云计算产品团队
2020/06/05
5.3K0
深度 | 英伟达深度学习Tensor Core全面解析
AI 科技评论消息,不久前,NVIDIA在SIGGRAPH 2018上正式发布了新一代GPU架构——Turing(图灵),黄仁勋称Turing架构是自2006年CUDA GPU发明以来最大的飞跃。Turing架构的两大重要特性便是集成了用于光线追踪的RT Core以及用于AI计算的Tensor Core,使其成为了全球首款支持实时光线追踪的GPU。
AI科技评论
2018/09/21
4.1K0
深度 | 英伟达深度学习Tensor Core全面解析
20万美元,最高提速200倍!黄教主烤箱掏出7nm安培芯片,GPU史上最大性能飞跃
推迟了2个月,北京时间5月14日晚9点,英伟达创始人兼首席执行官黄仁勋在自家的厨房里,“亮相”GTC 2020主题演讲会。他把这次的发布会称为,“英伟达史上首次Kitchen keynote(厨房发布会)”。
大数据文摘
2020/05/19
7320
20万美元,最高提速200倍!黄教主烤箱掏出7nm安培芯片,GPU史上最大性能飞跃
如何为深度学习选择最佳 GPU ?
Hello folks,我是 Luga,今天我们继续来聊一下人工智能生态相关技术 - 用于加速构建 AI 核心算力的 GPU 硬件技术。
Luga Lee
2024/11/18
6710
如何为深度学习选择最佳 GPU ?
英伟达 H100 vs. 苹果M2,大模型训练,哪款性价比更高?
关键词:M2芯片;Ultra;M1芯片;UltraFusion;ULTRAMAN;RTX4090、A800;A100;H100;LLAMA、LM、AIGC、CHATGLM、LLVM、LLM、LLMs、GLM、NLP、ChatGPT、AGI、HPC、GPU、CPU、CPU+GPU、英伟达、Nvidia、英特尔、AMD、高性能计算、高性能服务器、蓝海大脑、多元异构算力、高性能计算、大模型训练、大型语言模型、通用人工智能、GPU服务器、GPU集群、大模型训练GPU集群、大语言模型
液冷服务器
2023/07/28
2.3K0
英伟达 H100 vs. 苹果M2,大模型训练,哪款性价比更高?
英伟达Volta架构深度解读:专为深度学习而生的Tensor Core到底是什么?
机器之心报道 编辑:CZ、Jenny Huang、李泽南、吴攀、蒋思源 当地时间 5 月 8-11 日,英伟达在加州圣何塞举行了 2017 年的 GPU 技术大会(GTC 2017)。机器之心作为本次大会的特邀媒体,也来到了现场,参阅《现场报道 | 英伟达 GTC 大会开幕,盘点首日三大亮点》。昨天,英伟达 CEO 黄仁勋在大会上正式发布了目前最先进的加速器 NVIDIA Tesla V100。之后,英伟达开发博客又更新了一篇深度解读文章,剖析了 Tesla V100 背后的新一代架构 Volta,其在提供
机器之心
2018/05/08
4.2K0
英伟达Volta架构深度解读:专为深度学习而生的Tensor Core到底是什么?
人工智能研究者应该选择哪款显卡?
我在自己的网站中专门介绍过GPU的一些硬件基础知识:https://lulaoshi.info/gpu/gpu-basic/gpu.html。英伟达为优化深度学习的矩阵运算,在较新的微架构中,专门设计了Tensor Core这样的混合精度核心,因此,人工智能训练最好选择带有Tensor Core的GPU。
PP鲁
2020/06/29
3.2K0
【AI系统】Tensor Core 架构演进
自 Volta 架构时代起,英伟达的 GPU 架构已经明显地转向深度学习领域的优化和创新。2017 年,Volta 架构横空出世,其中引入的张量核心(Tensor Core)设计可谓划时代之作,这一设计专门针对深度学习计算进行了优化,通过执行融合乘法加法操作,大幅提升了计算效率。与前一代 Pascal 架构相比,Volta 架构在深度学习训练和推理方面的性能提升了 3 倍,这一飞跃性进步为深度学习的发展提供了强大的硬件支持。
用户11307734
2024/11/27
3290
推荐阅读
相关推荐
英伟达系列显卡大解析B100、H200、L40S、A100、A800、H100、H800、V100如何选择,含架构技术和性能对比带你解决疑惑
更多 >
领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档
本文部分代码块支持一键运行,欢迎体验
本文部分代码块支持一键运行,欢迎体验