首页
学习
活动
专区
圈层
工具
发布
首页
学习
活动
专区
圈层
工具
MCP广场
社区首页 >专栏 >与高通合作开发5G模块的Soitec,为什么大家都离不开它?

与高通合作开发5G模块的Soitec,为什么大家都离不开它?

作者头像
镁客网
发布于 2020-07-15 08:23:21
发布于 2020-07-15 08:23:21
7410
举报
文章被收录于专栏:镁客网镁客网

这家法国老牌厂商做的优化衬底,有着独特的魅力。

策划&撰写:Lynn

几天前,高通签署了一份有关其新一代5G射频滤波器产品衬底供应的合作协议,Soitec被选中,成为其滤波器POI衬底供应商。

而事实上,作为一家优化衬底供应商,Soitec早在五年前就布局了POI,也正因为有这样的积累,与高通的进一步合作对它来说就像是水到渠成。

当然不仅仅是这次合作的达成,一直以来凭借对产业发展走势的预知能力和对技术的精研,它在商业市场上屡获成功,财报就是最好的证明:Soitec 2020财年销售额达到6亿欧元,年增长率为28%,是过去三年销售额增长的2.5倍;EBITDA利润率为31%,在过去三年间增长了4.5倍。

Soitec的优化衬底到底有什么魅力?它为什么能够在商业市场获得成功?在最近的一次发布会上,Soitec全球战略执行副总裁Thomas Piliszczuk和中国区战略发展总监张万鹏就技术、公司战略和市场合作方面做了介绍,也从某个层面解答了上述问题。

Soitec这么做优化衬底

对于Soitec这家半导体产业链最上游的公司,国内仍然有很多人不熟悉。

作为一家老牌法国衬底厂商,它主要在做的是工程衬底,即将不同材料进行堆叠以生产出产品。Smart Cut、Smart Stacking和外延是其三项独具特色的技术,因此经由它之手生产出的衬底产品,常常被称为优化衬底,以区别于一般工程衬底。

其中,Smart Cut尤为重要,它是Soitec的技术灵魂。

Thomas解释说,“针对不同的应用,我们会在不同的衬底材料上用Smart Cut技术来设计优化衬底,保证不同应用中的材料厚度和其它电气特性等,这就是关键。”

图 | Soitec全球战略执行副总裁Thomas Piliszczuk

工程衬底的好坏优劣,尤其是产品的性能和良率,很大程度上取决于公司的技术和工艺,这也是衬底厂商的差异所在,而Soitec就以独具一格的Smart Cut技术著称。

高通看中的也正是这一点,“确保高性能POI衬底的供应,对满足OEM客户在高性能ultraSAW射频滤波器产品上的需求至关重要。通过Soitec基于Smart Cut技术的POI衬底,与高通滤波器的设计和系统相结合,可以保证带有多滤波器功能的多工器芯片的高良率。”

当然,仅仅有技术并不意味着可以确保良率,在人才、创新、供应链管理和运营上投入和把控,Soitec认为必不可少。

“去年我们在创新方面总投入是4500万欧元,在运营方面也做了很多资本性的投资,去年总的资本性投资超过了1亿欧元。”

毋庸置疑,这也是它能够给客户带来信心的关键因素之一。

面向产业链上下游,帮助客户从材料层面解决产品问题

Soitec目前关注和提供服务的应用方向主要集中在智能手机、汽车、物联网数据中心四大块,即为这四大领域的厂商提供服务和解决方案。

但是对这家上游材料厂商,我们容易有的最大误解就是,它只与其芯片OEM厂商合作。

对此,Soitec否认了这一点。

它表示,相比于仅仅与其关系最为紧密的OEM厂商合作,它更加看中自己在产业生态中的参与度,简单来说,就是要与上下游设计、制造等各个环节厂商交流并达成合作。

在这一点上,张万鹏做了强调,“我们会继续和产业链的合作伙伴加强合作,这里的合作伙伴不仅仅是指集成电路的制造厂,还包括5G、汽车、人工智能、物联网、云服务、大数据,甚至通讯基础设施的系统厂商以及设计公司,了解他们的需求。我们希望能够帮助产业合作伙伴解决其在设计、制造和整个系统层面中遇到的问题,实现双赢。”

图 | Soitec中国区战略发展总监张万鹏

尤其是5G、汽车等产业的新型设计上,Soitec表示特别愿意为上游芯片设计厂商在材料设计上的创新提供方案和技术参考。

“我们愿意向客户提供不同的优化衬底产品,让客户将其与他们的设备或者模块进行集成、配合、优化以达到更好的元器件和模块表现。”

诚然,创新离不开对技术和材料认识上的远见。在这方面,Soitec也从未停止过对材料研发和落地的投入,持续强化自己的能力。

“在过去的20多年中,我们一直和欧洲和亚洲的研究机构合作开发未来的新材料和新技术,如化合物材料、以蓝宝石为衬底的氮化铟镓和压电材料等。我们会继续专注在能改变产业的新材料和新技术研发,使它们如RF-SOI一样成为行业标准。”

新财年新布局:SiC与汽车的未来

2020年,Soitec宣布开始正式加速对汽车行业的材料布局。

不久前,它特别任命了中国区战略发展总监一职,目的也就是为了更好地拥抱国内汽车市场的产业链。

但正如我们所知,汽车市场已经疲软了近两年,尤其是受疫情和整体汽车市场格局的变动,整个汽车市场在很长一段时间都难恢复快速增长态势,现在进入会不会为时过早?

从材料厂商的角度来看,Soitec认为汽车走向智能化、电动化的大势已定,而现在进入正是最好的时机。

据张万鹏介绍,目前汽车行业的大趋势是CASE——互联、自动化、共享和电动化。至2030年,5G汽车的销量会达到1600万,自动化驾驶L3及以上车型销量会达到700万辆,电动汽车则会达到2300万辆。

技术迭代驱动产业变革,统计数据显示,三年前电子系统在整车的成本占比大约为20%,至2030年预计将会增长到50%。这一变化将会为芯片、材料等细分领域创造大量的机会,这是Soitec所看重的。

“我们准备了一系列优化衬底产品组合来服务汽车产业创新,除了用于5G RF前端模块的RF-SOI、用于5G滤波器的POI、用于数据模拟以及射频的SoC集成的FD-SOI,我们还有复合半导体产品,比如碳化硅和氮化镓。”

以FD-SOI产品为例,它已经应用到很多汽车系统中。张万鹏提到,Arbe Robotics公司的4D成像雷达就是基于其22纳米FD-SOI实现的,Mobileye Eye Q4的视觉处理器则采用的是28纳米FD-SOI。

最后

正如一开始介绍的,Soitec是一家布局未来的公司。它的成功离不开对行业发展的预判,尤其是对技术发展走势的判断。

在采访中,Thomas也指出了这一点,“对于趋势的预测,是我们这个行业能够获得成功的重要能力。我们大概是十年之前开始考虑关于射频技术的新方案,基于当时趋势的判断开发了射频RF-SOI。我们开始考虑低功耗计算的需求大概也是在十年之前,因此布局了FD-SOI。大概五年前,我们了解到市场对新型RF滤波器有相关需求,所以我们当时就开始着手研发POI的技术,今年预计这方面业务也会有比较好的增长。”

当然他提到这样的预测也不尽然准确,但Soitec的投入、专注和开放,显然加固了这一能力,也让它变得更为可靠。

本文参与 腾讯云自媒体同步曝光计划,分享自微信公众号。
原始发表:2020-07-13,如有侵权请联系 cloudcommunity@tencent.com 删除

本文分享自 镁客网 微信公众号,前往查看

如有侵权,请联系 cloudcommunity@tencent.com 删除。

本文参与 腾讯云自媒体同步曝光计划  ,欢迎热爱写作的你一起参与!

评论
登录后参与评论
暂无评论
推荐阅读
编辑精选文章
换一批
PyTorch多GPU并行训练方法及问题整理
以下都在Ubuntu上面进行的调试, 使用的Ubuntu版本包括14, 18LST
公众号机器学习与AI生成创作
2020/09/14
15.1K0
PyTorch多GPU并行训练方法及问题整理
深入理解Pytorch中的分布式训练
作者:台运鹏 (正在寻找internship...) 主页:https://yunpengtai.top
zenRRan
2023/01/12
1.5K0
深入理解Pytorch中的分布式训练
【Ubuntu】分布式训练/pycharm远程开发
摸到了组里配备的多卡服务器,对于一个习惯单卡环境的穷学生来说,就像是鸟枪换炮,可惜这炮一时还不会使用,因此就有了此番学习。
zstar
2022/10/08
2.1K0
【Ubuntu】分布式训练/pycharm远程开发
Pytorch 多卡并行训练
DataParallel 使用起来非常方便,我们只需要用 DataParallel 包装模型,再设置一些参数即可。需要定义的参数包括:参与训练的 GPU 有哪些,device_ids=gpus;用于汇总梯度的 GPU 是哪个,output_device=gpus[0] 。DataParallel 会自动帮我们将数据切分 load 到相应 GPU,将模型复制到相应 GPU,进行正向传播计算梯度并汇总:
为为为什么
2022/08/09
4.2K0
Pytorch 多卡并行训练
当代研究生应当掌握的并行训练方法(单机多卡)
每天给你送来NLP技术干货! ---- 排版:AI算法小喵 1. Take-Away 笔者使用 PyTorch 编写了不同加速库在 ImageNet 上的使用示例(单机多卡)。需要的同学可以当作 quickstart 将所需要的部分 copy 到自己的项目中(Github 请点击下面链接): nn.DataParallel[1] 简单方便的 nn.DataParallel torch.distributed[2] 使用 torch.distributed 加速并行训练 torch.multiprocessi
zenRRan
2022/08/26
1.7K0
当代研究生应当掌握的并行训练方法(单机多卡)
【AI大模型】训练Al大模型
应用领域 首先来谈一谈大模型的·成就 大模型已经在许多应用领域取得了显著的成果,包括:
洁洁
2023/10/10
1.1K0
【AI大模型】训练Al大模型
PyTorch分布式训练进阶:这些细节你都注意到了吗?
导语 | pytorch作为目前主流的深度学习训练框架之一,可以说是每个算法同学工作中的必备技能。此外,pytorch提供了极其方便的API用来进行分布式训练,由于最近做的工作涉及到一些分布式训练的细节,在使用中发现一些之前完全不会care的点,现记录于此,希望对有需求的同学有所帮助。 本文包含: pytorch分布式训练的工作原理介绍。 一些大家平时使用时可能不太注意的点,这些点并不会导致直观的bug或者训练中断,但可能会导致训练结果的偏差以及效率的降低。 同时结合某些场景,介绍更为细粒度(group)的
腾讯云开发者
2022/05/13
1.1K0
PyTorch分布式训练进阶:这些细节你都注意到了吗?
PyTorch中的多GPU训练:DistributedDataParallel
在pytorch中的多GPU训练一般有2种DataParallel(DP)和DistributedDataParallel(DDP) ,DataParallel是最简单的的单机多卡实现,但是它使用多线程模型,并不能够在多机多卡的环境下使用,所以本文将介绍DistributedDataParallel,DDP 基于使用多进程而不是使用多线程的 DP,并且存在 GIL 争用问题,并且可以扩充到多机多卡的环境,所以他是分布式多GPU训练的首选。
deephub
2022/11/11
1.3K0
PyTorch中的多GPU训练:DistributedDataParallel
[源码解析] PyTorch分布式(5) ------ DistributedDataParallel 总述&如何使用
本文是 PyTorch 分布式系列的第五篇,以几篇官方文档的翻译为基础,加入了自己的一些思考,带领大家进入DistributedDataParallel,在后续会用5~6篇左右做深入分析。
罗西的思考
2021/11/18
2.3K0
[源码解析] PyTorch分布式(5) ------ DistributedDataParallel 总述&如何使用
[源码解析] PyTorch 分布式(17) --- 结合DDP和分布式 RPC 框架
在前面的文章之中,我们已经学习了PyTorch 分布式的基本模块,接下来我们通过几篇文章来看看如何把这些模块应用到实践之中,顺便把PyTorch分布式逻辑整体梳理一下。本文介绍如何把DDP和RPC framework结合起来。
罗西的思考
2021/12/17
6330
[源码解析] PyTorch 分布式(17) --- 结合DDP和分布式 RPC 框架
[源码解析] PyTorch 分布式(11) ----- DistributedDataParallel 之 构建Reducer和Join操作
因为前文已经围绕Reducer相关的各种成员变量做了相关分析,所以本文开始做动态逻辑分析,目的是:把前面几篇文章串联起来,为后面分析前向传播和反向传播设定基础。
罗西的思考
2021/11/29
1.5K0
batch-compute & GPU分布式机器学习
当用户提交一些机器学习任务时,往往需要大规模的计算资源,但是对于响应时间并没有严格的要求。在这种场景下,首先使用腾讯云的batch-compute(批量计算)产品来自动化提交用户的任务,然后使用分布式+gpu的方式解决算力问题,在任务完成后通知用户,是一个可行的解决方案。
用户7480322
2020/07/17
1.2K0
class torch.nn.parallel.DistributedDataParallel()
torch.nn.parallel.DistributedDataParallel(module, device_ids=None, output_device=None, dim=0, broadcast_buffers=True, process_group=None, bucket_cap_mb=25, find_unused_parameters=False, check_reduction=False)[source]
狼啸风云
2020/05/11
1.9K0
[源码解析] PyTorch 分布式(2) ----- DataParallel(上)
DataParallel 从流程上来看,是通过将整个小批次(minibatch)数据加载到主线程上,然后将子小批次(ub-minibatches)数据分散到整个GPU网络中来工作。
罗西的思考
2021/11/11
1.2K0
[源码解析] PyTorch 分布式(2) ----- DataParallel(上)
PyTorch分布式训练简介
分布式训练已经成为如今训练深度学习模型的一个必备工具,但pytorch默认使用单个GPU进行训练,如果想用使用多个GPU乃至多个含有多块GPU的节点进行分布式训练的时候,需要在代码当中进行修改,这里总结一下几种使用pytorch进行分布式训练的方式。
狼啸风云
2020/02/13
5.1K0
大模型的实践应用-大语言模型的分布式训练并行策略,数据并行原理
大家好,我是微学AI,今天给大家介绍一下大模型的实践应用14-大语言模型的分布式训练并行策略,数据并行原理。大语言模型的分布式训练并行策略主要通过数据并行来实现。数据并行是指将训练数据划分为多个小批量, 然后将这些小批量分配给不同的计算设备进行并行处理。通过数据并行的并行策略,每个计算设备都可以独立地计算小批量数据的梯度,并将结果进行聚合,从而实现模型的并行训练。这种分布式训练策略可以加速大语言模型的训练过程,并提高模型的性能和效果。
微学AI
2025/05/29
2190
大模型的实践应用-大语言模型的分布式训练并行策略,数据并行原理
Pytorch 分布式训练
即进程组。默认情况下,只有一个组,一个 job 即为一个组,也即一个 world。
肉松
2020/09/07
2.6K0
Pytorch 分布式训练
DeepSpeed大模型分布式训练
iResearch666
2023/09/13
1K0
DeepSpeed大模型分布式训练
【他山之石】“最全PyTorch分布式教程”来了!
“他山之石,可以攻玉”,站在巨人的肩膀才能看得更高,走得更远。在科研的道路上,更需借助东风才能更快前行。为此,我们特别搜集整理了一些实用的代码链接,数据集,软件,编程技巧等,开辟“他山之石”专栏,助你乘风破浪,一路奋勇向前,敬请关注。
马上科普尚尚
2020/12/15
3.3K0
【他山之石】“最全PyTorch分布式教程”来了!
万亿参数背后的算力密码:大模型训练的分布式架构与自动化运维全解析
在人工智能技术高速发展的当下,AI 大模型凭借其强大的学习能力和泛化能力,已成为推动各领域变革的核心力量。深度学习作为 AI 大模型的技术基石,通过构建多层神经网络实现复杂模式识别;分布式计算解决了大模型训练所需的海量算力问题;自动化技术则大幅提升了模型开发、部署及应用的效率。三者深度融合,正在重塑整个 AI 生态。
羑悻的小杀马特.
2025/05/25
1640
万亿参数背后的算力密码:大模型训练的分布式架构与自动化运维全解析
推荐阅读
相关推荐
PyTorch多GPU并行训练方法及问题整理
更多 >
领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档