前往小程序,Get更优阅读体验!
立即前往
首页
学习
活动
专区
圈层
工具
发布
首页
学习
活动
专区
圈层
工具
MCP广场
社区首页 >专栏 >微软的DaaS服务Azure RemoteApp浮出水面

微软的DaaS服务Azure RemoteApp浮出水面

作者头像
静一
发布于 2018-03-19 06:50:04
发布于 2018-03-19 06:50:04
6950
举报
文章被收录于专栏:云计算D1net云计算D1net

Satya Nadella 说微软会坚持“mobile first,cloud first”策略,而昨天的 TechEd 2014 大会上,微软就发布了一项呼应这一策略的服务,即微软的 DaaS(Desktop-as-a-Service)服务,名为 Azure RemoteApp。

Azure RemoteApp 可以为新的设备和系统(比如 Mac, Android, iOSWindows Phone 8.1)提供运行桌面应用的能力,你需要的是一个 Azure 账号和下载一个客户端 App,就可以通过该服务向不同的设备和系统内部署应用,不需要自己购买本地的服务器

目前该预览版是免费的,但得为 Azure 的计算和存储资源付费,最终微软会为该服务定价几何还不得而知。今年年底的时候,微软会发布该服务的正式版。而微软并不是第一个吃螃蟹的人,他在这一领域的竞争对手有Amazon和收购了Desktone的老牌虚拟化解决方案服务商 VMware 。

本文参与 腾讯云自媒体同步曝光计划,分享自微信公众号。
原始发表:2014-05-14,如有侵权请联系 cloudcommunity@tencent.com 删除

本文分享自 云计算D1net 微信公众号,前往查看

如有侵权,请联系 cloudcommunity@tencent.com 删除。

本文参与 腾讯云自媒体同步曝光计划  ,欢迎热爱写作的你一起参与!

评论
登录后参与评论
暂无评论
推荐阅读
编辑精选文章
换一批
赶超Gemini Pro,提升推理、OCR能力的LLaVA-1.6太强了
去年 4 月,威斯康星大学麦迪逊分校、微软研究院和哥伦比亚大学研究者共同发布了 LLaVA(Large Language and Vision Assistant)。尽管 LLaVA 是用一个小的多模态指令数据集训练的,却在一些样本上展示了与 GPT-4 非常相似的推理结果。10 月,LLaVA-1.5 重磅发布,通过对原始 LLaVA 的简单修改,在 11 个基准上刷新了 SOTA。
机器之心
2024/02/06
7700
赶超Gemini Pro,提升推理、OCR能力的LLaVA-1.6太强了
挑战GPT-4V,浙大校友推出开源版多模态大模型,获GitHub 6k+星标
LLaVA在11个测试数据集上都成为了SOTA,在GitHub上更是斩获6k+星标。
量子位
2023/10/18
2770
挑战GPT-4V,浙大校友推出开源版多模态大模型,获GitHub 6k+星标
威大哥大等联合发文!最新多模态大模型LLaVA问世,水平直逼GPT-4
---- 新智元报道   编辑:拉燕 【新智元导读】微软&哥大联合发表视觉指令微调论文,LLaVA出炉! 视觉指令微调火了。 这篇论文名为Visual Instruction Tuning,由威斯康星大学麦迪逊分校,微软研究院和哥伦比亚大学共同出品。 作者包括Haotian Liu,Chunyuan Li,Qingyang Wu和Yong Jae Lee。 同时,研究人员也在GitHub上开源了他们的代码、模型和数据集。论文也发布在了Arxiv上。 讲解 那么LLaVA的功能究竟是什么呢?如果一头
新智元
2023/05/09
4330
威大哥大等联合发文!最新多模态大模型LLaVA问世,水平直逼GPT-4
GPT-4V开源平替!清华浙大领衔,LLaVA、CogAgent等开源视觉模型大爆发
然而,如果想在不影响性能的前提下,寻求具有成本效益的替代方案,开源方案就蕴藏着无限可能。
新智元
2024/01/04
1.2K0
GPT-4V开源平替!清华浙大领衔,LLaVA、CogAgent等开源视觉模型大爆发
媲美GPT-4V,仅使用1.2M数据、8个A100,一天内完成训练,LLaVA-1.5刷新11个基准SOTA
十几天前,OpenAI 为 ChatGPT 添加了图像识别功能,允许用户使用上传一张或多张图像配合进行对话。从 OpenAI 自己公开的简短文档,我们得知, ChatGPT 识图功能的背后是一个名为 GPT-4V 的新款大模型。
机器之心
2023/10/10
4910
媲美GPT-4V,仅使用1.2M数据、8个A100,一天内完成训练,LLaVA-1.5刷新11个基准SOTA
字节提出 LLaVA-OneVision :首个突破多模态模型性能瓶颈的开源大型模型 !
人工智能的核心愿望之一就是构建具有大规模视觉语言模型的通用助手[67]。LLaVA-OneVision是一个开源模型,致力于推进构建具有大规模视觉语言助手的(LLaVA)[83]研究,该助手可以适应各种指令,在野外完成各种计算机视觉任务。作为一种既省钱又高效的做法,它通常通过连接视觉编码器与大规模语言模型(LLM)来实现。
AIGC 先锋科技
2024/08/14
1.4K0
字节提出 LLaVA-OneVision :首个突破多模态模型性能瓶颈的开源大型模型 !
LeCun谢赛宁首发全新视觉多模态模型,等效1000张A100干翻GPT-4V
大多数人类知识,也都是通过视觉、听觉、触觉、味觉和嗅觉等感官体验,以及与物理世界的交互所获得。
新智元
2024/06/27
2580
LeCun谢赛宁首发全新视觉多模态模型,等效1000张A100干翻GPT-4V
3B模型不输7B LLaVA!北大多模态MoE模型登GitHub热榜
北大联合中山大学、腾讯等机构推出的新模型MoE-LLaVA,登上了GitHub热榜。
量子位
2024/02/22
6570
3B模型不输7B LLaVA!北大多模态MoE模型登GitHub热榜
定制你的多模态模型:Yo’LLaVA 模型在视觉问题解答中的贡献 !
图1:仅给出一个新颖主题(例如,一只名叫的狗)的几张图片,Yo’LLaVA就能学会围绕该主题促进文本/视觉对话。
AIGC 先锋科技
2024/07/09
2230
定制你的多模态模型:Yo’LLaVA 模型在视觉问题解答中的贡献 !
将多模态大模型稀疏化,3B模型MoE-LLaVA媲美LLaVA-1.5-7B
对于大型视觉语言模型(LVLM)而言,扩展模型可以有效提高模型性能。然而,扩大参数规模会显著增加训练和推理成本,因为计算中每个 token 都会激活所有模型参数。
机器之心
2024/02/06
2440
将多模态大模型稀疏化,3B模型MoE-LLaVA媲美LLaVA-1.5-7B
中科大 & 阿里 开源 GeoGPT4V 数据集,提升了各种类型和模型的跨模态几何能力!
随着大型语言模型(LLM)展现出强大的性能,其在解决数学问题方面的应用变得越来越流行(Toshniwal等人,2024年;Wang等人,2023年;Gou等人,2023年;Wang等人,2023a年)。先前的研究表明,人类在没有视觉辅助的情况下解决几何问题时,准确性会显著降低(Chen等人,2021年)。因此,将图像中的视觉信息整合进来对于准确解决这类数学问题至关重要,这需要多模态大型语言模型(MLLM)的视觉感知能力。然而,即使是现在可用的最好的MLLM,Gemini 在几何能力方面仍显著落后于人类表现。因此,研究行人正急于探索提升MLLM几何能力的方法。
AIGC 先锋科技
2024/07/08
8230
中科大 & 阿里 开源 GeoGPT4V 数据集,提升了各种类型和模型的跨模态几何能力!
AWS 提出 TAP-VL: 针对增强视觉语言模型的文本布局感知预训练 !
大型视觉语言(VL)模型已成为人工智能领域的一个关键研究领域,在多模态推理方面取得了显著进展。这些架构通过将视觉编码器与大型语言模型(LLM)通过翻译模块集成,在视觉和文本数据之间建立桥梁。这个模块将视觉编码器投影到文本嵌入空间。
AIGC 先锋科技
2024/12/19
1430
AWS 提出 TAP-VL: 针对增强视觉语言模型的文本布局感知预训练 !
在视觉提示中加入「标记」,微软等让GPT-4V看的更准、分的更细
最近一段时间,我们见证了大型语言模型(LLM)的显著进步。特别是,生成式预训练 Transformer 或 GPT 的发布引领了业界和学术界的多项突破。自 GPT-4 发布以来,大型多模态模型 (LMM) 引起了研究界越来越多的兴趣,许多工作致力于构建多模态 GPT-4。
机器之心
2023/10/24
4060
在视觉提示中加入「标记」,微软等让GPT-4V看的更准、分的更细
揭秘AI幻觉:GPT-4V存在视觉编码漏洞,清华联合NUS提出LLaVA-UHD
GPT-4V 的推出引爆了多模态大模型的研究。GPT-4V 在包括多模态问答、推理、交互在内的多个领域都展现了出色的能力,成为如今最领先的多模态大模型。
机器之心
2024/04/12
1350
揭秘AI幻觉:GPT-4V存在视觉编码漏洞,清华联合NUS提出LLaVA-UHD
熔岩羊驼LLaVA来了:像GPT-4一样可以看图聊天,无需邀请码,在线可玩
机器之心报道 编辑:赵阳 尽管 LLaVA 是用一个小的多模态指令数据集训练的,但它在一些示例上展示了与多模态模型 GPT-4 非常相似的推理结果。 GPT-4 的识图能力什么时候能上线呢?这个问题目前依然没有答案。 但研究社区已经等不及了,纷纷自己上手 DIY,其中最火的是一个名为 MiniGPT-4 的项目。MiniGPT-4 展示了许多类似于 GPT-4 的能力,例如生成详细的图像描述并从手写草稿创建网站。此外,作者还观察到 MiniGPT-4 的其他新兴能力,包括根据给定的图像创作故事和诗歌,提供
机器之心
2023/05/01
2670
熔岩羊驼LLaVA来了:像GPT-4一样可以看图聊天,无需邀请码,在线可玩
Power-LLaVA:大语言模型结合视觉技术,提升检测效率 !
在过去的几年中,电力输电线路巡检领域取得了显著的进展,这主要得益于深度学习技术的应用。例如,DF-YOLO[1]通过结合可变形卷积(DCN)和SimAM注意力机制来提升原始YOLOv7-tiny的性能,有效提高了输电线路外来物检测的准确性。GA-Net[2]采用遗传算法(GA)和空间到深度(SPD)卷积方法来改进原始的YOLOv7,有效提高了准确性和收敛速度。然而,当前方法在泛化和智能方面存在局限性,在面临多样化和复杂的应用场景时,性能并不理想[18]。
AIGC 先锋科技
2024/08/08
2790
Power-LLaVA:大语言模型结合视觉技术,提升检测效率 !
多模态LLM多到看不过来?先看这26个SOTA模型吧
当前 AI 领域的关注重心正从大型语言模型(LLM)向多模态转移,于是乎,让 LLM 具备多模态能力的多模态大型语言模型(MM-LLM)就成了一个备受关注的研究主题。
机器之心
2024/02/06
4610
多模态LLM多到看不过来?先看这26个SOTA模型吧
超越GPT-4!华人团队爆火InstructBLIP抢跑看图聊天,开源项目横扫多项SOTA
---- 新智元报道   编辑:桃子 拉燕 【新智元导读】碾压GPT-4识图能力的多模态生成模型来了。华人团队最新提出的InstructBLIP在多项任务上实现SOTA。 GPT-4看图聊天还没上线,就已经被超越了。 近来,华人团队开源了多模态基础模型InstructBLIP,是从BLIP2模型微调而来的模型。 BLIP家族中增加了一个新成员:InstructBLIP 据介绍,InstructBLIP模型更擅长「看」、「推理」和「说」,即能够对复杂图像进行理解、推理、描述,还支持多轮对话等。 比如
新智元
2023/05/15
5620
超越GPT-4!华人团队爆火InstructBLIP抢跑看图聊天,开源项目横扫多项SOTA
医学多模态大模型LLaVA-Med | 基于LLaVA的医学指令微调
单模态文本在生物医学领域的研究已经取得了显著的成果,而多模态对话人工智能则通过利用来自公共网络的数十亿个图像-文本对取得了快速进展。然而,这些通用领域的视觉-语言模型在理解和对话生物医学图像方面仍然缺乏复杂性。 因此,本文提出了一种成本效益高的方法,用于训练一种能够回答生物医学图像开放性研究问题的视觉-语言对话助手。
AiCharm
2023/07/26
2.5K0
医学多模态大模型LLaVA-Med | 基于LLaVA的医学指令微调
高效轻量级LLM | Imp模型,通过低比特量化分辨率和降低实现高通骁龙8Gen3 芯片高性能部署 !
4B规模下能力极高的LMMs。 值得注意的是,作者的Imp-3B模型在所有现有相似规模的轻量级LMMs中表现稳定地超越,甚至超过了13B规模下的最先进LMMs。 通过低比特量化技术和分辨率降低技术,作者的Imp模型可以部署在高通骁龙8Gen3移动芯片上,具有高达约13个 Token /秒的高推理速度。
AIGC 先锋科技
2024/07/08
3010
高效轻量级LLM | Imp模型,通过低比特量化分辨率和降低实现高通骁龙8Gen3 芯片高性能部署 !
推荐阅读
赶超Gemini Pro,提升推理、OCR能力的LLaVA-1.6太强了
7700
挑战GPT-4V,浙大校友推出开源版多模态大模型,获GitHub 6k+星标
2770
威大哥大等联合发文!最新多模态大模型LLaVA问世,水平直逼GPT-4
4330
GPT-4V开源平替!清华浙大领衔,LLaVA、CogAgent等开源视觉模型大爆发
1.2K0
媲美GPT-4V,仅使用1.2M数据、8个A100,一天内完成训练,LLaVA-1.5刷新11个基准SOTA
4910
字节提出 LLaVA-OneVision :首个突破多模态模型性能瓶颈的开源大型模型 !
1.4K0
LeCun谢赛宁首发全新视觉多模态模型,等效1000张A100干翻GPT-4V
2580
3B模型不输7B LLaVA!北大多模态MoE模型登GitHub热榜
6570
定制你的多模态模型:Yo’LLaVA 模型在视觉问题解答中的贡献 !
2230
将多模态大模型稀疏化,3B模型MoE-LLaVA媲美LLaVA-1.5-7B
2440
中科大 & 阿里 开源 GeoGPT4V 数据集,提升了各种类型和模型的跨模态几何能力!
8230
AWS 提出 TAP-VL: 针对增强视觉语言模型的文本布局感知预训练 !
1430
在视觉提示中加入「标记」,微软等让GPT-4V看的更准、分的更细
4060
揭秘AI幻觉:GPT-4V存在视觉编码漏洞,清华联合NUS提出LLaVA-UHD
1350
熔岩羊驼LLaVA来了:像GPT-4一样可以看图聊天,无需邀请码,在线可玩
2670
Power-LLaVA:大语言模型结合视觉技术,提升检测效率 !
2790
多模态LLM多到看不过来?先看这26个SOTA模型吧
4610
超越GPT-4!华人团队爆火InstructBLIP抢跑看图聊天,开源项目横扫多项SOTA
5620
医学多模态大模型LLaVA-Med | 基于LLaVA的医学指令微调
2.5K0
高效轻量级LLM | Imp模型,通过低比特量化分辨率和降低实现高通骁龙8Gen3 芯片高性能部署 !
3010
相关推荐
赶超Gemini Pro,提升推理、OCR能力的LLaVA-1.6太强了
更多 >
领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档