利用声光子间特有性质,悉尼大学研究团队研制出光子芯片存储和传输技术。 量子计算机想要成为现实,其中的一大难点就在于如何实现对量子的操纵。最近集成电路中相干声振动声子的控制和操纵引起了极大的关注,因为声子可以作为射频和光信号之间的链接,为量子之间的通信提供通道,并且它是一种先进的信号处理方式。 早前,已经存在基于光的操作,实现对光的存储,但是受限于带宽限制,真正达到对光子的处理一直没有实现。 近日,在《自然通讯》杂志上的一篇文章详细描述了澳大利亚悉尼大学的研究团队所做的工作,在这项工作中,他们演示了具有千兆赫
来源:专知本文为教程介绍,建议阅读5分钟来自普渡大学研究学者讲述了《通过大气湍流成像:理论、模拟和恢复》教程,值得关注。 CVPR 2022 线下会议将于 2022 年 6 月 21 日-24 日在美国新奥尔良举行。而今年投稿量创新高超过了一万,其中 2067 篇论文被接收。相关一系列教程从19号就开始了。来自普渡大学研究学者讲述了《通过大气湍流成像:理论、模拟和恢复》教程,200+页ppt值得关注。 通过大气湍流成像是计算机摄影、图像处理和计算机视觉领域发展最快的课题之一。在这个领域做研究的挑战是光学初
OFC 2018会议上,澳大利亚皇家理工大学展示了首款基于硅光的室内光学无线通信系统。本篇笔记主要介绍这篇进展以及梳理相关的知识点。
本文探讨了一种全新的脑机接口(BCI)的可行性,它可能带来新的技术、实验和临床应用。BCI是一种基于计算机的系统,它可以使活体大脑和外部机器之间进行单向或双向的通信。BCI读出大脑信号并将其转换成由机器执行的任务命令。在闭环中,机器可以用适当的信号刺激大脑。
Nature Photonics在6月份报道了MIT Marin Soljacic教授组的一篇最新进展(https://www.nature.com/nphoton/journal/vaop/ncurrent/full/nphoton.2017.93.html#supplementary-information)。他们在硅光芯片上,利用56个级联的Mach-Zehnder干涉仪,演示了两层结构的深度学习网络,并验证了对4个元音的识别,准确率为76.7%。这篇文章将两个研究热点,硅光(silicon photonics)和深度学习(deep learning)结合在一起,引起了很大的关注。
视点 发自 凹非寺 量子位 | 公众号 QbitAI 元宇宙产业的发展,正在将各种前沿领域技术汇集到一起,构建出下一代互联网的新形态。 正如互联网的准入级终端是PC,移动互联网的准入级终端是手机,那么下一代互联网,准入级终端或许就将是VR和AR设备。 VR终端或将承载深度元宇宙的交互,而AR终端的普及或将让元宇宙技术走向千家万户。 AR设备,尽管外形看来极度接近于普通眼镜,但其核心的光学显示部分,也就是光学模组,让它成为最有希望叩开元宇宙大门的“低门槛”终端。 6月16日,量子位发起的「量子位·视点」CEO
最近,比尔·盖茨等人(包括Uber的CEO和Co-founder)投资了光学AI芯片初创公司Luminous Computing,该公司获得了900万美金的投资,具体细节可参看CNBC的报道https://www.cnbc.com/2019/06/03/bill-gates-and-travis-kalanick-invest-in-ai-chip-start-up-luminous.html。小豆芽查阅了一些相关的文献,借助这篇笔记简单介绍下Luminous Computing的光学AI芯片技术。
今年的 OFC 大会,让光通信技术的新进展再次成为了全球瞩目的焦点。其中,100G ZR 可插拔设备的显著进步尤为引人关注,预计它将在边缘计算领域发挥更加重要的作用。
Nature昨天刊登了德国明斯特大学的一篇最新进展,研究人员在光芯片上实现了脉冲神经网络(spike neural network)。先睹为快,这篇笔记主要介绍下这篇进展。研究人员将氮化硅波导与相变材料结合,实现了监督式和非监督式的机器学习,并演示了对15个像素图片的模式识别。
(VRPinea 8月29日讯)以“虚实共元”为主题的AWE Asia 2022产业博览会于8月26日于上海阿纳迪酒店隆重开幕。影创科技CEO孙立出席开幕式并作为首位演讲嘉宾,为观众带来了《不只是玩游戏!扩展现实将成为下一代生产力工具》主题演讲。
NVIDIA 在 JetPack 开发环境中,提供的两套非常完整的与视觉技术相关的开发工具包,分别是 VisionWorks 与 MultiMedai API,这两个开发工具包不仅在电脑视觉(Computer Vision)中占据非常重要的分量,也在深度学习的视觉应用中扮演十分重要的角色。
Intel在硅光领域耕种多年,最近他们和加州伯克利大学合作,提出了一种容差性更好的光学神经网络架构。该文章发表于Optics Express, 标题为 “Design of optical neural networks with component imprecisions ”。关于Intel的硅光技术,可参看小豆芽之前的笔记 Intel的硅光子技术和Intel演示400G硅光模块 。需要注意的是,这篇文章中Intel的参与者是Intel的AI技术人员,而不是来自其硅光部门。
公众号的第一篇笔记基于硅光芯片的深度学习 介绍了MIT研究组在硅光芯片上实现机器学习的实验进展。一年多之后,7月份以来又有好几篇相关的进展报道。这一篇笔记主要深入介绍下其中两篇,分别是 Optica 5, 864 (2018) Training of photonic neural networks through in situ backpropagation and gradient measurement 和 APL Photonics 3, 106101 (2018)Design, fabrication, and metrology of 10*100 multi-planar integrated photonic routing manifolds for neural networks。
【新智元导读】 光学计算一直被计算机科学界寄予厚望 。光子具有比电子多得多的带宽,因此可以更快地处理更多的数据。但是光学数据处理系统的优点从未超过制造它们的额外成本,因此从未被广泛采用。近日,普林斯顿大学的研究员宣布开发出了世界上首个光电子神经网络芯片,有效硬件加速提升至少3个数量级。 神经网络正在以席卷之势占领计算世界。研究人员使用它们来创建机器,让机器学习大量的此前是人类特有的技能:对象识别,面部识别,自然语言处理,机器翻译等。所有这些技能,以及更多更多的技能,现在正成为机器的“标配”。 因此,创建
(VRPinea 3月1日讯)2月25日,世界移动通信大会(MWC 2021)在上海落下帷幕,受疫情影响,本次MWC是自疫情取消之后的首次重启。本次MWC大会改为线上+线下举办的方式,虽在参展人数及参展厂商数量方面都不如以往,但对于VR/AR行业来说,还是看点颇多。
安妮 编译自 Phys.org 量子位出品 | 公众号 QbitAI 深度学习计算机系统是基于人工神经网络(Artificial Neural Networks)模仿人脑学习方法的一种系统,现已成为计
最近几周接连有好几篇Nature子刊的论文,都是以硅光芯片为平台,实现了光量子的信息处理。借着这几篇最新进展,小豆芽整理下硅光芯片在量子光学领域的应用。
这篇笔记介绍一篇牛津大学在光子计算领域的最新进展,该文章发表于最新一期的Science Advances,标题为“In-memory computing on a photonic platform”。
(VRPinea 5月5日电)今日重点新闻:GDC Summer 将以完全数字化形式开启,8月4-6日举办;索尼演示全新VR控制器原型,支持手部全指追踪;Facebook Q1非广告收入达2.97亿美元,Oculus产品销量为主要来源。
2021年伊始,Nature杂志在同一期上刊登了两篇光学神经网络的最新进展,标题分别是:
随着2019年临近尾声,全面实现量子计算的旅程仍在继续:物理学家首次证明两个计算机芯片之间的量子隐形传态。
有些时候,人们形容网络的效率「不如卡车运硬盘」:亚马逊 AWS 就有一种名为 snowmobile 的服务,真的使用集装箱卡车,一次可以传输 100Pb。这种大号 U 盘传数据的体量可谓巨大,但也从另一个方面告诉我们,网络传输数据存在很大的瓶颈。
在眼科学、皮肤学、放射学和病理学等医学学科领域,深度学习前景广阔,可以用于提高世界各地患者高质量医疗保健的准确性和实用性。
Cumulus Networks表示,它推出了业界首创的转发器抽象接口,为转发器供应商提供更多的互操作性,并使数据中心互连技术更加开放。
苹果申请新专利,研发VR/AR设备光学显示系统 昨日,美国专利商标局公布了苹果申请的一项专利,该专利展示了一套“头戴式光学显示系统”。专利中详细地描述了这套光学系统的运作原理,并指出该系统既可用于V
IT之家 10 月 24 日消息,近日,丹麦技术大学 (DTU) 和瑞典哥德堡查尔姆斯理工大学的研究人员使用单个激光器和单个光学芯片实现了超过 1Pbit / s 的数据速率,团队使用一个光源在 37 芯、7.9 公里长的光纤上成功实现了 1.84Pbit / s 的传输速率。
由于超表面对入射光的相位、偏振和振幅的极端控制,因此具有革新成像技术的潜力。它们依靠增强的光的局部相互作用来实现所需的相位轮廓。由于光的局部相互作用增强,超表面是高度色散的。这种强分散被认为是实现常规超表面成像的主要限制。在这里,我们认为这种强色散为计算成像的设计自由度增加了一个程度,潜在地打开了新的应用。特别是,我们利用超表面的这种强分散特性,提出了一种紧凑、单镜头、被动的3D成像相机。我们的设备由一个金属工程,聚焦不同的波长在不同的深度和两个深度网络,恢复深度和RGB纹理信息从彩色,散焦图像获得的系统。与其他基于元表面的3D传感器相比,我们的设计可以在更大的视场(FOV)全可见范围内运行,并可能生成复杂3D场景的密集深度图。我们对直径为1毫米的金属的模拟结果表明,它能够捕获0.12到0.6米范围内的3D深度和纹理信息。
尽管组织工程和再生医学研究取得了很大的进步,但是在细胞培养过程中监测组织再生的形成及其代谢变化仍然具有很大的挑战性。本文提出了一种在细胞播种的3D支架中添加基于胶囊的光学传感器的简单方法,这些传感器可以在细胞生长期间监测pH值在空间和时间上的变化。
深度学习对算力的需求没有止境,但受制于能耗和物理极限,基于硅基的电子元件虽然现在还能支撑,但远处那堵几乎不可逾越的高墙已然显现。
最近,两家硅光芯片公司分别获得新一轮的投资,其中PsiQuatum公司获得2.15亿美金投资,而Lightelligence公司获得2600万美金投资。相关的中文报道链接是PsiQuantum融资和Lightelligence融资。在疫情肆虐的时节,这两条新闻格外引人关注,而且这两家公司都是利用硅光芯片去实现光计算,唯一的区别是前者致力于基于光子的量子计算,而后者是基于光子的深度学习计算。下面小豆芽就根据网上收集到的信息,简单介绍下这两家公司。
想象一下,你周围的任何东西,比如一个煎锅、一个玻璃镇纸,都可以用来当成神经网络的中央处理器,那是什么感觉?
这篇笔记主要介绍硅光芯片在量子光学领域的应用进展。这两篇工作都是由英国布里斯托大学O' Brien研究组及其合作人员完成(该研究组最先利用硅光芯片进行量子光学领域的研究,做出了许多开创性的工作)。两篇工作基本的思路是,在硅光芯片上产生纠缠光子对,并进行纠缠态的逻辑操作与投影测量(单光子探测器在芯片外)。这两篇工作分别发表在2018年3月份的Science与2018年8月份的Nature Photonics, 由此可见其意义重大。值得一提的是,两篇文章的第一作者都是中国人,是来自北京大学与国防科大的两位老师。
AI 科技评论按:本文译自 Google Blog,作者为 Google 大脑团队产品经理 Craig Mermel 和技术主管 Martin Stumpe。
ENVI软件是由美国ITT公司开发的一款基于遥感技术的图像处理软件,其具有多种高级遥感图像分析和处理功能,被广泛应用于地球科学、生态环境等领域。本论文将介绍ENVI软件的特色功能和使用方法,并以一个实例来演示ENVI软件的使用流程,包括其数据输入、遥感图像分析和处理等环节的操作步骤。最后,我们将对ENVI软件的优点和不足进行探讨。
当地时间 10 月 7 日,美国物理学会(APS)宣布,授予中国科学技术大学陆朝阳教授 2021 年度罗夫 · 兰道尔和查尔斯 · 本内特量子计算奖(Rolf Landauer and Charles H. Bennett Award in Quantum Computing),以表彰他在光学量子信息科学,特别是在固态量子光源、量子隐形传态和光量子计算方面的重要贡献。
3月1日,瑞立视将在北京召开“2017瑞立视全球品牌战略发布会”。 如果VR体验一直停留在坐在蛋椅上或者是只能一个人拿着手柄在小面积设备上走动的层面上的话,它将失去其真正的价值。这也应该是所有对VR体
英特尔在用于高速数据传输的硅光集成技术上取得了突破性进展。在2024年光纤通信大会(OFC)上,英特尔硅光集成解决方案(IPS)团队展示了业界领先的、完全集成的OCI(光学计算互连)芯粒,该芯粒与英特尔CPU封装在一起,可运行真实数据,双向数据传输速度达4 Tbps。面向数据中心和HPC应用,英特尔打造的OCI芯粒在新兴AI基础设施中实现了光学I/O(输入/输出)共封装,从而推动了高带宽互连技术创新。
萧箫 发自 凹非寺 量子位 | 公众号 QbitAI 你听说过Pancake吗? 不是最新的蛋糕品类,而是时下VR行业最受关注和期待的光学技术,甚至被称为“划时代的方案”。 据了解,Pancake光学方案的应用,能够给VR带来画面清晰度和产品纤薄度上“质”的飞跃,极大提升了传统VR设备的易用性和体验性,推动VR设备向消费端普及迈出了一大步。 有消息指出,VR领域巨头Meta对于Pancake光学方案兴趣浓厚,将在今年下半年的最新款VR产品上搭载使用; 苹果也一连申请了好几个专利,其中XR系列产品就与Panc
在某些领域中,物理学可以通过其他方法为机器学习做出贡献,而不是用于理论研究和领域特定问题的工具。新型硬件平台可以帮助建立昂贵的信息处理管道,并扩展CPU和GPU的数量限制功能。这种硬件帮助程序也称为“ AI加速器”,物理研究必须提供各种可能增强机器学习的设备。
近年来,数据中心技术的进化轨迹中,AI/ML 后端网络的扩张速度超乎我们的预见。今年的 OFC 大会无疑是对这一现象的最佳诠释:规模之宏大,前所未见。
进入2021年下半年以来,“元宇宙”一词火了起来。日本社交巨头GREE宣布将开展元宇宙业务;字节跳动斥巨资收购VR创业公司Pico;微软在Inspire全球合作伙伴大会上宣布了企业元宇宙解决方案……各大数字科技巨头纷纷入局,也让元宇宙成为当下最火爆的概念之一。
随着时代的发展,手机厂商为了提升手机性能可谓是绞尽脑汁。手机越来越薄,屏幕越来越大,摄像头也是从一个升级到了两个。以下内容纯属个人观点(要一个完全不懂摄像头的人写这种文章真的是太难了)那就先拿个目前的DxOMark排行来镇个楼。
开发具有一定价值的符号是人类特有的特征。对于人们来说识别这些符号和理解图片上的文字是非常正常的事情。与计算机那样去抓取文字不同,我们完全是基于视觉的本能去阅读它们。
中国科学技术大学潘建伟教授及其同事陆朝阳、刘乃乐等组成的研究团队在国际上首次实现量子机器学习算法。日前,国际权威物理学期刊《物理评论快报》发表了这一论文[Phys. Rev. Lett. 114, 110504 (2015)]。这是量子计算应用于大数据分析和人工智能领域的开创性实验工作。 论文地址:http://journals.aps.org/prl/abstract/10.1103/PhysRevLett.114.110504 机器学习是人工智能的核心,通过使机器模拟人类学习行为,智能化地从过去的经历中
本文介绍了如何在iOS设备上使用Depth Data来获取更准确的深度信息,以及如何使用该信息来改善照片的焦点和景深效果。同时,文章还介绍了在拍摄时如何调整相机设置以获得更好的深度效果。
前几天在arXiv看到题为“The European Quantum Technologies Roadmap”的文章,是一些大牛合写的。趁着周末有空拜读下,结合自己所涉及的量子光学领域,谈一谈对这些量子技术的认识。
选自MIT 作者:David Chandler 机器之心编译 参与:吴攀、黄小天、蒋思源 尽管科学家和研究者一直在探索新型的计算形式,但目前电子计算仍然是绝对的主流。随着以深度学习为代表的人工智能技术的兴起,人们也开始关注如何开发出能更有效、更高速地执行神经网络运算的计算硬件。近日,麻省理工学院(MIT)的研究者在 Nature Photonics 上发表的一篇论文《Deep learning with coherent nanophotonic circuits》提出了一种使用光子技术实现神经网络的方法
选自phys.org 作者:Lisa Zyga 机器之心编译 参与:吴攀、李亚洲 物理学家已经开发出了一种可以处理无限维度(infinite dimensions)的量子机器学习(quantum machine learning)算法,也就是说:该算法可以处理连续变量(在一个闭合区间内拥有无限多个可能值),而不是通常使用的离散变量(只有有限数量的值)。Hoi-Kwan Lau 等研究者已经将该研究的相关论文发表到了最新一期 Physical Review Letters 上。机器之心对该论文进行了摘要介绍
自我们第一次看到单个细胞以来,所发展的单细胞技术都是观察的艺术。从一开始用显微镜的光聚焦,到现在的捕获细胞里面的化学信号(多是核酸化学信号),都没有离开它观察者的属性,像我们对自身所处的广袤宇宙所采用的研究方法一样:看它,看它,看它。
领取专属 10元无门槛券
手把手带您无忧上云