在人工智能领域,知识推理技术是一个不断发展的重要分支,它关注于如何让计算机系统使用预先定义的知识库进行逻辑推理,以解决复杂问题。这种技术基于一系列成熟的理论和方法,从传统的符号逻辑推理发展到现代的图谱推理和机器学习融合方法。知识推理不仅涉及知识的有效表示和存储,还包括如何通过逻辑运算对这些知识进行处理和推导出新的知识。
当年作为核心SE在MindSpore团队从0到1构建了MindSpore Lite推理引擎,到去年知道的信息是现在在华为和荣耀手机上的AI能力都是基于Lite推理引擎,调用次数10亿/天。
本文节选整理自NVIDIA GTC讲座[S41607]: 自动光学检测(AOI)中采用的深度学习技术一直是制造业的热门话题。 然而,大多数项目都停留在概念验证阶段或仅部署在少数 AOI 机器上。 我们的分析发现,障碍通常与 AI 模型的准确性或性能无关,而是出于其他原因。 在制造检测中部署深度学习时,我们将解决这些障碍,以及 Jetson 平台如何帮助我们克服这些障碍。 根据我们的经验,制造商在采用人工智能技术方面面临障碍,这三点是我们从客户那里听到的最常见的原因。一是技能差距,客户没有新技术技能,二是对
在前沿AI大模型规模呈指数级增长的趋势下,仅凭单卡已经很难满足当下的推理需求。 就拿拥有1750亿参数的GPT-3来说。 仅仅是加载模型参数就需要数百GB的存储空间,远超单个GPU的容纳能力。 因此,多卡并行被视为AI大模型推理的必然选择。 但现有的推理系统仍旧存在不少弊端。 比如需要用户对通信、内存等各部分协作进行手动管理,需要额外编译等……导致用户使用门槛居高不下。 为此,大规模并行AI训练系统Colossal-AI团队提出了大模型推理系统Energon-AI。 以“高性能、高可用、可伸缩”的理念,深
文 | 传感器技术(WW_CGQJS) 12月15日,工信部正式印发了《促进新一代人工智能产业发展三年行动计划》,为2018年到2020年人工智能发展指明了前进的方向。计划中的重点内容是培育八项智能产品和四项核心基础,而智能传感器正排在核心基础的第一位,处于最基础最重要的地位。 万物相连技术链 传感器、大数据、机器学习、人工智能和机器人是怎样拧在一起了呢?在人工智能时代硬件和软件是共生演化的,彼此影响的呢? “物联网”、“大数据”和“机器人”等,其实这些趋势是相互联系在一起的,拧成一个大趋势, 在这个链条里
在农业场景,主要包括有作物管理、害虫和杂草处理、疾病管理、土壤管理、产量预测和管理等。作物管理,主要提供作物选择,施肥建议,使得作物免受恶劣天气影响等;害虫和杂草处理,即识别害虫和杂草,提供处理害虫和杂草的相关建议,推测害虫行进路线和繁殖规模和速度,推测杂草的生长状态和发展等;疾病管理,即预测、识别分类作物病害;土壤和作物管理,包括评估作物表面土壤湿度,预测天气,结合天气预测结果进行灌溉等;产量预测和管理,根据气候,季节等因素提供最佳播种时间建议,并预测最佳收成时间和最终产量等。其主要运用的AI技术最开始是基于规则的专家系统,发展到后来的模糊推理系统和人工神经网络的结合。主要涉及模式识别,图像识别等。
作者 | 丁效 整理 | 维克多 在过去十年的人工智能浪潮中,以深度学习为代表的人工智能技术已基本实现了视觉、听觉等感知智能,但依然无法很好地做到思考、推理等认知智能。 4月9日,哈尔滨工业大学计算学部副研究员丁效,在AI TIME青年科学家——AI 2000学者专场论坛上,做了《基于神经符号的认知推理方法》的报告,分享了神经网络方法执行符号推理任务的最新进展,同时也给出了将符号知识注入神经网络的思路以及如何将神经网络与符号系统相融合。 以下是演讲原文,AI科技评论做了不改变原意的整理。 今天和大家分享神
机器人和自动化越来越多地用于制造、农业、建筑、能源、政府和其他行业,但许多公司一直在努力将人工智能和深度学习的优势融入到最苛刻的应用中。 借助新的 NVIDIA Jetson AGX Xavier 工业模块,NVIDIA 使在安全性和可靠性至关重要的恶劣环境中的边缘部署 AI 成为可能。这种新型工业模块扩展了 Jetson AGX Xavier 系统级模块的功能,使开发人员能够构建先进的、支持 AI 的加固系统。Jetson AGX Xavier Industrial 专为最恶劣环境中的智能视频分析、光学检
本期将为大家介绍香港中文大学计算机科学与工程系 James Cheng 老师招收工程师和实习生相关信息。 Husky Data Lab 是由香港中文大学计算机科学与工程系 Prof. James Cheng 领导下的大数据实验室,专注于高性能数据分析系统和数据库的开发,研究成果已被应用于工业界多个大规模 / 高性能系统。 个人主页:https://www.cse.cuhk.edu.hk/~jcheng/ 目前,James Cheng 教授团队在开发 Ofnil 和 Graxy 两个平台: Ofnil gr
以AI知名的科技公司科大讯飞,2022全球1024开发者节上官宣最新技术成果和进展。
从工厂和农场到炼油厂和建筑工地,这些炎热、肮脏、嘈杂、潜在危险的地方却是保持工业繁荣至关重要的地方。而这些地方在日常运营的同时都需要检查和维护,但是,考虑到安全问题和工作条件,派人进驻并不总是最好的。
2023 年的 AI 产业可以用风起云涌来形容。ChatGPT 的横空出世让生成式 AI 技术一夜之间红遍全球,很多从未了解过人工智能的普通人也开始对大模型产生了浓厚的兴趣。媒体、调研机构纷纷推出长篇专题,论证 ChatGPT、StableDiffusion、Midjourney 等文本和图像大模型会对哪些行业产生颠覆式影响;甚至有很多员工和企业开始利用这些大模型提升日常工作中的生产力,乃至取代人类岗位。毫无疑问,2023 年将是大模型技术开始爆发的转折点,一场影响深远的技术革命正在徐徐拉开帷幕。
互联网时代,人类在与自然和社会的交互中生产了异常庞大的数据,这些数据中包含了大量描述自然界和人类社会客观规律有用信息。如何将这些信息有效组织起来,进行结构化的存储,就是知识图谱的内容。
---- 将 ScienceAI 设为星标 第一时间掌握 新鲜的 AI for Science 资讯 ---- 编辑 | 萝卜皮 科学家们的目标是发现能够准确描述实验数据的有意义的公式。自然现象的数学模型可以根据领域知识手动创建,或者也可以使用机器学习算法从大型数据集自动创建。学界已经研究了表示相关先验知识与相关函数模型合并的问题,认为寻找与一般逻辑公理先验知识一致的模型,是一个悬而未决的问题。 IBM 研究团队以及三星 AI 团队的研究人员开发了一种方法「AI-Descartes」,通过将逻辑推理与符
前言:我们正处在认知智能的起步的阶段,还有很多未知的因素,也不知道未来往哪走,但是有一条,无非是要么从知识,要么图谱、要么融合,但是可用肯定前景是无限的。这里有很多的机会,把我们的认知智能,搜索、问答问题、推理这些东西用在工业互联网的很多场景里面,认知智能技术,搜索、回答问题、推理的这些数据用在工业借的很多场景里,认知智能技术蕴藏着巨大的前景。
来源:arXiv 作者:闻菲,刘小芹 【新智元导读】南京大学周志华教授等人在最新的一篇论文中提出了“溯因学习”(abductive learning)的概念,将神经网络的感知能力和符号AI的推理能力结合在一起,能够同时处理亚符号数据(如原始像素)和符号知识。实验中,基于溯因学习框架的神经逻辑机NLM,在没有图像标签的情况下,学会了分类模型,能力远超当前最先进的神经网络模型。作者表示,就他们所知,溯因学习是首个专门为了同时进行推理和感知而设计的框架,为探索接近人类水平学习能力的AI打开了新的方向。假设你在踢足
如果问计算机擅长什么,在所有的答案里,数学必须榜上有名。在经历了漫长的研究之后,顶尖学者们在研究计算机关于数学计算方面的发展,取得了令人惊讶的成绩。
大数据文摘作品 编译:VVN、蒋宝尚、龙牧雪、魏子敏 【人工智能】正在让这个时代激动不已,但也正引发不少担忧。被誉为机器学习之父的美国三院院士、伯克利教授Michael I.Jordan昨天在美国知名科技媒体Medium上,难得的发布了他的第一篇文章。一反以往的技术干货输出,这篇文章的主题是对当前AI研究中的问题进行冷静反思。 这篇名为《人工智能:革命远未到来》的长文阅读时间在20分钟左右,从14年前Jordan教授自己的一个关乎生死抉择的故事说起,回顾了AI发展的过往,更重要的是,提
机器之心专栏 作者:字节跳动AI Lab、UT Austin、新加坡科技设计大学StatNLP组 目前强大的语言模型普遍在很多下游 NLP 任务中能轻易地达到比较好的结果,但在推理效果上没有达到我们的预期 [1]。字节跳动人工智能实验室与新加坡科技与设计大学提出一个基于演绎推理的方法,希望实现类似 System 2 的推理能力 [2]. 论文链接:https://arxiv.org/abs/2203.10316 研究动机 作为一类需要解题的推理过程,在数学解题任务中比较适合应用演绎推理模型。我们尝试在此任
在人工智能(AI)的快速发展背景下,大语言模型(LLMs)凭借其在语言相关任务上的杰出表现,已成为 AI 领域的重要推动力。然而,随着这些模型在各种应用中的普及,它们的复杂性和规模也为其部署和服务带来了前所未有的挑战。LLM 部署和服务面临着密集的计算强度和巨大的内存消耗,特别是在要求低延迟和高吞吐量的场景中,如何提高 LLM 服务效率,降低其部署成本,已经成为了当前 AI 和系统领域亟需解决的问题。
最近爆火的AI初创公司Groq,推出了比目前常见GPU推理系统快4倍,成本低70%的大模型推理解决方案。
考察 命题逻辑归结推理代码没写GUI,因为不喜欢这玩意,直接在终端中进行人机交互。使用代码之前,请根据自身情况对字符编码、文件路径进行修改代码没有使用什么算法进行优化,姑且这样吧
近日,CMU Catalyst 团队推出了一篇关于高效 LLM 推理的综述,覆盖了 300 余篇相关论文,从 MLSys 的研究视角介绍了算法创新和系统优化两个方面的相关进展。
对于这个系统,你可以使用阀门控制流入水箱的水。流出率取决于输出管的直径(恒定)和水箱中的压力(随水位变化)。因此,该系统具有非线性特性。
最近ZOMI这2/3周有幸被邀请去百度交流、去VIVO研究院交流、去MindSpore开源团队交流、去华为昇腾团队交流推理引擎。所以有些心得体会,恰好前不久又分享完《AI编译器》系列课程和《AI推理引擎》系列课程。
在大型语言模型(LLM)的世界中,处理多轮对话一直是一个挑战。前不久麻省理工Guangxuan Xiao 等人推出的 StreamingLLM,能够在不牺牲推理速度和生成效果的前提下,可实现多轮对话总共 400 万个 token的流式输入,22.2 倍的推理速度提升。
StreamingLLM可以在不牺牲生成效果、推理速度的前提下,实现多轮对话共400万个token,22.2倍推理速度提升。
在大型语言模型(LLM)的世界中,处理多轮对话一直是一个挑战。前不久麻省理工Guangxuan Xiao等人推出的StreamingLLM,能够在不牺牲推理速度和生成效果的前提下,可实现多轮对话总共400万个token的流式输入,22.2倍的推理速度提升。
博雯 发自 凹非寺 量子位 | 公众号 QbitAI 如何在不查看图片的前提下,几秒之内就识别一张图片? 这个看似在找茬的问题,却是隐私计算领域会真实碰到的问题。 著名的“百万富翁问题”所描述的就是这样的场景:两位富翁如何在不知道对方财富的前提下,比较谁的财富更多? 近年来出现出现的一些方法,比如两方计算网络推理(2PC-NN)可以解决上述问题,但同时又会造成大量的计算成本和通信开销。 但现在,只要2.5分钟,2.3GB的通信费用,就能在ResNet50的基准上进行端到端的执行。 比起现在最好的两方计算网
AI 科技评论按:热热闹闹的机器学习浪潮给学术研究和实际应用都带来了很多新意,似乎我们可以就这样乐观地乘着机器学习的列车驶向未来。记者、科幻小说作者 Cory Doctorow 近期的一篇文章就提出了一种角度新颖且有趣的质疑。AI 科技评论编译如下。
机器之心报道 编辑:泽南 1750 亿参数,只需要一块 RTX 3090,ChatGPT 终于不再是大厂专属的游戏? 计算成本是人们打造 ChatGPT 等大模型面临的重大挑战之一。 据统计,从 GPT 进化到 GPT-3 的过程也是模型体量增长的过程 —— 参数量从 1.17 亿增加到了 1750 亿,预训练数据量从 5GB 增加到 45TB,其中 GPT-3 训练一次的费用是 460 万美元,总训练成本达 1200 万美元。 除了训练,推理也很花钱。有人估算,现在 OpenAI 运行 ChatGPT
本周,在佛罗伦萨举行的ACL 2019上,参会者中有一个人感慨良多,他就是Alexa AI的机器学习科学家Mihail Eric。
英国雷丁大学和普利茅斯大学的研究团队开发和评估了一个情感脑-机音乐接口(aBCMI),用来调节用户的情感状态。构造一个aBCMI来检测用户的当前情感状态并尝试调制它为了实现特定的目标(例如,用户平静或快乐)通过播放音乐根据一个特定的情感目标生成算法作曲系统和基于案例的推理系统。
大数据文摘授权转载自AI前线 整理:核子可乐、冬梅 可解释性,已经成为当今机器学习研究与开发领域最紧迫的难题之一。尽管目前的大规模语言模型(LM)已经展现出令人印象深刻的问答能力,但其固有的不透明性却导致人们无法理解模型如何得出最终答案,因此用户难以论证答案合理性、也不易发现答案中的潜在错误。 DeepMind 研究团队在最新论文《使用大型语言模型实现可信推理》(Faithful Reasoning Using Large Language Models)中解决了这个问题。论文提出一套前向链选择推理模型,能
工欲善其事必先利其器,这也是大部分开发者在日常工作中最重要开发原则。选择与开发内容相匹配的工具,常常会使我们事半功倍。但面对人工智能的多个领域,如:机器学习、深度学习、NLP等等,多样的工具有时也让我们也无从选择。
摘要 机器学习中的许多问题可以自然地用无向图模型的语言表达。在这里,我们提出了无向模型的黑箱学习和推理算法,优化了模型的对数似然的变分近似。我们的方法的核心是我们表示为灵活神经网络的函数q参数化配分函
本文来自NVIDIA GTC21的一次技术分享视频,演讲者是Gary Marcus,他是Robust.AI的创建者和CEO,演讲的主题是“The Next Decade in AI: Four Steps Toward Robust Artificial Intelligence”,即“人工智能的下一个十年:迈向强大人工智能的四个步骤”。
4. 训练综合应用数学模型、函数拟合和预测进行模糊推理系统的知识分析和解决实际问题;
NVIDIA今天在GTC China2016上发布了新的产品:专为深度学习设计的推理加速器Tesla P4和Tesla P40,以及专为自动驾驶和汽车人工智能开发的低功耗计算机Drive PX2 for autocruise。 NVIDIA的传统强项是桌面和移动PC GPU,不过坚定的向着AI大踏步迈进的它显然已经不满足于一味的在单一领域做提高GPU性能的事了。我们曾经提到过,AI的研发和应用分为好几个阶段,NVIDIA传统的计算密集型GPU产品只会对训练算法这一项起到显著的改善作用,但NVIDIA显然是不
自由能原理(FEP)为生物如何感知和与环境相互作用提供了一个雄心勃勃的理论(弗里斯顿,2009年,2010年)。FEP假设,为了使一个主体在时变的环境条件下存在(并持续),它必须在主体的内部(“生成”)环境观察模型下最小化自由能泛函(Friston等人,2006)。
因果关系对于人类感知和理解世界,采取行动以及理解自己起着核心作用。大约二十年前,计算机科学家 Judea Pearl 通过发现和系统地研究「因果阶梯」(Ladder of Causation),在理解因果关系方面取得了突破,该框架着重说明了观察、做事和想象的独特作用。为了纪念这一具有里程碑意义的发现,人们将其命名为「Pearl 因果层次结构」(Pearl Causal Hierarchy,PCH)。
Generating meaning: active inference and the scope and limits of passive AI
Intel公司近期正在组建一个战略研究联盟,计划通过推动“概率计算”(probabilistic computing)发展来引领人工智能发展趋势。
就在最近,一个基于 javascript 的可视化库 D3js(treemap 可视化)对 json 文件生成的技术图,给开发者提供了详细的各领域工具清单,内容涵盖了 11 种极具潜力的 AI 工具类型,我们将其整理如下,强烈建议大家收藏~
约6千字,主要内容为机器学习的几大分类及其基本内涵,后续我会补充关于AI的应用场景、相关技术领域(如计算机视觉、自然语言处理等)的总结。由于目前正在学习,比较严谨的部分我都用摘抄的形式并注明了来源。
杨净 发自 凹非寺 量子位 | 公众号 QbitAI AI学数学,确实有点火。 且不论这两大领域的大拿纷纷为其站台,就是每次相关进展一出炉,就受到众多关注,比如AI求解偏微分方程。 △每年相关论文估计数量 既然如此,AI学数学到底学得怎么样了。 现在有团队专门梳理了十年发展历程,回顾了关键任务、数据集、以及数学推理与深度学习交叉领域的方法,评估现有的基准和方法,并讨论该领域未来的研究方向。 值得一提的是,他们还很贴心的整理了相关资源,在Github上放上了阅读清单以供食用。 接下来,就带你一文看尽。 一文
AI 科技评论按:美国时间 2018 年 7 月 17 日,Facebook 首席 AI 科学家 Yann LeCun 在 Facebook 新闻中心发出一篇博文,表示有多位教授将加盟 Facebook AI 研究院,不仅继续提升现有的各个 AI 实验室的研究水准,也是为了设立新的 AI 研究实验室。
领取专属 10元无门槛券
手把手带您无忧上云