南加州大学计算机系名誉副教授、机器学习中心主任刘燕 文/CSDN贾维娣 7 月 22 - 23 日,在中国科学技术协会、中国科学院的指导下,由中国人工智能学会、阿里巴巴集团 & 蚂蚁金服主办,CSDN、中国科学院自动化研究所承办的 2017 中国人工智能大会(CCAI 2017)在杭州国际会议中心盛大召开。 大会第二天下午,南加州大学计算机系名誉副教授、机器学习中心主任刘燕参与了【人工智能科学与艺术】论坛的讨论,并发表了《艺术与人工智能的明天——人机信任合作》主题演讲,刘燕教授认为将来
当代人工智能技术在给人类带来多方面福利的同时,面临黑箱、鲁棒性和可解释性等问题,发展值得信赖的可解释人工智能已成为人工智能领域的核心关切。论文在论证可解释人工智能为什么重要的基础上,对可解释人工智能的内涵进行界定,进而提出发展可解释人工智能需遵循的一些原则,它们也可看作可解释人工智能需达致的目标和要求。论文最后提出了两点关于实现可解释人工智能途径的构想。
南加州大学计算机系名誉副教授、机器学习中心主任刘燕 文/CSDN贾维娣 7 月 22 - 23 日,在中国科学技术协会、中国科学院的指导下,由中国人工智能学会、阿里巴巴集团 & 蚂蚁金服主办,CSDN、中国科学院自动化研究所承办的 2017 中国人工智能大会(CCAI 2017)在杭州国际会议中心盛大召开。 大会第二天下午,南加州大学计算机系名誉副教授、机器学习中心主任刘燕参与了【人工智能科学与艺术】论坛的讨论,并发表了《艺术与人工智能的明天——人机信任合作》主题演讲,刘燕教授认为将来人工智能与艺术的结
Designing explainable artificial intelligence with active inference: A framework for transparent introspection and decision-making https://arxiv.org/abs/2306.04025
人工智能(AI)的发展带来了巨大的变革,但也引发了一系列的伦理和社会问题。在人工智能应用的过程中,我们需要思考如何确保其责任、公平性和可解释性,以保障社会的发展和稳定。本文将深入探讨这些问题,并提出解决方案。
专注于数据、技术与公共政策的美国科技智库数据创新中心的高级政策分析师Joshua New撰文表示,由于美国采取的一些错误建议,美国有可能在当前的全球人工智能竞赛中落后于他国。该文主要内容如下:
在2021年世界人工智能大会的可信AI论坛上,陶大程进行了主题为《可信人工智能的前世今生》的报告。他在报告中表示,在人工智能的技术落地浪潮中,AI的可信度将成为一大关键难点,他还基于国内实践提出了人工智能是否可信的四个度量标准,并指出在可信AI的框架探索方面,我们还有很长的路要走。
可解释性对人工智能发展来说至关重要,但在可解释系统的可信度方面,理解其可能带来的负面效应亦同等重要。
本文为大家介绍了一项最新的研究进展,它有助于理解人工智能的可解释性实际上如何影响用户对人工智能的信任。
当我们在谈论人工智能的时候,我们究竟在谈论什么?是“机器人超越人类阅读水平,令数百万人面临失业风向“还是“计算机的阅读能力正在赶超人类?”
自从60多年前计算机科学家约翰·麦卡锡(John McCarthy)创造了“人工智能”这个术语以来,通过不断的探索,研究人员已经能够将这一强大的技术应用于各种各样的领域,例如:医疗保健。
本文从人工智能发展的历史开始,深入分析人工智能近十年的发展,阐述了人工智能在感知方面取得的重要成果。
👆点击“博文视点Broadview”,获取更多书讯 人工智能技术与系统已经开始频繁地出现在人们的工作和生活中,智能财务系统、智能招聘系统和智能推荐系统等不一而足——这些智能系统正在逐步改变社会生活的方方面面,影响甚至决定人的命运。 似乎在我们还没弄明白人工智能到底是怎么一回事的时候,人工智能的实际应用就已经跑得很远了。 然而,我们真的了解人工智能吗?到底什么是人工智能?人工智能的决策机制到底是怎样工作的?它今后将朝着怎样的方向发展? 这些问题都与人工智能系统的可解释性(Explainability)息息
唐杰教授从人工智能发展的历史开始,深入分析人工智能近十年的发展,阐述了人工智能在感知方面取得的重要成果,尤其提到算法是这个感知时代最重要、最具代表性的内容。
在科学研究中,从方法论上来讲,都应“先见森林,再见树木”。当前,人工智能学术研究方兴未艾,技术迅猛发展,可谓万木争荣,日新月异。对于AI从业者来说,在广袤的知识森林中,系统梳理脉络,才能更好地把握趋势。为此,我们精选国内外优秀的综述文章,开辟“综述专栏”,敬请关注。
进入21世纪以来,人工智能(Artificial Intelligence,AI)取得了长足发展,已经逐步在自然语言处理、计算机视觉、语音识别、自动驾驶等领域落地。AI与人类紧密的结合,使得智能化的人机协同成为大势所趋。人类在全方位应用AI的同时,更希望能理解、信任、管理AI。因此,发展可解释、可扩展、安全可靠的AI显得至关重要。 而人工智能技术的高速发展也面临诸多困难与挑战。其中,如何把AI技术的基本原理,其自动决策机制,潜在风险及防范措施,以通俗易懂的方式向人类说明,成为发展可信赖,安全可靠人工智能的首
👆点击“博文视点Broadview”,获取更多书讯 进入21世纪以来,人工智能(Artificial Intelligence,AI)取得了长足发展,已经逐步在自然语言处理、计算机视觉、语音识别、自动驾驶等领域落地。AI与人类紧密的结合,使得智能化的人机协同成为大势所趋。人类在全方位应用AI的同时,更希望能理解、信任、管理AI。因此,发展可解释、可扩展、安全可靠的AI显得至关重要。 而人工智能技术的高速发展也面临诸多困难与挑战。其中,如何把AI技术的基本原理,其自动决策机制,潜在风险及防范措施,以通俗易懂
人工智能(AI)一词没有严格的定义。广义上说,人工智能指的是旨在模仿人类智能的计算机系统,其目标是执行人类可以完成的任何任务(图1)。人工智能通常被认为是计算机科学的一个子领域,但它与其他几个研究领域密切相关,包括数据科学和机器学习,以及统计学。人工智能在科学领域的大部分前景来自于它在大型数据集中发现(或“学习”)结构的能力,以及使用这种结构来做出预测甚至执行任务的能力。这种人工智能系统的优势可以补充人类的优势。例如,人工智能系统能够在非常高维的数据中看到模式,因此可以作为一个强大的工具来帮助而不是取代人类研究人员。几乎所有的现代人工智能系统都依赖于人工神经网络(ANN)的变化,这是受到神经系统组织的启发。
◆ ◆ ◆ ◆ 11月25日,模式识别与人工智能学科前沿研讨会在自动化所召开。会上,谭铁牛院士做“人工智能新动态”报告,回顾了近代以来历次科技革命及其广泛影响,并根据科学技术发展的客观规律解释了当前人工智能备受关注的深层原因。报告深入分析了其当前存在的局限性和面临的瓶颈问题,整理并列举了2017年人工智能的十件大事,全方位、多维度展示了人工智能所取得的最新进展。基于对这些事件的深入分析,报告总结了人工智能未来的发展趋势和值得关注的研究方向。 ◆ ◆ ◆ ◆ 在科学研究中,从方法论上来讲都应先见森林,再见树木
可解释性人工智能 PART.01 概述 1 可解释性人工智能(XAI)定义 随着机器学习和人工智能技术在各个领域中的迅速发展和应用,向用户解释算法输出的结果变得至关重要。人工智能的可解释性是指人能够理解人工智能模型在其决策过程中所做出的选择,包括做出决策的原因,方法,以及决策的内容[1]。简单的说,可解释性就是把人工智能从黑盒变成了白盒。 2 研究的作用 可解释性是现在人工智能在实际应用方面面临的最主要的障碍之一。人们无法理解或者解释为何人工智能算法能取得这么好的表现。可解释性人工智能模型的作用
选自Linkedin 作者:Fabio Ciucci 机器之心编译 参与:黄小天、路雪 人工智能的这一波热潮毫无疑问是由深度学习引发的,自吴恩达等人 2011 年发表「识别猫」研究后,深度学习及其引发
人工智能伦理是负责任的产品开发、创新、公司发展和客户满意度的一个因素。然而,在快速创新的环境中评估道德标准的审查周期会在团队之间造成摩擦。公司经常错误地在客户面前展示他们最新的 AI 产品以获得早期反馈。
如果说今天的人工智能是互联网,乃至整个信息技术领域的皇冠,那么安全无疑是皇冠的基座。就像任何新技术一样,人工智能的安全与否很大程度上影响着其未来的发展和应用。符合什么标准的人工智能才算是安全的?或者人工智能的安全主要包括哪些方面?本文拟通过对美国和英国人工智能发展战略的简要分析,介绍当下人工智能安全问题的几个主要维度。 美、英两国人工智能发展战略简介 美 国 2016年10月,美国相继发布了两份与人工智能发展相关的战略文件,《美国国家人工智能研究和发展战略计划》(The National Artifi
打开一个黑盒子,黑盒子变成了白盒子,但是白盒子中又出现了更多的黑盒子,探索可解释AI是一条长远的道路。作者 | 王晔编辑 | 陈彩娴在刚刚过去的2021年,人工智能领域最热门的新兴话题之一,就是「可信AI」。2021年6月,蚂蚁集团在全球人工智能大会上首次公布「可信AI」技术架构体系;7月,京东探索研究院又在世界人工智能大会上发布中国首个《可信人工智能白皮书》,且两家企业都将隐私保护、鲁棒性/稳定性、可解释性、公平性作为「可信AI」的四大基本原则。从工业界到学术界,「可信AI」的身影频频出现。比如,此前 A
以ChatGPT为代表AI大语言模型(LLMs)是一项具有革命性的技术。它不仅可以像之前的人工智能一样进行分类或预测,还可以通过自然语言与人类对话,生成文本、图像、视频、可执行代码等各种形式的内容,这将对人们的生产生活和社会发展产生深远影响。但是人工智能开发和应用阶段的任何错误都可能是灾难性的。[1]现在大语言模型已经面临诸多信任挑战,比如人们越来越无法分辨区分出ChatGPT生成的内容与人类生成的内容;大语言模型存在幻觉问题,会生成错误、具有诱导性的内容,那么人们该如何分辨并信任大语言模型生成的内容;大语言模型还存在偏见、歧视、隐私侵犯、有害言论等多方面伦理风险,继而带来一系列信任危机,甚至遭到业界的抵制和封杀。信任是人工智能发展的一个核心问题,人与技术之间信任关系更是技术发展趋势与人类未来的一个核心问题。[2]DeepMind首席运营官Lila Ibrahim表示,AI大模型是一种变革性技术,但它只有在得到信任的情况下才能充分发挥潜力。
在深度学习领域,模型解释和可解释性人工智能(XAI)正变得越来越重要。理解深度学习模型的决策过程对于提高模型的透明度和可信度至关重要。本文将详细介绍如何使用Python实现模型解释和可解释性人工智能,包括基本概念、常用方法、代码实现和示例应用。
12月22日有两件事儿,一件是冬至,另一件是北向峰会。在太阳直射地面的位置到达一年的最南端的这一天,第三届北向峰会正式召开,启明星辰集团助理总裁、核心研究院院长周涛就人工智能发展中的解读带来主题演讲《人工智能搅乱网络安全》,得到一致认可,现场反响十分强烈。 人工智能在2017年中的表现是不平凡的,国务院关于印发《新一代人工智能发展规划》的通知、工业和信息化部关于印发《促进新一代人工智能产业发展三年行动计划(2018-2020)》的通知,分别明确我国新一代人工智能发展的指导思想、战略目标、重点任务和重点支
现在每一个人都在学习,或者正打算学习深度学习(DL),它是目前人工智能诸多流派中唯一兴起的一个。各个年龄阶段的数十万人学习着免费和收费的深度学习课程。太多的创业公司和产品的命名以「深度」开头,深度学习已然成了一个流行语,但其真正使用实际上很少。绝大多数人忽略了深度学习只占机器学习领域的 1%,而机器学习又只占到了人工智能领域的 1%。余下的 99% 则被用来处理实践中的绝大多数任务。一个深度学习专家无法与人工智能专家划上等号。
近日,昇思MindSpore正式通过SGS Brightsight实验室的安全评估,获得了AI框架领域的首份CC EAL2+证书。
随着深度学习等技术诞生,人工智能行业又一次蓬勃发展。李开复在题为《人工智能的黄金时代》的万字演讲中提到,深度学习有四点挑战,分别是平台化、数据、计算及可解释性。人工智能的黄金时代已经到来,深度学习已经在图像,语音,大数据,自动驾驶等诸多领域占绝对优势。相较而言,模型可解释性的研究还处于起步阶段。特别是,随着波音MCAS系统导致的空难频繁,人们对于技术的信赖感也会急速降低,特别是涉及到安全、操作、控制方面的技术应用。人工智能目前的黑盒化并不能让人信服得出的结论,充满了疑问和焦虑。
上海交通大学教授金耀辉:AI在智慧法院中的应用
AI数据目录会在您的数据资产中搜索元数据,然后对其进行处理以实现数据工作流程自动化,并提供智能建议来丰富数据发现、探索、文档记录和治理。
本文作者:艾米·霍德勒(Amy Hodler)是图数据库公司Neo4j的数据分析和AI项目主管,也是《Graph Algorithms: Practical Examples in Apache Spark & Neo4j》的合著者。
DARPA(美国防部高级研究计划局)于 2015 年制定了可解释人工智能 (XAI) 计划,目标是使最终用户能够更好地理解、信任和有效管理人工智能系统。2017年,为期4年的XAI研究计划启动。现在,随着 XAI 在 2021 年结束,本文总结和反思了 XAI 项目的目标、组织和研究进展。 本文转载自丨智源社区 作者丨David Gunning, Eric Vorm, Jennifer Yunyan Wang, Matt Turek 编译丨牛梦琳 摘要: 从项目管理人员和评估人员的角度,对国防高级研究计划局
佐治亚理工学院、康奈尔大学和肯塔基大学合作开发了一种AI智能体,可以实时自动生成自然语言解释,以传达其行为背后的动机。这项工作旨在让人类与AI智能体或机器人合作,确保智能体正在正确地执行任务,并且可以解释错误或错误的行为。
当下,人工智能与大数据已经渗透到生产生活的方方面面。 在保护数据安全的前提下释放数据价值成为社会发展的必然需求,隐私计算联邦学习作为隐私增强计算与人工智能相结合的新型技术范式,将迎来怎样的技术方向和应用创新?可信联邦学习如何平衡安全、可用的双目标?加快培育数据要素市场,给产学研各界带来怎样的机遇? 由中国信息通信研究院云大所、清华大学智能产业研究院、深圳数据交易有限公司共同指导,FATE开源社区、开放群岛(Open Islands)开源社区、智能投研技术联盟(ITL)联合主办的“联邦学习安全效率与开源生态”
在大数据“养料”的供给下,沉寂的人工智能重现活力。自从谷歌阿法狗一战成名,助力人工智能变得家喻户晓。如今,人工智能的发展遇到瓶颈的声音再次出现。
机器之心发布 机器之心编辑部 腾讯优图实验室联合厦门大学人工智能研究院发布《2021 十大人工智能趋势》报告,对 3D 视觉技术、深度学习算法、人工智能内核芯片等众多领域的发展趋势进行了预测。 6 月 5 日,2021 全球人工智能技术大会(GAITC 2021)在杭州举办,汇集人工智能产学研各界领军者,以国际化、前瞻化、产业化视角,解析并洞察了新一代人工智能发展路径。 在大会上,腾讯优图实验室联合厦门大学人工智能研究院正式发布《2021 十大人工智能趋势》(以下简称“趋势报告”),基于双方长期对人工智能尤
---- 新智元报道 编辑:Britta 【新智元导读】Anthropic对于人工智能发展的安全性研究以及推论表明,人工智能系统的计算量将呈指数型增长,预计未来5年训练AI模型的计算量将增加1000倍。 自从发现缩放定律以来,人们认为人工智能的发展会像坐火箭一样迅速。 2019年的时候,多模态、逻辑推理、学习速度、跨任务转移学习和长期记忆还是会有减缓或停止人工智能进展的 「墙」。在此后的几年里,多模态和逻辑推理的「墙」都已经倒下了。 鉴于此,大多数人已经越来越相信,人工智能的快速进展将继续下去,而
事实上,要实现可理解性是复杂的,它高度依赖许多变量和人为因素,排除了任何“一刀切”的方法。可理解性是一个前沿的、跨学科的研究领域,它建立在机器学习、心理、人机交互以及设计的思想上。
本文作者亨利·基辛格(Henry Alfred Kissinger)为原美国国家安全顾问,先后担任尼克松与福特政府的国务卿。他因为促成了中美关系正常化为中国人民熟知。本文出自《大西洋月刊》(The Atlantic)。
据陆海空通信和电子协会(AFCEA)网站(www.afcea.org)报道,地理空间影像以及面部识别和其他生物识别技术正在推动情报界对人工智能的研究。由情报界研究机构资助的政府、学术和行业研究计划不断向前推进,从中受益的还包括其他情报活动,如人类语言翻译、事件警告及预测。 美国情报高级研究计划署(Intelligence Advanced Research Projects Activity,IARPA)正努力通过多个研究计划在人工智能(AI)领域取得突破。所有这些人工智能计划都需要用到政府、业界和学术界的
随着科技的不断进步,人工智能(AI)、机器学习(ML)和大模型(Large Models)成为了现代计算机科学领域的核心技术。它们不仅推动了科学研究的进步,也在多个行业中掀起了革命性的变革。从自动驾驶汽车到智能语音助手,再到精准医疗和金融预测,这些技术的应用已经深入到我们日常生活的方方面面。本文将深入探讨这三大技术的基本概念、历史发展、实现原理及其在实际生活中的应用,旨在为读者提供一个全面而深入的了解。
4月10日,“吴文俊人工智能科学技术奖”十周年颁奖盛典在北京举办。
👆点击“博文视点Broadview”,获取更多书讯 分布式人工智能初创于20 世纪70 年代,是一个快速发展的研究领域。 在过去的二十年内,它从分布式规划和优化到智能体之间的竞争和合作学习,以及在现实世界中的应用,都取得了令人欣喜的进展。有很多优秀的学者在从事这个领域的研究,AAMAS 会议也成为人工智能领域的顶级会议。 这二十年的发展可大致分为两个阶段: 前十年研究者主要关注的是分布式规划和优化,以及拍卖和博弈均衡的求解; 而后十年,随着深度学习的兴起,分布式人工智能转向智能体的学习方面,其中包括单智能
智能的真正标志不是知识,而是想象力。 作者 | Gadi Singer 编译 | 王玥 编辑 | 陈彩娴 什么知识让我们变得聪明?我们用来理解世界、解释新体验和做出深思熟虑的选择的认知结构是什么?定义一个阐明给人类或人工智能更深入理解和更高认知的知识的框架,将有助于我们对此话题进行结构化的讨论。 近日,英特尔实验室副总裁兼紧急人工智能研究主任Gadi Singer介绍了这种赋予人工智能更高认知的知识构建(knowledge constructs)的数个维度,并指出一条通往更高智能机器的道路。 图为英特尔实
基于深度学习的人工智能方法在许多场景取得了重要突破,但仍然存在模型可解释性差、对抗样本鲁棒性差、数据与算力需求大、理论基础薄弱等问题。未来,人工智能需要突破的主要领域有:可解释人工智能和鲁棒人工智能理论与方法、通用人工智能理论与方法、安全、可靠、可信及可扩展的人工智能技术、类脑智能等。从感知智能走向认知智能是人工智能技术发展的趋势。
人工智能(AI)是当今科技领域最热门的话题之一,涉及范围广泛,从理论研究到实际应用。人工智能根据其目标和实现方式的不同,可以分为通用人工智能(AGI)和狭义人工智能(ANI)。本文将详细讨论通用和狭义人工智能的区别、应用领域及其未来的发展方向。
在 1982 年的电影《银翼杀手》的开幕镜头中,一个调查员不断向询问一名为 Leon 的机器人,旨在激发他的情绪反应。在电影中,同情心是区分人类与人工智能(AI)的一些特征之一。 当测试的问题进行到 Leon 的母亲身上时,Leon 站起来,掏出一支枪,并将调查员射杀。 对人类而言,这不是一个令人感到开心的结局,但当好莱坞刻画的人工智能,却很少是这样的结局。 编剧和导演们几十年来一直在银幕上将人工智能放在人类的对立面,而这些情节的科学合理性如何? 我们咨询了一组人工智能专家,并让他们评价 10 部人工智能
近日,2021全球人工智能技术大会在杭州成功举办,在计算机视觉论坛上,腾讯优图实验室副总经理黄飞跃正式宣布,腾讯优图联合厦门大学人工智能研究院正式发布《2021十大人工智能趋势》(以下简称趋势报告),该趋势报告基于腾讯优图和厦门大学人工智能研究院长期对人工智能尤其是计算机视觉的研究洞察,提出3D视觉技术、数字内容产业、AI深度学习算法、人工智能内核芯片等方向的前沿预测。
领取专属 10元无门槛券
手把手带您无忧上云