首页
学习
活动
专区
圈层
工具
发布
首页
学习
活动
专区
圈层
工具
MCP广场
社区首页 >专栏 >2020年度全球人工智能十大事件

2020年度全球人工智能十大事件

作者头像
肉眼品世界
发布于 2021-03-26 02:05:47
发布于 2021-03-26 02:05:47
1.6K0
举报
文章被收录于专栏:肉眼品世界肉眼品世界

当前,新一代人工智能技术在全球蓬勃兴起,迅猛发展,与大数据区块链、5G等新技术相互融合、相互因应,为经济社会发展尤其是数字经济发展注入新动能,正在深刻改变社会生产生活方式。与此同时,如何在新技术变革浪潮中始终立于主动,实现人工智能等前沿科技领域有效治理,确保其持续健康发展,也随之成为一个国际国内、社会各界都广泛关注的重大现实问题、重大时代议题。

人工智能治理是复杂性、系统性很高的社会议题,涵盖政策、技术、产业、法律、传播、伦理、安全、国际关系、意识形态等诸多领域。与之相应,对国际国内人工智能治理标志性事件开展研究,也必然需要各界协同,共同推动。为此,人民智库与旷视AI治理研究院成立联合课题组,共同开展“2020年度全球十大人工智能治理事件”遴选、评议,组织相关领域权威专家学者,从AI与公众福祉、AI与公平正义、AI政府(企业)治理、AI系统安全性与数据隐私安全等四个主要维度出发,依据理论价值、实践价值、新闻价值、研究价值等四个评价标准进行评议,并面向社会公众开展在线问卷调查,对人工智能产业领域从业者,相关部委、行业协会领导专家等典型群体进行深入访谈。经综合各方面资料、数据、意见、观点,最终得出2020年度全球十大人工智能治理事件。

这些事件,反映人工智能治理领域实践探索和前沿趋势,反映新一代人工智能技术的广泛应用前景,反映公众对AI(人工智能)治理,引导科技向善,助力政府、机构、企业的多层次、多样化参与,通过新一代信息技术的良性发展增进人类福祉、改善民生的热切期待。

1

AI成“监工”:算法下外卖骑手挑战交通规则,“助手”可能变“杀手”

得票率:51.2%

案例描述:

为提高配送效率,一些外卖平台研究开发了实时智能配送系统。借助AI算法,平台可以最优化地安排订单,也能给骑手规划最合理的路线。但出于平台、骑手和用户三方效率最大化的目标,AI算法将所有时间压缩到了极致,为了按时完成配送,骑手们只能用超速去挽回超时这件事。超速、闯红灯、逆行……外卖骑手挑战交通规则的举动是一种逆算法,是骑手们长期在系统算法的控制与规训之下做出的不得已的劳动实践,而这种逆算法的直接后果则是——外卖员遭遇交通事故的数量急剧上升。同时,这也意味着,在很多人类劳动者和AI的协作专业工作中,人类将处在被管辖和被监督之下。(来源:《人物》杂志)

专家点评:

徐云程

旷视首席发展官、旷视AI治理研究院院长

这个案例虽然讲的是外卖骑手,但我们可以思考,当AI算法嵌入到人类社会的方方面面,人类在不知不觉中已经作为一个数据被算法研究,人类每天看到的信息究竟是算法推送还是客观公正的?当算法的技术不断臻于完美,商业利益不断迭代,对人类福祉的影响到底是什么?对AI企业来说,应在早期产品实验室研究过程和产品化过程中考虑到平等问题;作为个人,在推动AI治理时,应思考如何贡献更多前瞻性看法。

梁正

清华大学公共管理学院教授、清华大学人工智能国际治理研究院副院长

选择该案例并不是因为这是一个现象级问题,而是可以看出人工智能治理问题不是某一个单一主体可以解决的。我们可以看到,在这个案例里还包括交通规划、收入保障体系不到位等问题,我的结论是——我们需要一个多元主体共治的治理体系。

徐勇

哈尔滨工业大学深圳研究生院教授、博导

AI技术的发展与普及给人类生活带来了极大的便利,但由于商业驱动产生了以盈利为导向的技术优化,使得劳动人员在技术监管下对现实社会规章制度产生破坏行为。AI技术的应用应有利于人类社会良性发展,我国处于AI技术高速发展的阶段,企业以AI技术压榨人力劳动术来增加商业利益无疑是一种舍本逐末的行为。需要运用法律和道德对AI技术的研发和应用进行约束,正确引导企业的价值观。在人工智能普及的时代,也应充分保护劳动者的合法权益,人工智能算法的应用在追求效率和利益之外,不可忽略人性与理性,不能让机器的冰冷碾压人性的光辉。

2

人工智能可以翻译大脑想法将大脑信号转化为文本数据,“读懂意识”让隐私无处遁藏

得票率:50.09%

案例描述:

加州大学JosephMakin博士在《自然神经科学》杂志上发表了研究,其开发了一个系统,可以将大脑活动转化为文本数据,单句错词仅3%。

实验参与者被要求多次朗读50个固定句子,研究者们跟踪了他们讲话时的神经活动。这些数据随后被输入到机器学习算法中,系统能将每个口述句子的大脑活动数据转换为数字字符串。不过,由于通过脑机接口翻译大脑想法的技术对人们的隐私构成了强大的威胁,因此也一直伴随着不小的争议。(来源:综合新浪、凤凰网)

专家点评:

喻丰

武汉大学哲学学院教授

机器人实际上是人所创造出的客体,但在未来社会它可能会同人这个本体相脱离,成为本体的存在,而且反客为主,反过来束缚、支配、乃至压抑人类。我们这些站在食物链顶端的人类会在不久的将来面临前所未有的危机和挑战,比如算法开始替代人类作出选择,一些原来只有人类能做的工作将会被机器所取代。

徐勇

哈尔滨工业大学深圳研究生院教授、博导

人工智能可简单看做是一种模拟和扩展人类智慧的科学技术。对人类大脑运行机制的解析,一方面有助于人对自身的深入认知,另一方面有助于人们生活的便捷化与智慧化。上述技术的改进及成熟化应用,也许有助于聋哑人等残疾人士的交流,助力于他们的生活。但是,假如相应技术被滥用或误用,也可能使得人们大脑中的想法无任何隐私可言;人类大脑这一“潘多拉盒子”被打开的程度与方式是全社会需要思考的问题。

3

全国首例:法院认定人工智能生成文章构成作品,拥有著作权

得票率:49.78%

案例描述:

2020年1月,广东省深圳市南山区人民法院一审审结原告深圳市腾讯计算机系统有限公司诉被告上海盈某科技有限公司侵害著作权及不正当竞争纠纷一案,认定人工智能生成的文章构成作品。此案系全国首例认定人工智能生成的文章构成作品案件。该案明确了人工智能生成物的独创性判断步骤,并在如何看待人工智能生成物的创作过程以及相关人工智能使用人员的行为能否被认定为法律意义上的创作行为的问题上做出了探索,认定人工智能生成的文章构成作品,对于今后同类型案件的审理有一定的借鉴意义。(来源:人民网深圳频道)

专家点评:

卢瑞昌

北京大学光华管理学院金融学助理教授

这个案例很重要,这是关于法律是如何定义人工智能的。随着社会发展,未来人工智能在各行业的应用、人工智能的归属权、法律是否将其定义为一个法律主体,将是很重要的一个争执点。

梁正

清华大学公共管理学院教授、清华大学人工智能国际治理研究院副院长

这个案例是从法律的层面上讨论AI生成作品一事,但我们需要注意到AI可能会对很多产业产生革命性的作用,并且要理性思考AI还可以应用到什么领域。

4

欧美、韩国相继出台AI治理新规,严格限制、甚至禁用相关人工智能技术在某些场景的发展和应用

得票率:49.73%

案例描述:

欧盟委员会发布《人工智能白皮书》,希望通过不断实现科学突破,维护欧盟的技术领先地位并确保新技术在尊重人权的基础上,改善人们生活。当前欧洲采取了一致的方法来应对AI对人类和社会道德的影响,并思考了如何利用大数据进行创新。欧盟正在考虑禁止在公共场所使用人脸识别技术长达五年,以便有时间研究如何防止这种技术被滥用。欧盟委员会表示,在为期3至5年的禁令期间,“可以确定和制定评估这一技术的影响和可能的风险管理措施的健全方法”。欧盟文件称,对于安全项目以及科技研发活动,禁令可能会有例外。该文件还建议,对人工智能的开发者和用户都施加一些义务,欧盟国家的政府应该指定监管机构来监管新规则。

韩国科学技术信息通信部2020年11月27日与情报通信政策研究院(KISDI)共同发布“国家人工智能伦理标准”,提出理想的人工智能开发和运用方向,指出人工智能需以人为中心。在开发和运用人工智能的过程中,需遵守维护人的尊严、社会公益和技术合乎目的这3大原则。

此外,美国东海岸城市波士顿通过了禁止面部识别技术用于市政用途的投票。这是自2019年5月旧金山颁布此项禁令以来,采用此项禁令的第二大美国城市。该法令获得一致通过,这条法令将阻止城市使用面部识别技术或获得使用该技术进行监视的软件。此后,俄勒冈州波特兰、缅因州波特兰也均通过了类似禁令以限制该技术在政府部门的应用。(来源:综合凤凰网等)

专家点评:

薛澜

清华大学人工智能国际治理研究院院长

人工智能治理的核心要素中基本价值观、治理体系、参与者、治理对象以及效果评价五个方面至关重要。很多治理问题可以通过技术本身来解决,目前人工智能发展面临的最大挑战是:人工智能技术发展太快,而治理准则作为一种社会体系,其发展有其程序,又是缓慢的,因此,我们需要“敏捷治理”。

人工智能可以学习已有的国际机制,未来不断加强AI领域的国际合作,我们可以在合作过程中找到各方的共同点,并不断探讨、沟通,一同寻找人工智能共同的准则和规则,引导人工智能的健康发展,为人类造福。

徐云程

旷视首席发展官、旷视AI治理研究院院长

这个案例非常重要。2020年谈到人脸识别技术,大多是负面消息,AI治理似乎不是一个“为善”问题,而是带有风险的问题。随着技术的发展,人们逐渐意识到了技术的一些风险。但值得注意的是,当舆论一边倒时,对于技术的一刀切其实有待考虑,也要思考欧盟和美国所做决定的合理性以及是否应该仿效。

对于在全世界范围内人脸识别技术的应用场景与其背后的人类福祉、安全隐私等问题,大家在没有进行深入探讨的情况下,不应过分否定。同时也应考虑,人脸识别技术只是深度学习相对成型和商业应用比较广泛的一类技术,在新技术不断成熟的过程中,我们应该用怎样的方法来解决不断涌现出的新问题。

个人希望,人脸识别技术能够为人工智能时代打造一个样本,即在面对新出现的伦理问题时,不因噎废食,同时又能建设性地解决问题。中国的人脸识别技术如果能走出这条路,对于我们在全球范围内提出“中国观点”是很有帮助的。

孙明俊

中关村智用人工智能研究院执行院长、中视科技CEO

面部识别作为自动化分析的代表性应用,在政府部门的应用中与现有的发达国家的法律制度有很大的不兼容性。首先,公众“棱镜门”丑闻再次出现的警惕。

2007年美国国家安全局启动的网络监控计划“棱镜(PRISM)”将任何涉外通讯列为监听对象。2013年该项目由美国特工爱德华斯诺登曝出。“棱镜门”直接使得欧洲美国之间的个人数据流通协议作废,并增加了美国公民对政府的不信任。

其次,隐私权,即公权力无权侵入私人生活,是美国公民和欧盟公民最重要的宪法权利。面部识别,结合云计算,具备的强大分析功能,可能会使公权力完整记录私人行踪的轨迹成为可能。欧盟法院曾经在“数字权利爱尔兰”一案中,将政府的大范围数据分析裁定为非法。

最后,面部识别在公权力的应用是否符合人类中心原则是模糊的。欧盟、日本、韩国和电气电子工程师学会(美国)的人工智能文件中都提到了人工智能开发的人类中心原则,人工智能开发应以增进人类福祉为目的。但基于统计方法的面部识别技术在公权力,尤其是行政机关,的应用很可能将机器凌驾于人之上。

5

AI向善,技术预警独居老人水表及校园暴力行为

得票率:49.69%

案例描述:

“水表”和“老人安全”看似没有关联,但在上海市长宁区江苏路街道“一网统管”平台,隐藏背后的逻辑清晰可见——当独居老人家中超过12小时用水不足0.01立方米时,系统会判断老人家中有事,并及时向居委会预警。一个小小的设计,没有像摄像头那样不得不关注老人过多的隐私,也无需大量的经济和人力投入,就能实现对老年人的关爱,甚至关键时刻能挽救老人的生命。

北京某科技公司生产的校园暴力AI防控语音侦测设备,可以作为视频监控的弥补而出现在校园安全解决方案当中,为平安校园再添新色彩。该产品通过AI音频识别,全天候监控异常声音,自动报警及声光驱离等技术,重点勘察校园视频监控“死角”,在校园霸凌事件发生中及时干扰、阻止,制止校园暴力的发生。(来源:北京日报)

专家点评:

张勇

深圳大学教授

AI技术的落地应用,在一定程度上可有效提升人们生活的安全性,这两个案例中第一个是通过水表对独居老人进行安全预警,体现对独居老人的无感关爱,这对当前促进社会民生改善有一定参考价值。

当然,这个案例中要提高水表计数的敏感度和数据采集的及时性与准确性,才能降低误报率。第二个案例AI技术应用,可有效减少校园暴力事件的发生,当然,这需要AI技术更智能,包括对异常声音的识别,这里的异常声音包括肢体动作发出的声音、呼救的声音、威胁的声音等,并且需要提升拾音效果。另外,采用语音侦测较视频侦测的另一个好处就是可保护未成年人隐私。

卢瑞昌

北京大学光华管理学院金融学助理教授

该案例是用AI防止校园暴力,虽然是一个正面案例,但也要考虑到无限的监听会引发隐私及对其他问题的担忧。

6

美国科技巨头依据自身道德判断,加强企业自律及对人工智能技术的监管

得票率:49.55%

案例描述:

据外媒消息,IBM将不再提供、开发或研究面部识别技术,并表示“IBM坚决反对并且不会容忍将任何面部识别技术用于大规模监视、侵犯基本人权和自由或与我们的宗旨不符的任何行为。”此外,亚马逊、微软也均表态要支持种族平等,叫停人脸识别:亚马逊声明暂停向警方提供人脸识别技术一年时间;微软也表态停止向警方销售人脸识别软件,直到有相关国家法律出台。

欧盟有关方面和微软、IBM等科技巨头共同签署了《人工智能伦理罗马宣言》,讨论如何规范人工智能的社会影响,这是欧盟推动全球数字经济监管新标准的最新举措。与美国不同,在数字经济和人工智能领域,欧盟采取的是先规范后发展的路径。《人工智能伦理罗马宣言》指出,人工智能技术应尊重个人隐私,以可靠而无偏见的方式工作,考虑所有人的需求,并以透明方式运作。这些表述显示欧盟担忧人工智能的负面影响,认为人工智能系统尚处于研究阶段,其做出的决定往往难以预测。

Google启动了800多名员工的初始“技术道德”培训,并还针对AI原则问题发现了新的培训。Google最近发布了此培训的一个版本,作为面向客户的Cloud团队的必修课程,已有5,000名Cloud员工参加了该培训。这些员工提出了一些关键问题来发现潜在的道德问题,例如AI应用程序是否会导致经济或教育上的排斥或造成身体、心理、社会或环境伤害。(来源:综合人民网等)

专家点评:

卢瑞昌

北京大学光华管理学院金融学助理教授

我们需要思考AI与企业治理的关系,AI伦理如何嵌入到商业运行之中。谁来做企业开发AI算法时的最后判断者?我们应该从哪个环节切入,思考人工智能所导致的结果。

从防卫意义上讲,谷歌提供“技术道德培训”是很重要的,谷歌的培训能否应对AI道德伦理的挑战,力度够不够、能否完成,这都是一个争论点。IBM等公司不再提供、开发或研究面部识别技术也值得关注。

算法在某种意义上会提升商业利益,但也要注意它所带来的歧视问题。我们需要去思考,如何判断当人工智能以明确的目标制定出来,为最大化实现某个目标时所导致的歧视问题。

季卫东

上海交通大学文科资深教授、中国法与社会研究院院长

谷歌提供“技术道德培训”的案例涉及到软法问题。软法主要指道德,我们可以看到美国的企业已经从道德入手,制定企业内部规则或是技术操作规则。这个案例的研究意义不在于这种现象,而在于其反映的软法的管理。

孙明俊

中关村智用人工智能研究院执行院长、中视科技CEO

2016年6月,欧盟生效了个人数据保护规范《一般数据保护规则》,该《规则》具体规定了个人数据处理的操作规范以及欧盟公民的个人数据流出欧盟的基本条件。其中第22条专门规定了基于个人数据自动化决策和分析(Profiling)的条件。根据该《规则》,任何第三国,作为欧盟公民数据流出的目的地,的个人数据保护标准应等于或者高于欧盟标准。这也是美国科技巨头不断提高人工智能隐私保护标准的原因之一。

一方面,对于跨国数字企业,自我规范在企业合规中极为重要。欧盟在《一般数据保护规则》中规定了数据控制方,也即处理数据的责任方需要证明其业务遵守了《规则》中的相关义务。而且欧盟在《一般数据保护规则》中要求在欧盟成员国有业务的企业都应建立组织架构,包括独立的数据保护官员以及相关机制,确保自我规范的有效性。考虑到欧盟市场是美国科技巨头利润的重要来源,美国科技巨头确保自身业务在《一般数据规则》下的合规极为重要。

另一方面,企业社会责任报告是实现可持续发展目标(Sustainable Development Goals)的重要机制,这种企业自愿报告工具正在逐渐普及。企业社会责任报告是由全球报告计划(Global Report Initiative)等非盈利组织推动的一种技术工具,报告公司业务对社会、经济、人权的影响。积极的自我规范在可持续发展目标投资框架下也能够为企业争取到更多的公共投资。

7

自动驾驶服务进入快车道,“无人车”行驶背后的权责归属引关注

得票率:48.89%

案例描述:

据不完全统计,我国有融资信息的无人驾驶相关企业超过70家,融资金额高达数百亿元。此外,我国共有超过1.2万件与“自动驾驶”或“无人驾驶”相关的专利,其中于2019年新申请的专利超过3000余件。2020年10月,百度官微发布,自动驾驶出租车服务在北京经济技术开发区、海淀区、顺义区等地全面开放,数十个自动驾驶出租车站点,不需要提前预约,直接下单就能免费试乘自动驾驶出租车服务。2020年6月,滴滴首次面向公众开放了无人驾驶服务。目前中美两地已有近400人的团队,已获得北京、上海、苏州、美国加州等地路测资格。(来源:综合新华网、凤凰网)

专家点评:

张成岗

清华大学社会治理与发展研究院院长、教授,清华大学社会创新与风险管理研究中心研究员

智能物联网发展的原始动力主要来自于对密集的、高变动性的“物的流动”的管理和控制需要。因为要对“物的流动”进行实时优化,所需的管理成本极高,传统的人工管理方式几乎不可能实现。

随着当代人工智能技术的快速发展和广泛应用,智能物联网技术使得对“物的流动”的实时管理成为可能,极大地提高了效率、降低了人力成本。同时,智能物联网技术也为城市管理水平的提高提供了一条可行的技术路径,其核心是“感知化”“互联化”和“智能化”,例如,城市交通管理、共享单车管理以及无人驾驶出租车管理等,将商业、运输、通信、能源等城市运行的各个系统整合为“系统之系统”。

孙明俊

中关村智用人工智能研究院执行院长、中视科技CEO

无人驾驶汽车的上路对现有机动车事故民事责任分配提出了新的问题。全球各主要经济体,在缺乏有效的立法干预前,无人驾驶汽车的事故责任仍采取事故责任人过错责任制,也即无人驾驶汽车的车主/驾驶员对事故负责。在具体事故涉及到产品责任时,则由车主/驾驶员向制造商进行追索。

美国和欧盟已经开始推动新的立法动议。欧洲议会在立法建议中积极推动根据美国汽车工程师协会定义的汽车自动化水平L1-L4的汽车采取风险责任,并拓展产品责任法的适用。L5-L6级汽车,作为非自动汽车,仍适用过错责任。民事责任中的风险责任,或称严格责任,是指不考虑责任方的过错,责任方根据造成的损失进行赔偿。而在无人驾驶汽车事故适用产品责任规则时,仍有明显的障碍。首先,对于无人驾驶汽车这类的复杂工业产品,消费者很难证明产品存在明显缺陷。其次,产品责任规则并不要求厂商在定型产品时完全避免风险,这也就是说,科学上未知的风险最终仍将是由消费者承担的。最后,由于无人驾驶汽车技术的复杂性,法院很难形成一致的责任分配标准,进而降低司法确定性。

张军平

复旦大学计算机科学技术学院教授

无人驾驶是未来智能交通的发展方向。目前在封闭道路或慢速行驶时已获得良好的无人驾驶性能。在高速公路上,也能部分减少驾驶员长时间驾驶形成的疲劳和因此导致的潜在交通事故。

但在开放环境下的自动驾驶方面,距离完全无人的自动驾驶情况还有一定的差距。它不仅体现在传感器的价格和维护成本高,也体现在处理复杂环境时,仍然存在一些实际场景无法预测和处理的问题,尤其是在国内一些人、机与非机混合行驶的路况下。同时也应考虑事故发生后的伦理问题及相应立法措施。

值得注意的是,著名的电车难题也是自动驾驶面临的伦理问题。未来智能驾驶时,车与车的联系、车的控制都可能是建立在智能网上的。因而,还面临一个如何抵抗攻击的问题。

8

人工智能技术突破现有边界,具备“自主意识”,可实现独立研发、自我修复等功能

得票率:48.75%

案例描述:

美国麻省理工学院(MIT)科学家在最新一期《细胞》杂志撰文称,他们新研制出的一种深度学习人工智能(AI),鉴定出一种全新抗生素。实验室测试表明,这种抗生素能有效杀死多种世界上最麻烦的致病细菌,包括一些对所有已知抗生素耐药的菌株。

美国佛蒙特大学计算机科学家和塔夫茨大学生物学家共同创造出100%使用青蛙DNA的可编程的活体机器人Xenobot,这种机器人的体长仅0.04英寸(约1毫米),能按照计算机程序设计的路线移动,还能负载一定的重量,携带药物在人体内部移动。Xenobot具有自我修复功能,当科学家把它们进行切割时,机器人会自行愈合并继续移动。佛蒙特大学表示,这些是“完全新的生命形式”。“它们既不是传统的机器人,也不是已知的动物物种。它是一类新的人工制品:一种活的可编程生物。”(来源:综合环球网等)

专家点评:

梁正

清华大学公共管理学院教授、清华大学人工智能国际治理研究院副院长

这个案例涉及到了人工智能技术的发展前景,这是人工智能治理的基础,同时也可以让我们思考人工智能的能力边界究竟在何处。这个案例也代表了一种技术发展的苗头,未来是否会有更多活体机器人的出现?这是非常具有冲击意义的。

徐云程

旷视首席发展官、旷视AI治理研究院院长

人工智能不但能替代一些传统工作,提升效率、促进企业发展,同时也可以做一些单靠人工无法进行的工作,并且为人类未来的幸福生活提供了新的可能性。但我们要注意它的强大性和不可解释性也带了一些风险。这个案例体现了新技术的可能性,但在技术早期探索时,我们也要做一个嵌入式伦理的研究与控制。

季卫东

上海交通大学文科资深教授、中国法与社会研究院院长

Xenobot这个案例是很特殊的,非常耸人听闻。这涉及到责任与法律人格认定问题,是否要为活体机器人赋予法律人格平等权,这在AI治理上是具有重要意义的,尤其是在算法黑箱化问题愈发严重、问责困难的情况下,这值得我们的重视和思考。

9

湖南岳阳警方破获AI犯罪案,技术犯罪仍要惩罚人

得票率:48.75%

案例描述:

湖南省岳阳市岳阳楼公安分局联合市局网技支队破获了一起利用人工智能语音机器人帮助网络犯罪案,抓获犯罪嫌疑人19人,查获了大量作案电脑和手机,扣押涉案现金100余万元,冻结涉案资金1000余万元。该团伙利用“AI智能语音机器人”对非法获取的大批量手机号码进行拨打,通过“AI智能语音机器人”筛选后,将正在炒股或者有炒股意向的受害人拉入预先建立的虚假炒股微信群,进而实施诈骗。目前,包括黄某在内的12名主要犯罪嫌疑人已全部被公安机关依法刑事拘留,7人被依法治安拘留,相关案情正在进一步深挖之中。(来源:岳阳日报)

专家点评:

张军平

复旦大学计算机科学技术学院教授

AI技术具有双面性,一方面能大幅度减少人力成本,提高工作效率,另一方面也可能为不法分子利用。本例案件采用的技术并不复杂,主要是通过AI智能语音机器人来替代原来的真人诈骗犯,再用真假难辨的虚拟机器人进行智能分析和诱骗。我们需要提高AI应用的准入门槛,进行有效的身份鉴别。同时也要对AI技术的新进展进行持续的关注和跟踪,以及对潜在的风险如AI偏见、AI换声换脸等保持一定的警惕性,避免技术被不法分子所利用,危害社会发展。

10

人工智能首次控制美国军用系统,或将开启算法战新时代

得票率:48.22%

案例描述:

2020年12月15日,美国空军在加利福尼亚州首次成功使用人工智能副驾驶控制一架U2侦察机的雷达和传感器等系统,这是人工智能首次控制美国军用系统,将开启算法战的新时代。从三年前开始,美国空军开始大步向数字化时代迈进。最终开发出军用人工智能算法,组建了五角大楼第一批商业化开发团队,编写云代码,甚至还建立了一个战斗云网络,通过该网络,美军以极高的机器响应速度击落了一枚巡航导弹。(来源:环球网)

专家点评:

刘伟

北京邮电大学人机交互与认知工程实验室主任、科技委人机融合智能组首席科学家

人工智能过程不是被动地对环境的响应,而是一种在环境信息的刺激下,通过采集、过滤,改变态势分析策略,从动态的信息流中抽取不变性,在人机环境交互作用下产生近乎知觉的操作或控制的行为。人工智能技术中的计算是动态、非线形、自适应的,是外界环境、机器和人的认知共同作用的结果,人机系统的特性应该随着与外界的交互而变化,这对于社会系统中重大事件(战争、自然灾害、金融危机等)的应急指挥和组织、复杂工业系统中的故障快速处理等问题的解决都有着重要的参考价值。

由于人工智能系统涉及面较广,极易产生非线性、随机性、不确定性等系统特征,进行系统建模的研究时面临着很多困难,我们应针对人机环境系统的实质及人工智能的影响因素这两个关键问题进行深入探讨,追根溯源,早日实现高效安全宜人可靠的人工智能系统。

邱泽奇

教育部长江学者特聘教授,北京大学中国社会与发展研究中心主任

算法战的出现意味着人类军事战争一个崭新阶段的来临,也意味着数字化军事战争的一种形态。在军事战争中,武器,作为人类肢体和智力延伸的工具,一直是战争胜负的决定性变量。热兵器对冷兵器的替代,是武器对人类肢体和体力的延伸;算法和无人机对人的肢体和体力的替代,则是武器对人类智力的延伸,是人类战争的第二次本质跃升,并将从此改变战争的诸多属性!

本文参与 腾讯云自媒体同步曝光计划,分享自微信公众号。
原始发表:2021-03-22,如有侵权请联系 cloudcommunity@tencent.com 删除

本文分享自 肉眼品世界 微信公众号,前往查看

如有侵权,请联系 cloudcommunity@tencent.com 删除。

本文参与 腾讯云自媒体同步曝光计划  ,欢迎热爱写作的你一起参与!

评论
登录后参与评论
暂无评论
推荐阅读
编辑精选文章
换一批
人工智能被列入立法规划,马化腾李彦宏雷军两会抢发言
从人工智能被写进政府报告那一年开始,两会上的科技色彩也越来越浓厚。就在刚刚,全国人大发言人张业遂表示,人工智能相关的立法项目已列入立法规划。
镁客网
2019/03/18
6140
人工智能被列入立法规划,马化腾李彦宏雷军两会抢发言
【信息差】人工智能领域最近几天发生的大事件
中国国家发展改革委员会、工业和信息化部、科技部等部门联合发布了《新一代人工智能发展规划》。
阿黎逸阳
2023/08/21
3280
【信息差】人工智能领域最近几天发生的大事件
大咖丨哥伦比亚教授周以真:人工智能恐慌以及大数据威胁反思
大数据文摘记者:魏子敏 大数据和人工智能正无可置疑地为全行业和我们的生活带来了翻天覆地的变化,在10月11日2017杭州·云栖大会的主论坛上,不同于全场众多追捧褒扬之声,来自哥伦比亚大学的周以真教授则针对大数据和人工智能可能带来的威胁进行了反思。她提出,数据会给我们带来很多好处,但是如果不负责任滥用数据和算法,会带来可怕的结果。 “我要给大家敲一个警钟,我们在使用数据过程当中不负责任的话,会有什么样的后果。” 她用FATES(命运)这个比喻的缩写来讲述了怎样有责任的使用数据,F是代表公平,A是可靠,T是透明
大数据文摘
2018/05/24
5420
百度,人工智能你真的行吗?
孙正义的软银当年在名不见经传的阿里巴巴身上投下了2000万美元的赌注,现在软银所持的股份价值据估算暴涨到了大约580亿美元。现在,他看到了新的趋势,并部署了软银的新战略方向。 本月初,软银宣布1年内将在Sprint美国门店中出售名为“Pepper”的拟人化社交机器人。宣告软银的机器人战略正式开局——继电视机、个人电脑、游戏机、智能手机之后,机器人将成为家庭中的第五大类智能终端,“社交机器人”产品将极有可能掀起电子消费品行业的新一轮浪潮。 随着智能手机迅速普及,智能电视和机顶盒迅速进入千家万户,客厅中的信息入
机器人网
2018/04/13
7470
来自人工智能的十大挑战,你们人类准备好了吗?
人工智能正在改变世界,而关键是人类应该如何塑造人工智能。我们在“热”推进的同时,必须进行“冷”思考。本文立足于哲学视域,来探讨智能化社会有可能带来的十大挑战。
IT派
2018/07/30
5510
来自人工智能的十大挑战,你们人类准备好了吗?
报告丨2016年全球人工智能十大热点事件
2016年,全球人工智能技术和产业发展迅速,公众对人工智能的关注持续上升。在对该领域的重要事件进行分析和比较的基础上,选取了2016年该领域十个最具有影响力的事件。 1 美国等政府发布人工智能研发战略
用户1332428
2018/03/08
1.1K0
报告丨2016年全球人工智能十大热点事件
商汤科技发布AI治理白皮书:践行 “负责任且可评估” 的人工智能
机器之心发布 机器之心编辑部 在 2022 WAIC 世界人工智能大会 “亚洲科技伦理治理与可持续发展论坛” 上,商汤科技正式发布《“平衡发展”的人工智能治理白皮书——商汤人工智能伦理与治理年度报告(2022 年)》(以下简称“报告”,点击此处下载报告全文),深入探讨并分享了商汤在推动 AI 治理落地进程中的洞察、思考、目标与实践。商汤科技智能产业研究院院长田丰受邀出席并就白皮书的重点内容作了解读。 报告指出,当前,人工智能治理已经进入了以技术验证为主的落地实践阶段。今年以来,新加坡、欧盟、美国、中国等国家
机器之心
2022/09/06
4050
商汤科技发布AI治理白皮书:践行 “负责任且可评估” 的人工智能
陶大程:判断人工智能是否可信的“四把尺子”
在2021年世界人工智能大会的可信AI论坛上,陶大程进行了主题为《可信人工智能的前世今生》的报告。他在报告中表示,在人工智能的技术落地浪潮中,AI的可信度将成为一大关键难点,他还基于国内实践提出了人工智能是否可信的四个度量标准,并指出在可信AI的框架探索方面,我们还有很长的路要走。
AI科技评论
2021/07/27
1.4K0
陶大程:判断人工智能是否可信的“四把尺子”
2017互联网研究六大关键词
2017年的互联网研究会有哪些热点?人工智能会在哪些重要的方向取得突破?当我们的工作、生活和平台型公司连接越来越紧密的趋势下,我们应该如何和平台更好地相处?   在1月6日举行的腾讯研究院年会上,腾讯研究院院长、腾讯集团公共战略研究部总经理司晓做了“互联网研究,这是最好的时代”的主题演讲,并用六大关键词来阐释了2017年互联网行业新趋势。   其在演讲中,还提出了“学术VC”的概念,希望能通过多样化的学术支持,把更多的学科纳入到互联网研究中,与研究者一起成长,一起促成互联网研究领域产出更多优秀成果,
腾讯研究院
2018/02/01
1.2K0
2017互联网研究六大关键词
十项建议解读欧盟人工智能立法新趋势
中国信息通信研究院与腾讯研究院AI联合课题组 作者:曹建峰  腾讯研究院法律研究中心研究员 各国纷纷关注人工智能伦理和法律问题       2016年以来,人工智能不仅受到科技公司热捧,人工智能在智力游戏、自动驾驶、语音和图像识别、翻译等诸多领域取得重大突破,谷歌、脸书、微软等科技巨头收购人工智能创业公司的速度已经快赶上这些公司的创立速度。而且,各国政府(比如美国、英国等)以及一些社会公共机构(比如UN、IEEE等)开始积极关注人工智能的法律、伦理、社会、经济等影响,密集出台战略文件和报告
腾讯研究院
2018/02/01
1.5K0
附录 人工智能2020年-2805年
本文为「darksee.ai」整理的数据。 MixLab无界社区是一所面向未来的实验室 以下为正文: 2020年,上海成为国家人工智能发展高地 ……2017年11月14日,上海推动新一代人工智能发展实施意见正式出台,提出全面实施「智能上海(AI@SH)」行动,到2020年,实现上海成为国家人工智能发展高地的总体目标,从政策上强调了人工智能具有的战略意义…… 原文 2020年,中国的人工智能总体技术和应用将与世界先进水平同步 ……中国国家领导人曾明确表示,人工智能是国家战略重点。依照今年7月中国政府发布的有关
mixlab
2019/05/05
9800
2023十大科技趋势预测!百度研究院最新发布
1月5日,百度研究院2023年科技趋势预测如约而至。这是自2020年以来,百度研究院第四次发布十大科技趋势预测。
脑机接口社区
2023/02/14
5780
2023十大科技趋势预测!百度研究院最新发布
人工智能军备竞赛:一文尽览全球主要国家AI战略
AI 全球领导者之争已经正式拉开帷幕。在过去的 15 个月里,加拿大、日本、新加坡、中国、阿联酋、芬兰、丹麦、法国、英国、欧盟委员会、韩国和印度都发布了促进 AI 应用与开发的战略。这些战略无一相似,关注的方面也有所不同,如科学研究、人才培养、技能与教育、采用公共和私有部门、道德包容、标准与法规及数据与数字基础设施。
机器之心
2018/07/26
5320
人工智能军备竞赛:一文尽览全球主要国家AI战略
打开人工智能“黑盒”,发展可解释、可扩展、可信赖、安全可靠的人工智能
👆点击“博文视点Broadview”,获取更多书讯 进入21世纪以来,人工智能(Artificial Intelligence,AI)取得了长足发展,已经逐步在自然语言处理、计算机视觉、语音识别、自动驾驶等领域落地。AI与人类紧密的结合,使得智能化的人机协同成为大势所趋。人类在全方位应用AI的同时,更希望能理解、信任、管理AI。因此,发展可解释、可扩展、安全可靠的AI显得至关重要。 而人工智能技术的高速发展也面临诸多困难与挑战。其中,如何把AI技术的基本原理,其自动决策机制,潜在风险及防范措施,以通俗易懂
博文视点Broadview
2022/05/23
6630
打开人工智能“黑盒”,发展可解释、可扩展、可信赖、安全可靠的人工智能
通用人工智能标准、测试和架构(文末送书)
全球知名人工智能科学家朱松纯及团队全新成果、国内首本通用人工智能测评书《通用人工智能标准、评级、测试与架构》重磅出版,这本书提出了通用人工智能的中国标准!
老_张
2025/05/13
1520
通用人工智能标准、测试和架构(文末送书)
ISOC:人工智能与机器学习的政策建议
image.png 中国信息通信研究院与腾讯研究院AI联合课题组编译   蔡雄山 腾讯研究院法律研究中心副主任、首席研究员   曹建峰 腾讯研究院研究员   李金磊 腾讯研究院助理研究员   日前,国际互联网协会(ISOC)发布《人工智能与机器学习:政策文件》,分析当前的有限人工智能(narrow AI)发展和应用中面临的问题和挑战,并提出指导原则和建议。 引言   近年来,人工智能(artificial intelligence,缩写为AI)受到越来越多的关注。互联网使创新成为可能,也
腾讯研究院
2018/02/01
9860
ISOC:人工智能与机器学习的政策建议
斯坦福成立“以人为本人工智能研究院”,李飞飞担任共同院长
斯坦福大学今天正式宣布启动“以人为本人工智能项目”,目标是创建“以人为本人工智能研究院(Stanford Human-Centered AI Institute (HAI))”。
新智元
2018/11/08
7610
人工智能伦理规范难题如何走出困境?丨科技云·视角
人工智能可谓是21世纪最有前景的新兴技术之一,其在自动驾驶、语音识别等方面已经取得了诸多重大突破,但在其商业化应用过程中也出现了不少意外的负面后果,其中浮现出的人工智能伦理风险,为技术健康持续发展和商业化落地带来了新的挑战。
科技云报道
2022/04/14
4310
赠书丨打开人工智能“黑盒”,发展可解释、可扩展、可信赖、安全可靠的人工智能
进入21世纪以来,人工智能(Artificial Intelligence,AI)取得了长足发展,已经逐步在自然语言处理、计算机视觉、语音识别、自动驾驶等领域落地。AI与人类紧密的结合,使得智能化的人机协同成为大势所趋。人类在全方位应用AI的同时,更希望能理解、信任、管理AI。因此,发展可解释、可扩展、安全可靠的AI显得至关重要。 而人工智能技术的高速发展也面临诸多困难与挑战。其中,如何把AI技术的基本原理,其自动决策机制,潜在风险及防范措施,以通俗易懂的方式向人类说明,成为发展可信赖,安全可靠人工智能的首
AI科技评论
2022/05/30
6740
赠书丨打开人工智能“黑盒”,发展可解释、可扩展、可信赖、安全可靠的人工智能
陈杰院士:多无人系统协同中的人工智能安全探索
多无人系统协同作为一项人工智能的颠覆性技术,将在空间上分布的无人系统有机连接起来,在给社会创造价值的过程中,也存在着诸多安全隐患,有可能在军事作战、产业升级、政府监管、社会治理以及伦理等多个方面给国家安全带来新的挑战。
用户9882025
2022/07/29
5580
推荐阅读
相关推荐
人工智能被列入立法规划,马化腾李彦宏雷军两会抢发言
更多 >
领券
一站式MCP教程库,解锁AI应用新玩法
涵盖代码开发、场景应用、自动测试全流程,助你从零构建专属AI助手
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档