---- 新智元报道 来源:智源社区 作者:熊宇轩 李梦佳 编辑:好困 【新智元导读】北京时间4月8日凌晨0:30,Yann LeCun(杨立昆)和吴恩达针对近期甚嚣尘上的「AI暂停」一事进行了一场深入讨论,讨论主题为「为何为期6个月的AI暂停是完全错误的」。 在这场风波中,二人都立场鲜明,明确表态反对暂停AI研发。汽车刚发明时没有安全带和交通信号灯,Yann LeCun认为,人工智能与先前的技术进步之间没有本质上的差异。 吴(吴恩达):在过去的 10、20、30 年间,我们见证了深度学习惊艳的
北京时间4月8日凌晨0:30,Yann LeCun(杨立昆)和吴恩达针对近期甚嚣尘上的「AI暂停」一事进行了一场深入讨论,讨论主题为「为何为期6个月的AI暂停是完全错误的」。 在这场风波中,二人都立场鲜明,明确表态反对暂停AI研发。汽车刚发明时没有安全带和交通信号灯,Yann LeCun认为,人工智能与先前的技术进步之间没有本质上的差异。智源社区对讨论核心观点进行了整理。 编辑丨熊宇轩、李梦佳 吴(吴恩达):在过去的 10、20、30 年间,我们见证了深度学习惊艳的效果。在近 1-2 年,人工智能系统进步的
大数据文摘授权转载自智源社区 编辑:熊宇轩、李梦佳 北京时间4月8日凌晨0:30,Yann LeCun(杨立昆)和吴恩达针对近期甚嚣尘上的「AI暂停」一事进行了一场深入讨论,讨论主题为「为何为期6个月的AI暂停是完全错误的」。在这场风波中,二人都立场鲜明,明确表态反对暂停AI研发。汽车刚发明时没有安全带和交通信号灯,Yann LeCun认为,人工智能与先前的技术进步之间没有本质上的差异。智源社区对讨论核心观点进行了整理。 吴(吴恩达):在过去的 10、20、30 年间,我们见证了深度学习惊艳的效果。在近
2016年人工智能开始慢慢的走入我们的视线,随后人工智能这一词就一直被人挂在口中。人工智能分为弱人工智能、强人工智能和超人工智能,现在的科技虽然发达,但是人工智能也仅停留在弱人工智能的阶段,人们渴望科技发达带给他们越来越多的便利,但是也会害怕当人工智能发展越来越迅速后对人类造成危害。
OpenAI 宣布成立一个专门的 Superalignment 团队,旨在防止流氓 Superintelligent AI 的出现。OpenAI 强调了使人工智能系统与人类价值保持一致的必要性,以及主动采取措施防止潜在危害的重要性。
工作在一线的警察正在对剑桥大学犯罪学家研发的人工智能系统进行试验,以利用过去的五年犯罪史统计指导警方的工作。
作者 | 李扬霞 编辑 | 青暮 谷歌Ethical AI人工智能伦理研究小组前负责人玛格丽特·米切尔(Margaret Mitchell)将加入Hugging Face,开发让AI 公平的工具。 8月25日,谷歌Ethical AI人工智能伦理研究小组前负责人玛格丽特·米切尔(Margaret Mitchell)将加入人工智能创业公司Hugging Face,帮助企业开发确保其算法公平的工具。她因与他人合著的一篇重要论文引起争议而在今年2月被谷歌解雇。 1 Hugging Face有何吸引力? Huggi
本文介绍了人工智能发展所带来的法律挑战,包括刑事责任、隐私权保护以及就业问题。作者认为,人工智能的快速发展给社会带来了很多便利,但也给现有的法律体系带来了不少挑战。对于未来的人工智能发展,应该加强法律研究,对现有法律体系进行更新和完善,以适应新技术的发展需要。同时,也要提高公众对于人工智能法律问题的认识,加强法治教育,提高人们的法治意识,以保障人工智能技术的健康、有序发展。
在2017年,“人工智能”这个词得到了公众前所未有的关注,究其原因我认为与两方面有关,一方面人工智能学术领域自身产生了一些进步,另一方面则更多与媒体和业界噱头式的鼓吹有关,两相叠加促使“人工智能”一词被滥用,进而导致其含义变得模糊和广义,偏离了人工智能的初衷。这篇文章就结合我的理解从以下几个方面来讨论下这个热词。公众号文章篇幅不宜冗长,故斟字酌句力求无赘述,如有错谬之处,敬请不吝告知。 人类期待的人工智能 谈到人工智能的科幻色彩,有几部非常经典的影视作品:2001太空漫游(1968)、银翼杀手(1982
快思考是一种应激性、无意识且快速的的行为,它不怎么费脑力,没有感觉,完全处于自主控制状态。
比如图灵奖三巨头 Geoffrey Hinton、Yoshua Bengio、Yann LeCun 就出现了两种观点。Hinton、Bengio 为一队,他们强烈呼吁加强对 AI 的监管,否则可能引发「AI 灭绝人类」的风险。LeCun 与他们的观点并不相同,他认为 AI 强监管必将带来巨头垄断,结果是只有少数公司控制 AI 的研发。
前几日肆虐全球的“wannacry”勒索病毒着实让我们惊出一身冷汗。如果这都惊到你了,那你是不知道人工智能系统中木马病毒的厉害,因为它所带来的损失可能不止是金钱,更可能是生命! 但是你了解人工智能系统中的木马病毒吗?你知道黑客可以通过哪些手段对人工智能系统进行攻击呢? 在本文中,我们就来聊聊人工智能的安全问题。 作者 | 张重阳 近期wannacry敲诈勒索病毒全球大规模爆发,在全国大范围蔓延,感染用户主要集中在企业、高校等内网环境。中招系统文档、图片资料等常见文件都会被病毒加密,然后向用户勒索高额
基于 GPT系列庞大的用户体量和影响力,OpenAI 将更加重视GPT-5 的安全性,作为GPT-5上市前的最后一关,「红队进攻测试」的结果至关重要,甚至将决定上线时间和效果。
11月26日,由英国国家网络安全中心(NCSC)、美国网络安全与基础设施安全局(CISA)联合美国国家安全局、美国联邦调查局以及澳大利亚、加拿大、新西兰、德国、法国、日本等10余个国家的网络和/或信息安全部门发布了“安全的人工智能系统开发指南”(Guidelines for secure AI system development [1])。亚马逊、微软、IBM、google等10余家机构参与了指南的制定。该指南旨在为使用人工智能(AI)的任何系统的提供商提供指导原则,帮助提供商构建能够按预期工作、在需要时可用、在不泄露敏感数据的前提下工作的人工智能系统。本文对其主要内容进行解读,以供普通读者阅读了解。人工智能专家或人工智能系统开发人员可根据需要,参阅原文[1]以获取更详细、全面的信息。此外,指南的末尾注记中列出的资料可作为延伸阅读材料,感兴趣的读者可以自行参阅。
---- 新智元报道 编辑:桃子 Aeneas 【新智元导读】眼看AI的进化速度越来越快,白宫终于出手了。拜登会见了Sam Altman、劈柴、纳德拉这些顶级科技公司的CEO,紧急应对AI引发的巨大担忧。 美国终于出手了! 当地时间周四,拜登会见了顶级AI公司的CEO们,告诉他们:你们有道德义务,保证AI产品的安全。 Sam Altman、谷歌劈柴、微软纳德拉、Anthropic的Dario Amodei参加了这场不同寻常的会议。 拜登开场非常直白,「你们正在做的事不仅有巨大的影响力,还将带来巨
GAIR 今年夏天,雷锋网将在深圳举办一场盛况空前的“全球人工智能与机器人创新大会”(简称GAIR)。大会现场,雷锋网将发布“人工智能&机器人Top25创新企业榜”榜单。目前,我们正在四处拜访人工智能
AlphaGo >> AlphaGo Master > > AlphaGo Zero,人工智能在不停的进步。2017是人工智能元年。2030年抢占人工智能制高点。要注意人工智能和机器人不可以划等号。机器人是多种人工智能技术的结合。
人工智能一旦脱离束缚,就会以不断加速的状态重新设计自身。人类由于受到漫长的生物进化的限制,无法与之竞争,将被取代,这将给我们的经济带来极大的破坏。 ——霍金 近日,在日内瓦举办的联合国特定常规武器公
---- 新智元报道 编辑:李静怡 【新智元导读】今天,谷歌CEO Sundar Pichai 发表了署名题为《AI at Google: our principles》的文章,列出7大指导原则,阐述谷歌在研发和使用AI时将遵循的目标。Pichai 还明确列出了谷歌“不会追求的AI应用”,包括可能造成危害的技术、武器等。但是,谷歌并不会终止与美军的合作。 上周五,谷歌宣布与国防部Maven合同在明年到期后不再续约,并表示将发布关于使用AI的新道德准则。 今天,谷歌CEO Sundar Pichai
最近,OpenAI刚刚放出了「模型规范」,展示了团队如何给LLM列出「条条框框」,为其提供行为指南。
上个月,小米汽车发布会,微博热搜不断,智能汽车又一次大规模进入大家的视野,其中很多高科技的技术已经集成到了汽车之上,比如自动驾驶、AI 引擎、自动刹车、万物互联等等。
【导读】人工智能(AI)已经从一个科幻小说式的探索领域发展到一个蓬勃发展的科技领域,在这个领域里,不可能的事情正在成为可能。为了确保人工智能发展的未来仍然具有伦理和社会意识,美国电气和电子工程师协会(
一组研究人员创造了一种能够利用生成人工智能系统的计算机病毒,包括Gemini Pro和GPT-4驱动的ChatGPT版本。
---- 新智元报道 编辑:LRS 【新智元导读】OpenAI一拳把谷歌干哑火,AI的开源时代要结束了吗? AI在过去十多年的飞速发展,得益于高校、企业与个人开发者的通力合作,让人工智能领域内遍布开源的代码、数据及教程。 谷歌也一直是AI行业的领军者,发表的论文横跨自然语言处理、计算机视觉、强化学习等多个领域,为行业内贡献了诸如Transformer, Bert, PaLM等诸多基础模型与架构。 但OpenAI打破了游戏规则,不仅拿着Transformer开发出了ChatGPT,还凭着初创公
从程序本质上来说, AI其实就是一个更大的循环(Big Loop),原来你的程序可能循环1000次,一万次,在AI的世界里则是1000万次, 一万亿次,甚至更大的循环次数而已。况且, 即使在这么大的循环次数下面,即使有持续的数据来“喂”各种AI程序,他们最终的判定也只是根据以往的“经验”去“猜”, “嗯, 这个东西跟之前的一类数据好像差不多, 那么这个东西应该就是XXX了”, 这样的智能,与其称之为智能,不如称其为智障,只会因循守旧的“傻瓜”罢了。
IBM IBM使用机器学习预测天气 在买下天气预报公司The Weather Company的 B2B数据业务后几个月,IBM终于有所作为了。The Weather Company昨日发布了一个名为D
64%受访者表示婚恋App的推荐匹配效果很好,44%的人会相信人工智能或算法来为他们找到匹配的对象;
机器之心报道 编辑:杜伟、陈萍 图灵奖 AI 三巨头,这次签字的就有两个。 人工智能存在「灭绝」级别的风险,未来的系统可能像核武器一样致命。本周二,著名的人工智能学者、科技公司创始人团结了起来,发出呼吁。 公开信地址:https://www.safe.ai/statement-on-ai-risk 前有马斯克、Bengio 等人发出公开信,叫停 GPT-4 后续 AI 大模型的研发,近期又有 OpenAI 高层发文探讨「超级智能」监管问题,并表示像监管核武器一样监管 AI。AI 可能引发的一系列风险问题正
【新智元导读】艾伦人工智能研究所CEO、著名的人工智能研究者Oren Etzioni九月在《麻省理工技术评论》上撰文批评Nick Bostrom的新书《超级智能》,认为对超级智能AI的长期风险的担忧不过是杞人忧天,在可预见的未来不可能出现超级智能AI。对此来自耶鲁大学政治学和加州大学伯克利分校计算机科学的两位教授Allan Dafoe和Stuart Russell在同份杂志上撰文驳斥Etzioni的批评,力挺Bostrom。有意思的是,Etzioni在这篇评论的文末刊登了一段回应,虽不完全同意两位教授的观点
许多高管问我人工智能能够做什么? 这些人想知道 AI 是如何颠覆他们从处的行业,以及他们该如何利用 AI 重塑自己的公司。这段日子,有媒体在描述人工智能时总是夹杂着一些不切实际的观点:如人工智能很快就会接管全世界! 是的,人工智能确实在改变着搜索、广告、电商、金融、物流、媒体等行业,但作为曾经 Google Brain 的负责人、斯坦福大学人工智能实验室前主任以及百度 1200 多人的 AI 团队领导者;以及培育出许多世界领先的人工智能小组,并创造出许多服务上亿用户的人工智能产品的人,在谈及人工智能对世
---- 新智元报道 编辑:Britta 【新智元导读】Anthropic对于人工智能发展的安全性研究以及推论表明,人工智能系统的计算量将呈指数型增长,预计未来5年训练AI模型的计算量将增加1000倍。 自从发现缩放定律以来,人们认为人工智能的发展会像坐火箭一样迅速。 2019年的时候,多模态、逻辑推理、学习速度、跨任务转移学习和长期记忆还是会有减缓或停止人工智能进展的 「墙」。在此后的几年里,多模态和逻辑推理的「墙」都已经倒下了。 鉴于此,大多数人已经越来越相信,人工智能的快速进展将继续下去,而
可解释性对人工智能发展来说至关重要,但在可解释系统的可信度方面,理解其可能带来的负面效应亦同等重要。
电影《超验骇客》近期在全球上映,这部好莱坞科幻大片讲述了人工智能对人类的危害有严重。电影中威尔卡斯特博士是人工智能领域的权威,他结合了人类情感和智慧研发足以毁灭世界的机器人。 电影中威尔卡斯
【新智元导读】《哈佛商业评论》刊文,为财富1000强提供咨询的公司 Early Infromation Science 创始人兼CEO认为,“轻”AI,也即使用监督学习等依照程序指令工作的人工智能系统,能带来很大的回报,而且部署起来所需的技术、时间、资金也更少。现在就开始使用“轻”人工智能技术的企业,未来将处于优势地位。 (文/Seth Earley,Earley Information Science 公司创始人兼CEO,为财富1000 强企业提供搜索、内容和知识上的战略咨询)人工智能技术现在十分火热,但
无数资金以及无数研究人员的科研生涯都奉献给了预测下一次大地震将在何时何地发生。但地震预测与天气预报不同,天气预报通过使用更好的卫星和更强大的数学模型得到了显着改善,而地震预测则因反复失败而停滞不前。
前些天看到一张表,《未来最有可能被人工智能取代的工种》,里面详细的列出了很多个职业名称。乌镇会议,让很多人越来越真实的感觉到,人工智能时代就要到来了,同时,也出现了很多的担忧,担忧未来人工智能可能危害我们人类的生存空间。但也有很多科学大V站出来说,“我不同意”,举了很多很多的例子,例如蒸汽机的发明到汽车的发明,当时候蒸汽机,汽车面世的时候,当时的科幻小说就有描述未来的人类,可能要和这些怪物斗争,今天的事实已经很清楚,蒸汽机,汽车都成为了人类的一个工具,在生物学上没有丝毫威胁,它们终究是一个机器。不过,蒸汽机
关于「AI灭绝论」引发的一系列争论,各路大佬们又吵起来了。这次加入争吵的是著名人工智能学者、斯坦福大学计算机科学系教授吴恩达。
【新智元导读】开源机器学习公司 H2O.ai 产品市场总监 Vinod Iyengar 昨天在TechCrunch刊文,就人工智能市场并购频繁尤其是初创公司在未盈利阶段就被收购,而且收购方集中在少数巨头当中表示担忧。Lyengar指出,垄断将阻碍产业整体发展、减缓创新,最终损害用户利益。Lyengar 号召数据公开、透明和共享,好让每个人都从AI技术中获益。 (文/Vinod Iyengar)在最近的一系列高科技并购交易案中,你可能没有注意到一件相对低调的收购案:苹果以2亿美元的价格收购了位于西雅图的人工智
来源:专知本文为书籍介绍,建议阅读5分钟本书面向数据科学、人工智能、计算机视觉和机器学习领域的研究生、研究人员和专业人员。 DeepFakes是一种合成媒体,它利用强大的人工智能(AI)和机器学习(ML)技术来生成极其逼真的虚假视觉和音频内容,从而使人类很难将其与原始内容区分开来。除了对DeepFakes概念的技术介绍外,该书还详细介绍了检测DeepFakes的算法、识别篡改内容和识别换脸的技术、生成对抗神经网络、媒体取证技术、深度学习架构、DeepFakes的取证分析等。 https://www.rou
整理 | 褚杏娟 这几天,OpenAI 的人工智能(AI)聊天机器人 ChatGPT 吸引了全球很多人的目光,就如马斯克说的:“许多人陷入了疯狂的 ChatGPT 循环中。” 与 OpenAI 以前的人工智能工具不同,ChatGPT 不仅会聊天,还可以承认错误,拒绝回答虚假问题,写代码、改 Bug、创建编程语言,甚至看病。OpenAI CEO Sam Altman 在推特上表示,上周三才上线的 ChatGPT,短短几天内用户就已经突破 100 万大关。当然,这或许也与现在 ChatGPT 只要登陆即可免
随着网络威胁愈演愈烈,防火墙和杀毒软件这样的安全产品逐渐变成了古老的工具,企业正在寻找更先进的技术来保护那些关键数据。 人工智能逐渐走入各行各业,网络安全领域自然不甘下风,使用人工智能技术,新的漏洞可
人工智能可谓是21世纪最有前景的新兴技术之一,其在自动驾驶、语音识别等方面已经取得了诸多重大突破,但在其商业化应用过程中也出现了不少意外的负面后果,其中浮现出的人工智能伦理风险,为技术健康持续发展和商业化落地带来了新的挑战。
很多AI从业人员对他很反感,认为他在危言耸听,但因为他自己的名人身份,对AI的过度警惕和反对给实际研究工作带来了困难。
原作 Alan Boyle Root 编译自 GeekWire 量子位 出品 | 公众号 QbitAI 这段时间,波士顿动力机器人后空翻的视频引发了网上一大波热论。 连伊隆·马斯克在假期也跑出来发了个
全球IT产业的巨头谷歌、微软、IBM、脸书和亚马逊宣布就人工智能联合建立了一个非盈利性组织,其中谷歌子公司DeepMind以独立成员身份参与。 这个新成立的非盈利组织旨在促进公众对人工智能技术(AI)的了解,并就人工智能领域的挑战和机遇制定最佳实践。该组织被命名为“人工智能惠及人类与社会合作伙伴组织”(Partnership on Artificial Intelligence to Benefit People and Society,简称“人工智能合作组织”),学术机构、非盈利组织及政治和伦理道德界的专
大数据文摘作品 作者:龙牧雪 无人车、无人机、视频生成……这些AI应用在让我们激动万分的同时,也有可能带来前所未有的灾难——如果无人车队被恶意操纵来撞你,该怎么办?这次让我们看看AI政策研究学者怎么说。 2月20日,26位来自牛津大学、剑桥大学、OpenAI、电子前沿基金会(一个非营利数字版权组织)、新美国安全中心(一家美国智库)等多个研究机构的研究人员发布了一份AI预警报告,针对AI的潜在恶意使用发出警告,并提出相应的预防及缓解措施。 报告作者之一、来自牛津大学人类未来研究所的Miles Brundage
多无人系统协同作为一项人工智能的颠覆性技术,将在空间上分布的无人系统有机连接起来,在给社会创造价值的过程中,也存在着诸多安全隐患,有可能在军事作战、产业升级、政府监管、社会治理以及伦理等多个方面给国家安全带来新的挑战。
当地时间3月14日,英国科学巨匠、著名物理学家史蒂芬·霍金去世,享年76岁。 霍金被誉为英国当代最著名物理与宇宙学家(图源:VCG) 综合媒体3月14日报道,公开资料显示,霍金(Stephen Wi
作者 James Vincent 编译 Mika 当谈到人工智能所带来的危险,我们通常强调的是意想不到的副作用。我们担心可能在无意间创造了超级智能AI,但在编程中没有加入道德约束; 或者我们部署了
领取专属 10元无门槛券
手把手带您无忧上云