又是一个阳光明媚的天气,新的一天又是这么可爱,大家好,我是小编,今天为大家带来不一样的精彩内容,希望各位看官给小编动手评论点赞喔!您的每一次评论点赞都会带来好运气喔!
凭借着极为可观的文本量储备,一种新的算法能够撰写出令人信服的文章,这同时也标志着AI技术未来有可能被用于对普通民众施以整体性蒙蔽。
下面来看几条虚假新闻……
这里提到的新闻内容不仅纯属伪造,同时也标志着AI技术已经能够在很大程度上愚弄普通人类。
因为事实上,这些消息并非由人类所撰写。所有内容都来自某一自动生成算法,其需要的全部素材就只是作为开头的“继特朗普意外发射远程导弹之后,俄罗斯已经正式向美国宣战……”
接下来的工作完全可以由该项目独立完成。其能够为大家提供与任何给定主题相关的、极为翔实逼真的新闻报道。这一项目由位于旧金山的研究机构OpenAI团队开发完成。
该团队的研究人员们着手开发出一种通用语言算法,此种算法能够通过网络上的大量文本进行训练,从而实现文本翻译、问题回答并执行其它一些高实用性任务。但在过程当中,研究人员们很快开始担心这项技术遭到滥用的可能性。OpenAI团队政策主管Jack Clark表示,“我们开始对其进行测试,并很快发现其能够轻易生成各类恶意内容。”
Clark解释称,该项目的实际表现暗示着人工智能技术完全可能被用于自动生成令人信服的虚假新闻、社交媒体发帖或者其它文字内容。更具体地讲,此类工具有可能在总统选举期间发布影响整体政治气候的新闻报道或者丑闻。时至今日,虚假新闻已经成为一大严重威胁,而如果此类内容能够自动生成,那么结果将更加无法想象。另外需要强调的是,这种算法还能够针对特定人群的统计特征甚至个人偏好进行具体优化。
Clark表示,在不久的将来,人工智能也许会以可靠的方式及效率大规模发布虚假故事、伪造推文或者其它极具说服力的误导性评论。他指出,“很明显,一旦这项技术走向成熟——也许还需要一到两年——其完全可以被用于虚假信息的生成或宣传。我们正在努力解决这个巨大的隐患。”
当然,这种技术也有着可观的积极发展空间,例如用于总结文本内容或者改善聊天机器人的会话功能。Clark指出,他甚至利用这款工具自动为短篇科幻小说生成相应段落,而且结果取得了惊人的成功。
OpenAI团队主要进行基础性人工智能研究,但同时也在强调人工智能的潜在风险方面发挥着积极的作用。该组织参与了2018年关于AI风险的研究报告,其中也提到了由此带来误导性信息的可能性(这很可能与《黑镜》剧集中的某些情节类似,亦使得不少专家呼吁对AI技术成果进行保密)。
好消息是,这种OpenAI算法并不总能骗过那些拥有一定识别能力的读者。在大多数情况下,根据所给出的提示,它只会产生表面上连贯、但内容却并不通顺的乱码或文字,这些结果似乎是受到了某些网络新闻源的污染。
然而,它确实非常擅长撰写极为真实的文本,这亦反映出将机器学习应用于自然语言领域的一大最新进展。
OpenAI团队原本是打算为《MIT Technology Review》杂志提供文本生成工具,但测试当中暴露出的问题致使他们担心这项技术可能会被滥用,因此目前仅公开提供一套简化版本。另外,该团队正在着手整理一篇用于概述此项工作的研究论文。
人工智能技术的快速进步正逐渐帮助机器更好地掌握人类语言。最近的工作正通过向通用型机器学习算法提供极大规模的文本来获取可喜的效果提升。OpenAI团队计划将这方面效果提升至新的水平:他们的系统从网络之上获得了4500万页文本,全部选取自Reddit网站。与大多数语言算法相比,OpenAI的这一项目不需要对文本内容进行标记或者人为筛选,而能够直接学习所馈送数据当中存在的各类模式。
Salesforce公司自然语言处理专家兼首席科学家Richard Socher评论称,OpenAI的工作成果代表着高度通用化语言学习系统领域的最新典范。他在接受邮件采访时写道,“我认为这些通用型学习系统代表着未来的发展方向。”
而在另一方面,Socher表示并不太关注这项技术被用于生成欺骗性及误导性信息的问题。他总结称,“大家根本不需要利用人工智能来制造假新闻,毕竟普通人就能很轻松地完成这项工作。”
小伙伴们还有什么想要说的吗,有的话就在下方进行评论之后大家一起交流吧!
领取专属 10元无门槛券
私享最新 技术干货