“重要的是,由人工智能算法控制我们的信息接收最终必然会产生的大规模人口控制,特别是政治控制(这甚至不一定需要非常先进的人工智能)。用户再也不需要有自知之明了,我认为这种“超级”人工智能将是一个可怕的威胁。
来源 | VB
AI商业周刊编译
Facebook在这个周末受到一系列批评,这些批评从Cambridge Analytica scandal中继续出现,其中包括来自一个不受欢迎的资料来源:谷歌。谷歌研究员Francois cholet警告说,Facebook上的问题不仅仅是隐私权问题,也不是最近的信任问题,而是Facebook上的事实,通过AI,能变成一个totalitarian panopticon(极权全景)。
“我们看到一个有能力的实体,监测超过20亿人的精神状况,那就是大规模的行为或操纵实验,而且我们热爱开发世界上最好的AI技术。直接说,这真的很让我害怕。” Chollet在Twitter上说,“如果你从事AI工作,请别帮他们,别玩他们的游戏,不要参与他们的研究生态系统。请展示一些良知。”
“AI研究的一个很好的版块是提升算法,以便尽可能有效地解决优化问题。”
根据Chollet的LinkedIn简介,他自2015年8月以来一直是一名专注于谷歌深度学习的软件工程师和研究人员,其代表作是Keras——一个开放源码的深度学习库,该作品被全球数十万人工智能从业者所使用。
François Chollet 是深度学习框架 Keras 的作者
现就职于谷歌,从事深度学习技术的研究。
Chollet高度关注人工智能的进步,特别是在深度学习领域,如何通过使用“毁灭性有效”的心理策略,实现Facebook的“大规模人口控制”。Chollet说,随着人工智能和深度学习的不断进步,这种威胁会越来越大。
他写道:“人脑是一个静态的,易受攻击的系统,它将越来越多地受到越来越智能的人工智能算法的攻击,这些算法将同时全面了解我们所做所为和所相信的一切,并完全控制我们所接收的信息。”
“重要的是,由人工智能算法控制我们的信息接收最终必然会产生的大规模人口控制,特别是政治控制(这甚至不一定需要非常先进的人工智能)。用户再也不需要有自知之明了,我认为这种“超级”人工智能将是一个可怕的威胁。
尽管Chollet的尖刻评论值得注意,但请考虑来源:谷歌和Facebook的都以使用人工智能算法为用户提供内容而闻名,而且都以吸引世界上许多人工智能人才而闻名。
Chollet的评论呼应了WhatsApp联合创始人布赖恩阿克顿(Brian Acton)呼吁用户删除其Facebook,以及最近几天要求首席执行官马克扎克伯格(Mark Zuckerberg)在美国国会和英国议会各委员会作证的呼声越来越高。
上周五,Facebook披露了剑桥分析公司滥用用户数据的程度,这可能有利于特朗普的总统竞选。“卫报“和其他新闻媒体的报道称,这一违规行为导致的Facebook用户的目标提前到了5000万。
上周五,Facebook披露了Cambridge Analytica公司滥用用户数据的程度,这可能有利于特朗普的总统竞选。《卫报》和其他新闻媒体的报道称,这一违规行为导致Facebook在2016年总统大选前锁定了5 000万用户,Facebook在被接纳前几年就意识到了用户数据的滥用。
扎克伯格周三在接受CNN采访时表示道歉,誓言要做出改变,并考虑了在国会委员会作证的可能性,这是他此后首次公开发表声明。
同样在周三,Facebook宣布对其平台进行修改,承诺对近年来获得大量数据的任何应用程序进行审计,并要求用户签署合同才能访问其Facebook帖子。
领取专属 10元无门槛券
私享最新 技术干货