前往小程序,Get更优阅读体验!
立即前往
首页
学习
活动
专区
圈层
工具
发布
首页
学习
活动
专区
圈层
工具
MCP广场
社区首页 >专栏 >我发现我的数据被操纵了……

我发现我的数据被操纵了……

作者头像
大数据文摘
发布于 2018-05-24 09:13:40
发布于 2018-05-24 09:13:40
6120
举报
文章被收录于专栏:大数据文摘大数据文摘

大数据文摘作品

作者:danah boyd

编译:糖竹子、白丁、Aileen

索引的完整性不再是决定搜索结果质量的唯一因素。用户感兴趣的搜索结果常常淹没在“垃圾结果”中。

---- 引自Sergey Brin 和Larry Page的《解剖谷歌搜索原理》(1998年4月版)

当前,我们正目睹着一场数据被滥用的大剧。限制数据滥用并且努力解决偏见数据和问题数据,正成为解决科技对社会基石产生影响的重要条件。

简而言之,我认为大家应该重新考虑,安全、公平到底意味着什么。本文从三个方向告诉我们,在数据驱动的世界中,我们的数据有可能被如何情况操纵。

操纵数据的原罪者-谷歌

1998年,两个斯坦福毕业生决心着手解决主流搜索引擎存在的问题。

Sergey Brin 和 Larry Page合作撰写了一篇论文,描述他们的网页排序算法是怎样解决搜索结果中垃圾网页过多的问题。他们的想法意义非凡,如今被人们认为是Google公司创立的基石。但是这一想法并未阻止人们不断扰乱自己的网络系统。事实上,谷歌的崛起不过增加了搜索引擎进一步优化的难度。

时光流转到2003年,当宾夕法尼亚参议员 Rick Santorum 公开将同性恋类比人兽交和恋童癖时,毋庸置疑,LGBT群体被激怒了。媒体Dan Savage呼吁他的读者们做点什么以记住这丑陋的时刻。其中一位粉丝创建了一个以Santorum的名字和“肛交”一词联合命名的网站。令这位参议员不寒而栗的是,无数公众参与了将网站链接推送到搜索引擎首条的行动中。

这种众包形式的搜索引擎优化行为被称作“谷歌爆炸”,一种媒体炒作形式,旨在干扰数据和信息环境。

媒体炒作和网络失真信息(封面),2017年3月,Jim Cooke绘制的插图

媒体炒作并不新颖。正如许多人所知,宣传和社交媒体营销的界线通常是模糊的。除此以外,那些通过点赞、评论和订阅量等公共信号宣传产品特点的公司都熟知,任何被创造的系统都将成为娱乐、利益、政治、意识形态和权力游戏的舞台。甚至连国会现在都在为此斗争。

而除了这些已经发生的,我们还正在面临哪些数据被操纵的情况,以及该如何应对。

骗过网络系统

如同搜索引擎,社交媒体为公众引入了一个全新的炒作目标,吸引了从社交媒体营销号到国家行为发言人的各类人群。干扰Twitter热门话题或者Facebook新闻动态成为许多人的一种嗜好。任何人只要5美金,几乎在所有主要网站上都能轻而易举的买到关注者,点赞数和评论量。背后的经济和政治动机显而易见,但除了这些势力强大的水军,还有一大群人毫无目标的参与着网络攻击。

例如,自Rick Astley的歌曲《Never Gonna Give You Up》推出时隔20年后,有这么一群人决定帮他再登歌曲排行榜首。这样做的目的并不是帮Rick Astley赚钱(尽管有此效果)。正如4chan等其他网站创造出的表情包,仅仅是为了娱乐。但通过这样的方式,大量观众学会了如何让某些信息被病毒式传播或者其他的干扰网络系统的方法。换句话说,他们学会了如何获得注意力。通过这些行为,他们开发出了一套能够造成严重后果的炒作策略。

一个炒作Rick Astley的例子

像“披萨门”这类的事件并非偶然,这是一群网络村民寻找愚弄信息系统的产物。(编者注,披萨门是去年美国大选期间发生的阴谋论,怀疑希拉里竞选经理被曝出的电子邮件中包含利用一系列餐厅进行人贩子生意的暗语。这个阴谋论已经数次被反驳和攻破,包括警察部门。)他们创造了许多被称做“马甲”的跨平台网络虚假账户,这些账户巧妙的影响媒体和其他势力团体,引发他们对精心设定的问题、博文和网络视频的关注。这种事件的编造并不是为了让媒体信以为真,而是让这些媒体傻傻的通过大量自有宣传渠道否定它。这样就产生了“反向效应”,如此那些不相信媒体的人认定这其中必有一些阴谋论,从而鼓励一些人自发调查。

接着就有铺天盖地的评论要求“打开窗口”——或者说增加公共讨论话题的尺度。媒体们被骗去散播问题事件。更有甚者,推荐引擎会被用于向问题事件的被动接受者推送更多相关内容。再举个例子, 研究员Joan Donovan主要研究白人至上主义,工作之余,她打开Amazon,Netflix, 或是YouTube,没有一个网站不向她推荐消费新纳粹主义音乐、视频和其他周边。一些激进分子也知道如何变本加厉制造问题。不用触犯Twitter的任何保护机制,那些人可以想方设法利用公司广告内容放大白人优越主义思想,引发关注社会公平群体的愤怒。

总体来说,这些伎俩是对算法系统的手动攻击,但我们都知道,攻击的方法一直在变化,不在仅仅是手动。而现在,一切即将再次改变。

脆弱的训练集

训练机器学习系统需要数据,而且是海量数据。尽管目前已经建成了一批标准化语料库,计算机科研人员、初创企业和大公司对于新的、差异化的数据的需求依然有增无减。

首当其冲的问题就是所有数据都带有偏见。从总体上看,人和社会的偏见反映得最为明显。以当下很红的数据集ImageNet为例,人类根据形状进行分类的速度高于根据颜色;受此影响,数据集最终会包含一些奇形怪状的人造物体。

深度神经网络中的认知心理学:形状偏见的个案研究,2017年6月29日

在应对社会偏见时,局面会变得更加混乱无章。Latanya Sweeney在谷歌上搜索自己的姓名时惊讶地发现,有广告邀请她查询自己是否有犯罪记录。作为一名好奇宝宝式的计算机科学家,她决定在系统上跑一批常见的白人名字和黑人名字,看看哪些名字会招来广告。不出所料,招来这种刑事类产品的都是黑人名字。这并不是因为谷歌知道怎样看名字下菜碟,而是因为搜索用户在搜索黑人姓名时,点击刑事类广告的几率更高。谷歌学到了美国人的种族歧视,并“发扬光大”,最终影响了全部用户。

A和C显示的是针对两个人各自姓名出现的广告,B和D表明该广告暗示存在犯罪前科所根据的是姓名类型,而非就是此人的档案。

不论是对人进行分类的数据还是由人进行分类的数据,只要想以此为基础建立系统,其中那些虚虚实实明明暗暗的文化偏见都将成为巨大的挑战。

不过还有一项新的挑战正在日渐成型:散布在不同网络中的人群和国家行为者。他们在社交网络上兴风作浪,搜索引擎对于相应数据的关注度却与日俱增,而各家公司正是用这些数据来训练、改进各自系统的。

举个例子,假设用Reddit和Twitter的数据来做训练。这些公司在API上表现的非常大方,计算机科学家们长期以来也从这里抓取了大量数据来训练各种模型,试图理解自然语言、围绕链接开发源语言、以及追踪社会模式。他们训练各种模型来检测抑郁症、为新闻排序、并参与到会话当中。忽略了这些数据从一开始就不具有代表性这一个重要的点,绝大多数用着这些API工程师都相信他们可以清洁抓到的数据、并去除所有的问题内容。我向你保证,没门儿。

不论删除多少特定的subreddits、推文种类,亦或是忽略包含问题词语的内容,这些都不会让你在那些诚心找茬的人面前占据先机。

我眼睁睁地看着无数人或者组织用尽各种方式想要混淆公共数据,大公司的系统也在他们的目标范围之列。他们试图通过低空飞行避开雷达监管。如果你没有准备好相应的系统,从战略层面去应对这些早有准备绕开你精心制定的计划的人,你简直不堪一击。这与意外或自然内容无关,甚至也牵扯不到带有文化偏见的数据。这是那些试图揣测你意图的人故意施展手段,将特意炮制的内容注入到系统当中。

如果你想要理解这到底是什么意思,不妨想想Nicolas Papernot和他的同时去年发表的实验。为了深入掌握计算机图像算法的弱点,他们决定改变停止标志的图形外观,即使底层神经网络会将之解读为放行标志,在肉眼看来它依然代表停止。想想对于汽车来说这意味着什么。如果分类标准能够如此轻易地任人鱼肉,这项技术还能得到广泛应用吗?

《攻击机器黑匣子实用教程》,2017年3月19日。研究人员改变了第一行的图像,以误导神经网络,并导致了最后一行的错误解读。然而人的肉眼是看不出改动之处的。

迄今为止,针对机器学习模型展开的最成功的数据注入攻击发生在研究领域;但我们也发现越来越多的人试图在主流系统中制造混乱。他们目前还没得手,但仅凭这一点我们绝不能否认他们的学习和试探在不断升级。

打造技术抗体

数十年来,众多公司都没把这些安全漏洞当回事,直到系统被突破的消息一次又一次的登上头条。在应对这个新问题上,我们还要重蹈覆辙吗?

如果你正在构建数据驱动式的系统,你从现在就要开始考虑数据会以怎样的方式、被谁污染,以实现何种目的。

测试文化在这个技术行业中已经失去了生存的土壤。这个锅社交媒体是逃不开的。15年前,的灵光乍现之下,我们一头扎向了“永久公开测试”的文化。我们邀请公众成为我们的质保工程师。但是内部QA远比找BUG要复杂,它需要将对抗思维融入到设计和研发过程中。当搞破坏的人就隐藏在公众之中时,请大家位系统找漏洞的效果就不尽如意了。进一步来说,当前不论是谁在一没动机、二没渠道的情况下,都没法在私下里告知我们问题所在。有些记者会找到瞒天过海的方法,把系统变成新纳粹主义的广告,借此来嘲笑我们;也只有此时我们才会注意到问题所在。然而尽管如此,更多包藏祸心的行动者开始和我们的数据玩儿起来放长线钓大鱼的游戏。为什么在魔高一丈之前,我们不抢先道高一尺呢?

乐观的看,作为应急措施,很多研究人员都将在机器学习系统的高级研发中融入了对抗思维。

以生成性对抗网络(GANs)为例。那些对此不太熟悉的人可以这样理解:你手上有两个无人监督的机器学习算法-前者负责为具有评估功能的后者生成内容。前者试图骗后者接受“错误”信息。这样操作旨在找到模型和数据隐空间之间的界限。我们需要更多这样的研发项目-随着真正的对抗思维直接融入到模型搭建过程中,测试文化在研究领域也走到了尽头。

白帽子-“高举正义大旗”的黑客。举例来说,测试系统的安全性或漏洞(图片:CC Magicon, HU)

但这些研究的作用非常有限。我们需要积极主动、目标明确地构建相应文化,开展对抗测试、评估,并将之融入研发过程。我们需要构建分析方法,评估我们使用的数据集中的偏见。我们还需要开发相应的工具来监督系统的运转情况,这方面需要的精力毫不逊于模型最初的搭建阶段。我的同事Matt Goerzen认为除此之外,我们还需要有策略地邀请白帽子中的牛人介入到我们的系统之中,帮助我们查漏补缺。

技术行业已经不再是一群极客的狂欢,不再仅仅是想要做点不一样的事情那么简单。它是经济和信息世界的重要基石。

只需要想想我们要构建怎样的世界,这种好日子已经一去不复返了。我们必须从战略层面认真思考,他人想要以何种方式操纵系统为非作歹。

原文链接:https://points.datasociety.net/your-data-is-being-manipulated-a7e31a83577b

本文参与 腾讯云自媒体同步曝光计划,分享自微信公众号。
原始发表:2017-10-16,如有侵权请联系 cloudcommunity@tencent.com 删除

本文分享自 大数据文摘 微信公众号,前往查看

如有侵权,请联系 cloudcommunity@tencent.com 删除。

本文参与 腾讯云自媒体同步曝光计划  ,欢迎热爱写作的你一起参与!

评论
登录后参与评论
暂无评论
推荐阅读
编辑精选文章
换一批
Keras创建者深度思考:不要将AI作为操纵用户的工具
大数据文摘作品 编译:傅一洋、汪小七、一针 、云舟 本文作者是谷歌AI研究员、Keras创建者François Chollet。他在Medium的博文中特意指出,本文是他个人的看法,而读者要有自己的评判。同时,他也提出了对Feed内容推荐方式的一些改进,相信对“刷抖音一刷就是几个小时”的你会有所借鉴。 还记得曾风靡一时的“电脑恐惧症”吗?从上世纪的80、90年代一直到21世纪初,我们都能亲眼目睹这种现象:伴随着PC逐渐进入生活、工作和家庭,很多人对其感到了焦虑和恐惧,以至于去攻击计算机。 即便还是有少数人
大数据文摘
2018/05/23
4340
观点 | Facebook数据泄露事件之后,还有哪些AI危机在等着我们?
选自Medium 作者:François Chollet 机器之心编译 参与:白悦、李泽南 自今年三月以来,由 Facebook 数据泄漏、「大数据杀熟」等事件引起,人们对于数据隐私和人工智能技术未来的担忧等话题的讨论突然又迎来了一轮热潮。这些事件正告诉我们,隐私数据及对其加以利用而形成的人工智能技术不仅可以影响国内国外,而且已经深入了生活的很多部分。 最近,谷歌研究员,深度学习库 Keras 作者 François Chollet 对 Facebook 事件发声,阐述了自己对于 AI 发展的担忧和建议。
机器之心
2018/05/08
6030
观点 | Facebook数据泄露事件之后,还有哪些AI危机在等着我们?
Nature:FB和推特的数据是如何革新社会科学,改变世界的?
2007年,一群有野心的科学家召集了一次会议,讨论新兴的社会科学数据处理的艺术。他们想运用自己的技能来改变世界。在演讲中,马萨诸塞州剑桥市哈佛大学的政治学家加里·金(Gary King)说,数字信息的泛滥“将使人们有可能了解更多有关社会的知识,并最终开始解决(实际上是解决)影响人类富足的主要问题”。
大数据文摘
2020/06/30
4930
Nature:FB和推特的数据是如何革新社会科学,改变世界的?
深度学习:远非人工智能的全部和未来
选自Linkedin 作者:Fabio Ciucci 机器之心编译 参与:黄小天、路雪 人工智能的这一波热潮毫无疑问是由深度学习引发的,自吴恩达等人 2011 年发表「识别猫」研究后,深度学习及其引发
机器之心
2018/05/08
6720
深度学习:远非人工智能的全部和未来
特朗普炮轰:Google一下,净说我坏话!
用谷歌搜“特朗普新闻”,结果只显示CNN这些“假新闻媒体”的观点或报道,而共和党、保守派以及“公平媒体”被拒之门外。
新智元
2018/09/25
4990
特朗普炮轰:Google一下,净说我坏话!
如果我们心存偏见,还能做好数据分析吗?
本文转自品觉(pinjue_ali) 序 马克·安德森(Marc Andreessen)的一句名言:“软件正在吞噬整个世界。”各行各业发现,分析对保持竞争力至关重要。政府则发现,分析对履行政府义务至关重要。 我们可能会因为和我们拥有相同购买或信用记录的其他人曾经开车不小心,而不是因为我们自己曾经开车不小心,而在购买汽车保险时被收取更高的费用。这就是偏见的本质:假定一个人将像同类的其他人那样行事。 计算领域的一条重要戒律,就是计算机不能改变人类责任。如果人类做某件事情是不合法或不道德的,那么人类创造的计算机
大数据文摘
2018/05/22
8560
打开大数据研究的潘多拉魔盒
关于转载授权 大数据文摘作品,欢迎个人转发朋友圈,自媒体、媒体、机构转载务必申请授权,后台留言“机构名称+文章标题+转载”,申请过授权的不必再次申请,只要按约定转载即可,但文末需放置大数据文摘二维码。 导语 近年来,大数据研究方法逐渐应用于社会学科领域,运用大规模用户数据,社科领域研究者得以从新的视角理解用户媒介使用习惯、语言、与情感。然而,在大数据研究不断普及的背景下,如何规范大数据研究的伦理准则,如何保证研究对象的隐私权,以及如何研究现有互联网公司的伦理问题,这些问题看似遥远,但是却直接影响大数据研究
大数据文摘
2018/05/22
5500
ChatGPT登上Time封面!这场竞赛,OpenAI赌赢了
---- 新智元报道   编辑:桃子 【新智元导读】从「YOU」到「ChatGPT」,只有短短的17年。 2006年,互联网让人人成为时代的主角,因此,TIME将「YOU」选为年度风云人物。 短短17年过去,时代发生了重大转变。 如今,AI聊天机器人ChatGPT破势而出。 这意味着什么? AI成为自己的主角,创作、写代码、回复邮件....... 而这仅仅是个开始...... AI军备竞赛正开启 自2014年,随着生成式对抗网络(GAN)为代表的深度学习算法的提出和迭代更新,生成式AI已经跨入了
新智元
2023/02/27
3740
ChatGPT登上Time封面!这场竞赛,OpenAI赌赢了
「完美的搜索引擎」是否存在?这家公司向谷歌发起挑战
大型语言模型(LLMs)能够解决研究生水平的数学问题,但今天的搜索引擎却无法准确理解一个简单的三词短语。例如,如果你在谷歌图片中搜索「shirts without stripes」(没有条纹的衬衫),结果却几乎全是有条纹的衬衫。
机器之心
2025/02/03
680
「完美的搜索引擎」是否存在?这家公司向谷歌发起挑战
GPT-3:被捧上天的流量巨星,却有一个重大缺陷,很危险...
谷歌利用它们来改善其搜索结果和语言翻译。Facebook、微软和英伟达等科技公司也在开发语言模型。
新智元
2021/03/10
4500
GPT-3:被捧上天的流量巨星,却有一个重大缺陷,很危险...
“激进黑客”的复兴:自喻“正义的伙伴”
与普通的黑客不同,这些“激进黑客”不是为了获取利润而进行攻击,更多的是为了引起政府和社会的注意。他们通常会在被攻击的网站留下醒目的留言,或者在网页中嵌入某些激烈的观点。
FB客服
2021/05/20
7100
“激进黑客”的复兴:自喻“正义的伙伴”
AI技术伦理问题探讨:隐私与安全
人工智能(AI)技术的飞速发展在提升社会效率的同时,也引发了一系列伦理问题,尤其是隐私和安全方面的挑战。AI的核心能力——数据处理和自动化决策,使其在各行业得到了广泛应用,但数据泄露、算法偏见、滥用监控等问题也随之而来。本文将详细探讨AI在隐私与安全方面的伦理问题,结合具体案例分析,并讨论可能的解决方案。
LucianaiB
2025/04/01
7830
人工智能:道德外包与“黑箱”中的算法歧视
曹建峰 腾讯研究院研究员 今天,基于算法的自主决策系统日益被广泛应用在教育、就业、信用、贷款、保险、广告、医疗、治安、刑事司法程序等诸多领域,认为算法可以为人类社会中的各种事务和决策工作带来完全的客观性。然而,这很可能只是一种一厢情愿。无论如何,算法的设计者们是否可以不偏不倚地将既有的法律或者道德规则原封不动地编写进程序,是值得怀疑的。规则代码化带来的不透明、不准确、不公平、难以审查等问题,需要认真思考和研究。 一、人工智能决策日益流行 人们的网络存在,或者说数字存在(digital e
腾讯研究院
2018/02/01
4.1K0
谷歌搜索揭示人性最黑暗的秘密
人们在回家路上喝了多少酒上撒谎。他们在多经常去健身房上撒谎,在那些新鞋子买了多少钱上撒谎,在自己有没有读那本书上撒谎。他们谎称自己生病来请假。明明没打算再联系,他们却跟人说以后保持联系。明明是你的错,他们却说不是。明明不喜欢你,他们却说喜欢。明明心情不好,他们却说自己很开心。明明喜欢男生,他们却说喜欢女生。人们对朋友说谎,对孩子说谎,对父母说谎,对医生说谎,对伴侣说谎,对自己说谎。他们对研究调查说谎。以下是一项简单的调查:
IT阅读排行榜
2018/08/16
8150
谷歌搜索揭示人性最黑暗的秘密
2010 年的那场 F8 大会,是 Facebook 数据泄露的根源
源 / stratechery 文 / Ben Thompson 译 / 36氪 一切都是一种权衡,都需要取舍。 编者按:著名分析师Ben Thompson近日发表了一篇文章,详细阐述了Facebook数据泄露事件背后的根源以及其带来的影响。原题为“THE FACEBOOK BRAND”,文章由36氪编译。 上周,路透社报道了哈里斯品牌调查( Harris Brand Survey)的结果: 苹果公司和Alphabet公司的谷歌企业品牌在年度调查中的排名下降,而亚马逊公司连续第三年位居榜首,
顶级程序员
2018/05/03
9690
2010 年的那场 F8 大会,是 Facebook 数据泄露的根源
谷歌被指操纵希拉里搜索结果,技术真相揭秘
【新智元导读】日前,谷歌被指涉嫌操纵搜索结果,屏蔽对希拉里·克林顿搜索负面关键词,为希拉里选举造势。新智元跟进调查认为,仅凭目前给出的证据不足以推论谷歌操纵了搜索希拉里时的关键词提示,根据我们自己的测
新智元
2018/03/28
8260
谷歌被指操纵希拉里搜索结果,技术真相揭秘
如何避免人工智能中的偏见性算法
【新智元导读】AI 做出的决策经常存在固有的偏见,好的方面是,AI 的创造者越来越多地意识到这些偏见,讨论更多,解决方法和行动也更多。 许多为我们的生活做出决定的算法——从决定我们在互联网上看到什么,到决定我们成为受害者或施害者的可能性——是在没有包含各种各样的人群的数据集上训练的。 结果是这些决策存在固有的偏见。 试试在任何大型搜索引擎搜索“手”(hands)或“婴儿”(babies)的图片,你可能会发现,大部分结果都是白人。 2015年,平面设计师 Johanna Burai 用 Google 搜索“手
新智元
2018/03/27
1.3K0
如何避免人工智能中的偏见性算法
谷歌和百度真的如此不同?答案可能让你失望了
如果你留心观察会发现两个很有意思的现象:每当百度遇到舆论危机,谷歌就会被拿来做对比;每当谷歌有最新动态,百度就会被拿来做对比。对比的结论均是,谷歌伟大光明正确,百度平庸阴暗不堪。 这一次“魏则西”事件,类似言论更是层出不穷:《如果魏则西在美国…》《你是想将孩子教育成百度还是谷歌?》《百度与谷歌的搜索结果对比太惊人了》《在医疗广告这件事情上,来看看谷歌是怎么做的》…… 问题出在哪里呢?那就是大多数写出这样文章的人,或许在最近几年内都没有上过谷歌。他们幻想出一个近乎完美的谷歌和一个一无所成的百度,然后基于此得
罗超频道
2018/04/28
9950
谷歌和百度真的如此不同?答案可能让你失望了
技术非中立,语言非同质:机器翻译正被用于维护文化障碍
当今世界随着大数据、人工智能算法、云计算等技术的发展机器翻译技术又掀起一波新浪潮。伴随着该项技术不断发展的是一场由战争与压迫转为和平与发展的历史,同时这项技术的发展背后亦隐藏着巨大的权力纠纷。
AI科技评论
2021/08/25
3410
技术非中立,语言非同质:机器翻译正被用于维护文化障碍
深度 | 深度学习并不是AI的未来
大数据文摘作品 作者:Fabio Ciucci 编译:happen,马卓群 刘晓莉,Aileen 现在,每一个人都在学习深度学习,就是在准备开始学习深度学习的路上。这个人工智能领域快速火了起来。大约有来自各年龄阶段的十万名学生在学习付费或者免费的深度学习课程。许多初创公司以及产品都打上了该领域的标签,就像流行用语一样,但是真正使用了深度学习的却很少。大多数人忽视了一个事实,深度学习只占了机器学习领域的1%,而机器学习又只是人工智能领域的1%。剩下的99%都是大多数任务已经在实际使用的。一个“
大数据文摘
2018/05/24
4993
推荐阅读
相关推荐
Keras创建者深度思考:不要将AI作为操纵用户的工具
更多 >
领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档