人工智能技术的实现和发展,基于大量用户数据的收集和使用。掌握海量数据的大型人工智能企业,未来或将对国家和社会治理带来挑战。发展人工智能需加强对核心数据的保护,研究解决数据安全问题,同时强化政府在人工智能领域的领导地位,防止企业通过获得数据得到超乎寻常的能力。
当前,不少行业正在探索数字化转型,人工智能与大数据的结合发展成为关键。据国际数据公司预测,到2019年,40%的数字化转型项目将使用人工智能;到2021年,75%的商业企业应用将使用人工智能,超过90%的新工业机器人将借助人工智能。届时,人工智能将渗透到企业的方方面面,基于海量数据分析的人工智能技术将优化企业研发、生产流程。这也意味着,数据在任何时间和地点都可以被调用。
如果说人工智能是婴孩,大数据就是奶粉。人工智能的核心在于数据支持,人工智能的发展需要学习大量知识和经验,这些知识和经验其实就是数据,人工智能越是深度发展,所需要学习的数据量就越大、越具体。甚至有公司预测,到2021年,全球至少50%的GDP会通过数字化实现。
某跨国公司负责人称,八成的行业高管都期望借助数字化技术提升效率。企业越人工智能化,对数据的需求就越大。目前在B2B电商领域,由于每个平台侧重点不同,所包含的数据并不完全,还不能完整地判断产业上下游的情况,做出的预测不一定准确。
近年来,数据安全问题频出:2018年3月,一家名为“剑桥分析”的公司被曝以不正当方式获取了超过5000万脸书用户的数据,并将这些数据用于美国选举;2017年5月,一种名为“WannaCry”的勒索病毒在全球蔓延,不少企业因数据被勒索病毒加密而被迫关停……
在人工智能发展过程中,如何在有效收集和利用数据的同时,加强对数据的保护值得关注。一些车企希望为用户提供更完善的自动驾驶体验,很可能会收集用户更多的驾驶数据,但这些数据在使用过程中很有可能在某些环节遭到滥用或泄露。
在人工智能发展过程中,只要使用数据,就有泄露风险。而如果过于严格地对数据加以保护,又会在很大程度上限制数据的使用,影响人工智能发展。这二者的平衡很难把握。
尽管如此,多数人依然认为,数据在使用过程中的泄露和滥用风险值得高度重视。欧盟的《通用数据保护条例》已经在今年生效,这部条例对信息技术企业保护用户隐私的责任规范空前严格,旨在改变消费者信息在网络广告商面前“一览无遗”的现状。
发展人工智能过程中应加强对核心数据和用户隐私的保护,研究人工智能领域的立法和监管,提出政策解决方案,并建立应急预案。此外,近年来也出现不少技术,可更好地解决数据安全问题,包括数据加密技术、访问控制策略技术、差分隐私保护技术等。其中,差分隐私保护技术非常实用,目前谷歌和苹果公司都开始使用这一技术。差分隐私保护的概念是,收集整体数据时会暴露用户的所有隐私,但如果先将个人数据做一些扰动,对敏感数据做随机响应,会带来更好的保护效果。
未来无论是国家政权,还是私有企业,都会对数据产生治理依赖,越来越多的决策会建立在数据之上。而任何非政府或国家形式的组织,一旦掌握了超量数据,都有能力成为超国家体系。
人工智能企业是否对国家治理构成挑战,关键不在于一个组织是否有意愿成为超国家组织,而在于其是否有能力成为超国家组织。如“剑桥分析”等一些大型互联网企业,由于掌握了海量数据,对民众的影响力甚至比普通国家机器还要大。公司、社会组织、非营利组织等非政府玩家,掌握过多数据,将会形成不对称权力,或将对国家和社会治理构成挑战。
目前,不少国外企业已经搭建完成了人工智能底层模块,这个模块类似于智能手机的操作系统,任何应用和计算都基于底层模块而产生。这些企业会伴随使用底层模块应用的增多而获取大量数据,这些数据不仅限于一个国家或一个区域,而可能是全球性的,企业完全可以利用这些数据做利于企业自身甚至本国政府的事情,从而成为跨越国界的超级“政府”。
为防止私人企业通过获得数据强化自身力量,政府需加快发展包括算法和数据分析在内的多项技术,增强自身使用人工智能进行分析和决策的能力,使政府在人工智能领域处于领导地位。同时,对于民众的某些隐私数据,政府可以进行隔离处理,不让某个组织获得所有数据。
来源:《半月谈内部版》第10期
半月谈记者:赵鸿宇 | 编辑:李建发
主编:王新亚
编辑:郑雪婧
领取专属 10元无门槛券
私享最新 技术干货