近日,Gartner 列出了人工智能手机的十大「高影响力」应用,并称这些应用将为设备供应商赋予「更高级」的用户体验,从而为客户带来更多价值。
它还预测,到 2022 年底,拥有人工智能特性的智能手机将占到全球出货量的 80%,而这一数字在 2017 年只有 10%。
在 Gartner 看来,由于数据的处理和存储过程是在本地进行,因而人工智能设备的普及意味着数据安全性和电池性能的提升。
在 2020 年,搭载以下 10 种 AI 功能的智能手机将走入我们的生活。而这些新功能在带给人们期待的同时,也不可避免地引发人们的担忧。
「智能手机将成为用户个人的延伸,能够识别用户并预测他们下一步的行动。它将会知道你是什么样的人,你想要什么,你什么时候想要,你想要它做什么,并按你的意愿执行任务。你的智能手机会 24 小时追踪你的动态,帮助你学习、计划并解决问题,」Gartner 分析师 Angie Wang 说,「智能设备将利用其传感器、摄像机和数据来自动完成这些任务。例如,在智能家居场景中,它可以命令真空吸尘器在无人的时候打扫,或者在你回家前 20 分钟打开电饭锅。」
事实上,这项追踪服务也在无时无刻地监视用户的一举一动,以便在其算法黑盒子里复制一个数码版替身。
那么,它是否会不厌其烦地试图预测用户的所欲所求呢?如果人工智能的选择不对用户的胃口,或许更糟,那该怪谁呢?
比如,人工智能派真空吸尘器去打扫孩子们的蚂蚁洞穴,或者,如果打开了空电饭煲(假如用户忘记将开关掰起),那么最好是损失一点电费,最坏也就是把房子烧了。
都说人工智能助手很快就会开始真正地了解并帮助人类。但是,除非只做一些简单的事情,比如播放音乐,或者再细一点,找一首相似的音乐来听,以及一些基本的事情,比如搜索某个条目,否则它们比起白痴专家们可能只是有过之而无不及。
「用密码进行身份验证已经显得太过复杂且效率低下,导致安全性差、用户体验差、记忆成本高。而结合了机器学习、生物识别和用户行为的安全技术,则可以提高设备的可用性和自我服务能力。例如在走路、刷二维码、按压点击、翻页滚动和打字输入的时候,无需要密码或主动认证,智能手机能够捕捉并了解用户的行为模式。」 难道说,不完全放弃隐私就得不到安全吗?如果没有这项技术,用户会被自己的设备拒之屏外吗? 或许用户所期待的是手机在任何其它特定的时刻都是锁着的,因为手机设备是私人物品,而情况并不总是可预测的。 而且,如果用户想和家人分享移动设备呢?难道他们也必须在万能的数码设备之眼前展现自己的生物信息吗?这样的话,要想用人工智能增强型多层生物识别系统来在亲人之间共享设备,是不是反而变得更加困难了? 苹果公司在 iPhone X(不支持多人脸注册)上将指纹生物识别(允许注册多个指纹)换成了面部生物认证系统,可能就是这一情况的展现。
「情绪感知系统和情感计算,允许智能手机检测、分析、处理和响应人们的情感状态与情绪。虚拟个人助理及其它基于人工智能的会话系统,这些技术的扩散推动了各个行业添加情感智能的需要,以便更好地理解应用情境并增强服务体验。例如,汽车制造商可以使用智能手机的前端摄像头来了解司机的身体状况或测量其疲劳水平,从而提高行车安全性。」
如果广告商也能接触到这种超敏感的情感数据,那么他们会用来做什么?
要想公平客观地讨论情绪感知系统是不可能的。在潜在风险方面,Facebook 提供了一个明确的指引——去年泄露的内部文件表明,社交媒体巨头正在吹嘘其对用户数据的处理能力,将青少年的不安全感当成了其广告销售业务的卖点。因此,虽然情境感知或许会推荐一些实用的功能,深受智能手机用户的追捧并让他们乐在其中,但也具备很高的再开发潜力,且很容易感知到入侵——比如一个青少年在开门时,他的智能手机就知道在什么时候给他推广告,因为此时用户正处于低落的情绪中。
如果本地化运行的情绪感知系统可以保证不泄露情感数据,那么就不必对人工智能设备太过于担心。但是,在智能手机的用户界面中添加人工智能来规范情绪跟踪的做法,无疑会推动类似这种「增强型」服务在其领域的渗透——这取决于个人应用程序开发者(及其对隐私和安全的态度),他们将决定你的情感使用方式。 至于汽车,不是说人工智能会替代人类司机吗?为什么人类需要人工智能看门狗来监视自己在汽车内情感状态(到那时,汽车或将真的变成可供休息和娱乐的体验舱,类似于私人飞机)。对于情绪感知系统面向消费者的安全性辩护似乎令人难以置信。然而,出于各种原因,政府机构和企业仍然愿意随时访问用户的情感数据。
「智能手机中的连续训练和深度学习可以提高语音识别的准确性,同时更好地理解用户的特定意图。例如,当用户说『天气很冷』,按照当时的语境,他或她的真正意图可能是『请在网上订购一件夹克』或『请调高温度』。在出国旅行时,自然语言理解可以作为智能手机中一个接近实时的语音转换器。」 虽然人类梦想着拥有自己的私人乐园,那里可能存在一个绝佳的智能助手,可以在无意间听到其主人说「天气很冷」时自动订购一件完美的外套。
但是,事实是,你的信用卡会与这位智能助手绑在一起,这意味着人工智能将会代你付钱。此外,人工智能还会数据挖掘了解用户之前的外套购买记录,这会直接减少着装风格的选项。
消费者被灌输了很多对于人工智能个人助理的完美想象,这一营销「美梦」充斥着很多悬而未决的疑问,比如该技术到底能够提供多少可靠的实际效用?
除非是那种愿意每年复购同一品牌夹克的人,并认为在线手动搜索点击异常不便。否则谁会觉得这种人工智能会对生活质量有什么明显的改善呢?是直接对一个联网机器人助手说「调高温度」,还是让一个机器人助手一周 7 天 24 小时监视你,只是为了在它无意间听到你谈论天气冷时可以自动应用计算单元来选择升温——而且有可能你只是在谈论天气,也不是秘密要求房子魔法般地主动变温暖。那时,也许你在人工智能身边时(无论何时何地),就需要注意自己的措辞了。
人类在同类之间的交流已经很困难了,期待机器会比我们做得更好,这似乎是异想天开。
「随着 iOS 11 的发布,苹果在系统中添加了一个 AR 工具箱(ARKit)功能,它为开发者提供了新的工具,使应用程序更容易添加 AR。类似地,谷歌宣布了其 ARCore AR 开发者工具,并计划在明年年底前在大约 1 亿台安卓设备上实现 AR 功能。谷歌预计,在明年年底,几乎每款新的安卓手机都将自带 AR 功能。一个 AR 在应用程序中充分利用的例子是,它可以帮助收集用户数据并检测诸如皮肤癌或胰腺癌等疾病。」
虽然不可避免地,大多数 AR 应用程序可能无法真的拥有癌症检测这样好用的功能,但没有人会去拒绝「可能避开严重疾病」的功能。也就是说,一个收集个人数据用于医疗诊断的系统会放大关于健康数据如何被智能手机供应商妥善储存、管理和保护的问题。苹果在健康数据方面一直是积极主动的,但与谷歌不同的是,它的商业模式并不依赖于通过分析用户来销售有针对性的广告,因此在其中存在着有竞争的商业利益类型。
事实上,无论设备上的人工智能怎么样,用户的健康数据似乎不可避免地会被从本地设备上取走,以便第三方诊断应用程序进行处理(这些应用程序希望获得这些数据来帮助改进他们自己的人工智能模型),因此数据保护的顾虑也随之增加。与此同时,强大的人工智能应用程序可能会突然诊断出非常严重的疾病。这也会引发更广泛的问题,比如应用程序如何负责地、善解人意地告知一个人,程序认为他/她有一个严重的健康问题。当顾问是机器人时,「不伤害」就开始变得更加复杂。
「机器学习将提高设备的性能和待机时间。例如,智能手机可以通过许多传感器来更好地理解和学习用户的行为,比如何时使用哪个应用程序。智能手机将能够将频繁使用的应用程序在后台运行,以快速重新激活应用,或者关闭未被使用的应用程序来节省内存和电池。」
这是又一个基于无处不在的监视和减少的用户代理的人工智能应用——如果用户想让一个通常会直接关闭的应用程序持续运行该怎么办呢?反之亦是问题。
人工智能的模板并不总是能完美地预测变化着的使用情况。
最近,报道揭露了苹果 iOS 为了在电池老化后勉强维持手机性能而限制旧 iPhone 手机性能。针对于此的批评是个重要的警告:消费者可能对因为生产商的设计而丧失设备的控制权做出意想不到的反应。
「智能手机能够收集数据来进行行为分析和个人分析。用户可以基于他们正在进行的活动和所处的环境(例如,家庭、车辆、办公室或休闲活动)动态地接受保护和帮助。保险公司等服务提供商现在可以更关注用户,而不是资产。例如,他们可以根据客户的驾驶行为来调整汽车保险费率。」 由智能手机传感器数据(如位置、速度、移动等)驱动的基于普遍行为分析的保险费定价当然也可以调整成为一种对设备所有者的惩罚。比如,如果一个人的手机显示他们经常急刹车,或经常在某些区域的超速。那么人工智能不是应该取代驾驶员吗?所以自动驾驶汽车需要驾驶者有驾驶保险吗?或者,传统的汽车保险费不不应该在自动驾驶情况下降到零吗?那么,通过无所不在的个人分析,消费者的利益究竟在哪里呢? 与此同时,歧视性定价是另一个个人分析带来的明显风险。利用智能手机对其主人进行行为分析还能用于什么目的呢?是想知道花在办公室电脑键盘上的时间还是花在电视机前的时间?由于智能手机的普遍存在(也就是「非可穿戴式可穿戴设备」)的普遍存在,几乎每一个日常事物都可能通过常开的人工智能程序进行量化,但这真的是可取的吗?用户意识到自己是在显微镜下,不断地被判断他们是如何生活时,有没有可能不让他们有不适、压力和失去动力的感觉?
「可以自动检测受限制的内容。可以对令人讨厌的图像、视频或文本进行标记,并且可以启用各种通知警报。计算机识别软件可以检测任何违反法律或政策的内容。例如,在高度保密设施拍摄照片或在公司付费的智能手机上存储高度机密的数据将会通知 IT 部门。」
个人智能手机对用户违反公司 IT 政策的检举听起来就像是来自一部反乌托邦科幻小说。基于人工智能的内容审查也是如此。
其实,人工智能未能正确识别图像,或者将图像完全分错类的例子比比皆是,且越来越多——这也包括被故意掺假的图形愚弄。而科技公司用自己的公司政策以各种方式屏蔽某些类别的内容,或内容的一部分(包括真正的标志性和真正自然的东西)的历史已经不短。我们手中的设备究其根本是由受到自身商业目的和政治压力影响的商业实体控制的,任由这些设备在用户界面上控制我们能够看到什么或做什么,可以说并不明智。这甚至还将标志着用户和他关联的设备之间操控权的颠覆性变化。
「个性化照相包含那些能够根据用户个人审美喜好自动美化其照片的智能手机。例如,东西方的审美偏好不同——大多数中国人喜欢雪白的肤色,而西方的消费者更喜欢褐色皮肤。」
在种族歧视的「美化」滤镜方面,人工智能已经有了一段零碎的历史。因此,任何类型的自动调整肤色似乎都是不明智的。放大来看,这种主观性的自动化也同样是一种可怕的简单化——通过侵蚀人们发现其他的视角和美学的途径,从而更加牢固地将用户锁定在人工智能合成的滤镜内。如果人类的眼睛不知不觉地被算法戴上了有色眼镜,那么还哪来的「情人眼里出西施」呢?
「智能手机的麦克风能够不断地监听真实世界的声音。设备上搭载的人工智能可以分别这些声音,并指导用户或触发事件。例如,智能手机可以听到用户的鼾声,然后触发用户的腕带,以促使用户改变睡眠姿势。」
在卧室、浴室、客厅、厨房、汽车、工作场所、车库、酒店房间里,智能手机的麦克风会不断识别并推断出那些关于你和你生活的一切。人们真的想让一个外部的商业机构以如此亲密的形式来替自己决定如何能最好地系统化生活,甚至有能力左右自己的睡眠状况吗?
人们想要建立的人工智能系统需要近乎极权的数据或数据的访问,然而,消费者主张的数据仅能提供有限的、微不足道的或偶然的效用。
这种差异并不会影响到大型数据挖掘业务,他们的使命是收集大量数据,以便在幕后推动关键的业务人工智能工作。但对于那些要睡在一个主动偷听例如卧室活动的个人设备旁边的智能手机用户来说,这个等式开始显得更加不平衡。即使你个人不介意,不管你周围的其他人喜欢与否,他们的「真实声音」也会被你的手机窥探。你有问过他们是否想要一个人工智能来量化他们发出的声音吗?你打算通知每一个人你正带着一个窃听器吗?