过去的两年内,NIPS举办过关于相关话题的研讨会,DARPA也正资助一项可解释AI项目,与此同时,欧洲各国的AI项目也均争先响应欧盟的新要求:
纷纷表示AI模型所作出的任何「重大决策」无一例外都会对用户做出解释。
闻风投机的时代,人工智能的潜力和局限性同时都被放大。
在一个热点被点燃并充分燃烧之后,人工智能也进入了平稳过度的冷却期。
而在这个冷却期中最重要的问题,也是与社会充分应用和融合的必要条件之一,就是规范化和普适性。借助大数据共享平台,公开化和透明化成为风向。
人们一旦把持主四通八达的信息接通器,就再也无法忍受技术黑箱带来的小心翼翼,这就提供了一个问题的前提:
能向人类解释、能被人类理解对人工智能来说意味着什么?
人类头脑中的信息活动依赖于生物机能的传递功能,而人工智能则依赖于电信号的传输和数据模型的建构,如同生活在纸片中的二维生物理解不了纵深空间的跨度一般,结构性的不同建筑了隔阂。
而人工智能的深入发展又必须要求可解释性的普及,所以点需要连成线,线需要构建出平面,二维的信息需要转码成为三维可理解的符号与文字。
学者Cody Marie Wild从心理学和社会学的角度出发,发现大家关于模型可解释性的争论通常分为三种心理结构。
1.对模型稳定性所产生的恐惧。
这是一种最常见也最难以应对的社会心理,它抓住了现今弱人工智能的最大问题,就是缺乏自我完善和反省能力。机械元的交通和结构有固定的定式,传导和输出都有限定的框架。
人工智能的稳定性和机械性依恃着相同的概念,也受相同的问题掣肘。以一个AI医疗中的常见问题举例:由于哮喘病人的疾病突发性强,死亡率高,需要即刻救治。
医院的策略是每次都把哮喘病人送到重症病房,所以模型反而学会了认为哮喘病人的死亡风险比较低。
当在关键场景中得到运用时,模型还拥有能力来检验,但很多情况下这些模型也是由经验丰富的专业人员部署的,即使是专业人员也没有办法保证模型的准确度高于人类医生。
尤其在医疗这个容错率极低的产业,人工智能常常因为这个原因被院方和消费者拒之门外。
2.人类期望从这些不可解释的模型中提炼出新奇的知识,通过这种方式来赋予人类对世界的新的了解。
把机器学习用在应用科学中的人,多数就是这样的思考角度。在这里,模型可解释性被视为一种价值增值,因为如果能够将机器的抽象二维代码翻译成有意义的人类三维可理解概念的话,人类就可能将这些概念重组到现有的知识网络,并用它来推动更多的研究。
与此相关,AI在经历一个人类化的过程,使之更加智能,人类也在经历一个AI化的过程,将旧有的形象思维转化为抽象思维,也是一个三维思维平面化,社会心理逻辑化的过程。
3.在模型在做出与人类息息相关的决定时,人类觉得自己有权知晓它背后合乎逻辑的理由。
与AI的普及带来的便利性相对,许多人都认为黑箱子中的模型正在以不当方式利用社会信息。
但相对于模型,人类社会对于公平概念有着更灵活的的理解:
例如某人在进行一个决定行为时,获得信服的前提是他给出了令人信服的理由。
当一个人将自己某项决定行为的理由告知你时,你就可以利用这些理由,甚至依据它们和他争辩。
同样地,当模型给了你一个不可调和且不透明的决定时,你发觉自己被它专横对待了,如果可以的话,你肯定会阻止别人使用模型的这个逻辑。
这是一种自卫心理,在面对未知的领域会加倍的谨慎,所以AI的可解释性就需要将未知领域转为可分析处理的数据,将令人信服的论证阐释和展示的方式。
这种转换过程并不轻松,尽管基于深度神经网络的分析模式在许多领域中都取得了成果,比如识别图像和生成语音,但这些方法当然也都是很复杂的。
今年 IJCAI 的计算机和思想奖得主Percy Liang和他的团队正在研究如何解释这些模型,他们在尝试研究某个具体的训练场景是如何对模型的预测产生影响的。
他提到:“如果训练数据中有不符合的,或者对抗性生成的数据,这就会影响到模型(损害模型),后果就是接下来针对新的输入做出的预测可能是错误的。”
通过理解一个模型是如何做出那些决定的,Percy Liang希望可以改进模型运作的方式、找到新的科学技术,并且给最终用户提供一些解释,让他们明白会对他们造成影响的行为是如何做出的。
他们沿着模型的学习算法追踪模型的预测,一直反向追踪到模型参数产生的源头。
他们希望这种方法可以成为开发、理解、诊断机器学习的标准方法的一部分。
在深度学习的过程中,无论是对模型的恐惧,好奇,还是防备,都是解释行为的前端,由社会压力驱动的研究和解释,最终会成为判断和审视的终点。
在这个前端和终点的过程中,就是人工智能必经的现代化之路。
领取专属 10元无门槛券
私享最新 技术干货