人工智能
阅读全文大约需要五分钟
人工智能会综合考虑多个方面的因素,判断一个人是否具有较高的自杀倾向。
Image:路透社/Rafael Marchante
自杀正日益成为公共健康的隐患之一。在加拿大,每年约有4000人自杀,平均每天10人。
如图,在加拿大,平均每天10人死于自杀;90%的自杀者患有不同程度的心理疾病;自杀是第九大死亡原因。每有一人自杀,至少有7人会因此受到极大影响。
Image:加拿大公共卫生署
根据加拿大公共卫生署的数据,对于每一例自杀案例,自杀尝试会进行25-30次。有5人在自残后送医,7-10人会被悲剧所影响。此外,某些人群的自杀率居高不下,如原住民、移民、难民、囚犯以及LGBTI群体。不仅如此,自杀率还有上升趋势。
自杀的影响十分广泛。多伦多交通局最近的报告表明,利用交通工具自杀的人数有所上升,在2017年年末,仅在12月,就有8起尝试自杀的案例。正因为如此,交通局的工作人员也感受到巨大的压力,请假人数也有所上涨。那么,人工智能能否预防自杀的发生呢?
作为精神病的研究者,我们通过加拿大抑郁症生物标记整合网络收集治疗过程中的临床数据。我们着重探索的是使用移动健康设备对行为和精神状态的影响。我们的目的之一就是在早期诊断出精神病,防止自杀行为。
以下,我们将盘点其他预防自杀的人工智能应用,并试图找到这个行业目前所面临的困境。
AI预测自杀率
在2018年初,加拿大公共卫生署宣布了一项合作计划。合作伙伴是总部位于渥太华的人工智能公司Advanced Symbolics,该公司曾准确预测了英国脱欧、特朗普当选总统以及2015年加拿大大选的结果。这项计划将会考察加拿大社交媒体的舆论情况(如自杀言论等,而发布者本身的信息并不会被收集),并对各地区的自杀率进行研究、做出预测。这项计划并不会直接与个人接洽。所有的研究结果都将会被用于制定心理健康资源分配计划。
Facebook应对自杀
2011年,Facebook开发了一款人工自杀报告系统。用户可以上传他人发表的带有自杀内容的博文截图以供审核。2015年,用户可以通过这个系统来标记与自杀有关的内容,无需人工审核,系统会自行应对并提供解决方法。
这是一款非常成功的防自杀系统。一直以来,Facebook都在发展其人工智能系统,希望能够自动检测自杀相关内容,并把情况及时反馈给本地的应急部门。这个系统提供了多种语言的版本,还拓展到了Instagram中。
聊天机器人治疗抑郁症
自上世纪90年代起,人工智能就被运用在医疗行业,帮助人们对精神疾病做出诊断。人工智能可以加快诊断速度和准确性,并通过“决策树”选择相应的疗法。
聊天机器人是最近出现的一种新疗法:电脑程序能够与患者通过语音或是文字进行对话。机器人能够介入抑郁症和焦虑症的治疗之中,其理论基础是认知行为疗法。这种用户友好型的机器人能够准确地捕捉患者的精神状况和临床需求,并作出相应的反馈。目前,机器人已经得到反复的检测,被证明是有效的。
无独有偶,我们在智能电话中也加入了类似的语音助手,比如iPhone的Siri。这些软件能够通过检测用户的相关信息,了解用户的心理状况,并作出相应反馈。然而,这种技术仍处于初步阶段,并非绝对可靠。有的软件还会通过电子游戏来进行心理健康教育。
在其他领域,人工智能领域也被应用于治疗患者。AI评估工具能够展现出短期的自杀几率,推荐合适的疗法,甚至不亚于临床医师。这些工具也深受患者们的好评。
AI模型预测个体自杀率
目前,对于自杀率的计算仍然相当主观。为了提高预测的准确率,我们需要AI所提供的更为客观的信息。在这一方面,能够预测自杀率、帮助临床管理的应用大有前景。
自杀是一个相当复杂的问题,涉及心理、生理、环境、经济以及文化等各项因素。AI能够探索这些因素以及自杀之间的关系。AI还能将多个因素组合起来进行考量。这些模型有助于预测个体的自杀几率。
例如,范德堡大学最近设计了一款用于预测自杀风险的AI模型。该模型使用了电子医疗记录,对于一周以内发生的自杀事件的预测准确率高达84-92%;2年内的准确率能够达到80-86%。
谨慎前行
使用人工智能预防自杀,我们还需要注意以下几点。
隐私:对于收集、储存、转移、使用机密性的健康信息,应当进行保护性立法。
准确性:AI仍然需要进一步的发展,以便更加准确地辨认出自杀意图。尤其需要克服的是系统偏差以及系统错误,避免误标记。
安全性:确保AI系统的安全性相当重要,否则患者的精神状况很可能恶化,甚至意外实施自杀行为。
责任:应急准则应当规定如何处理高危案例,并针对AI评估和临床医师的意见有出入的情况作出规定。
缺乏理解:仍然有很多患者无法理解AI科技。因此,我们需要更多的科普教育。
总的来说,人工智能技术能够在医疗健康的很多领域发挥作用,包括自杀干预等。
阅读延伸
谷歌CEO谈人工智能
领取专属 10元无门槛券
私享最新 技术干货