近日,AI与人类的命运,再一次因为自主武器而被推上了舆论风口。从产能“地狱”归来的马斯克,刚刚领衔2000多名AI专家签署了一份特殊协议。这份协议核心目的有且只有一个:承诺永不发展致命的AI武器系统。在瑞典斯德哥尔摩举行的IJCAL2018上,由MIT著名物理学家迈克斯·泰格马克发起,其任职主席的生命未来研究所起草。
迈克斯·泰格马克泰格马克说:“我很高兴看到人工智能的领军人物从对话转向行动,实施一项政治家们迄今未能实施的政策。人工智能有巨大的帮助世界的潜力——如果我们不能容忍其滥用,并致力于防止其滥用。自主杀人的AI武器就像生化武器一样令人厌恶和不安,我们应该以对待生化武器的方式来处理自主武器。
宣言称:人类个体生死的决定权,决不能交给机器。这一方面是出于道德层面的考虑,“掌控他人生死”这件让人产生负罪感的事,绝不能由没有感情的机器做出。而且致命的AI武器,不受人类干涉、自主选择攻击目标,可归责性与难度都前所未有,它们将成为暴力活动中的强大工具,尤其是与监控、数据系统相结合时。宣言在最后部分号召所有的参加者,应当呼吁政府和领导,建立严格的国际公约以及政策和法规,抵制自动武器。
于是从AI致命武器出现开始,舆论反对的声音就未曾停歇。在科学界,史蒂芬·霍金、马斯克等知名人士早在2015年就联合116名全球人工智能和机器人领域的专家发表联名公开信,呼吁联合国采取行动禁止“自主杀人机器”,称其为“恐怖武器”。“警示AI致命武器潜在风险,以及正在发生的军备竞赛,呼吁颁布相关禁令。
领取专属 10元无门槛券
私享最新 技术干货