人工智能的大规模应用,将带来人类社会深刻的变化,伦理当然是其中重要的一方面。人工智能将带来的,包括了科学/技术伦理,社会伦理以及相关的法学理论和实践。当然,这三者互有交叉,并非泾渭分明。
阿西莫夫提出的机器人三原则,就属于科学技术伦理范畴。
但实际上,人工智能的科技伦理比这要复杂得多。举个例子 : 自动驾驶将如何处理机器与人的关系?如何在程序控制上设定无人驾驶汽车在事故发生时的反应?
在人工驾驶时代,人类可以依照紧急避险原则,在紧急状态下以自我保护。但实际上还存在一个“默认原则”,当发生紧急事故时,驾驶人出于本能的自我保护而造成对他人生命财产的损失,并不会被追究刑事责任,也不会受到道德的谴责。
但无人驾驶则必须将默认的“潜规则”以程序的方式“写”出来,形成对人工智能的明确指令 :
~事故发生时,是优先保护乘客还是他人?
~是优先保护低损害还是高损害?
~既然是明确的指令,如果优先保护乘客,那么乘客应该承担什么样的责任?
~既然是明确的指令,指令下达者,汽车生产商该承担怎样的责任?
要知道,这样的指令几乎相当于“消灭生命”指令。即当发生严重事故而又不可避免人身伤害时,无人驾驶就会按设定的指令明确的指向特定的人身伤害。
类似的,今后将产生的人工智能科学技术伦理问题还会有很多。
至于社会伦理,则影响更加全面而深刻,相信已经有这方面的专家~社会学家,哲学家,政治家等等在着手这方面的研究了吧。
打个比方~沙特授予了人类有史以来第一个“异形”国籍,如果今天类似的情况大规模发生,人类与机器的关系是不是应该重新定义?人工智能这是享有怎样的权利?承担哪些社会责任?
那么怎么看待人工智能带来的社会伦理问题?
该来的总会来,人类既然无法避免,就不能回避问题,只能解决问题。
个人的感觉是,相关研究目前无论在理论上还是在政策层面上,都已经落后于技术发展速度。这不是好事。
领取专属 10元无门槛券
私享最新 技术干货