现在人工智能用得越来越多,我们得确保人类能控制它。随着人工智能和机器学习越来越厉害,能自己做决定,我们人类得保持主导权。
人工智能得由人类来主导,这意味着人类得为这些工具做的决定负责。特别是商业上用人工智能,人类主导能确保人工智能的判断合法、道德,尊重别人。
得明白,不能光是把人加进决策过程就叫人类主导。这方法有时候叫“人类安全气囊”,就是让人参与进来,减轻对人工智能的担忧。实际上,要让人类主导真正融入人工智能,我们得明确设计决策过程,把决策者整合进去。
AI风险和人工治理的好处
没有人工治理,AI可能会让你公司面临没管理的风险。反过来,对AI进行人工治理,能提高AI被客户和员工信任的可能性,让他们更愿意用。
法律和合规风险
没有对AI的人工治理,最明显的问题是AI可能做出不合法或不符合法规的决定。训练AI的数据可能让人觉得某个决定是“最好”的,但这个决定可能是不被允许的。AI可能违反发布的政策、程序、合同或监管指南。
决策风险
有些AI方法,比如生成式AI或大型语言模型,因为能编造听起来合理的解释而出名。这明显是个决策风险。即使AI没编造东西,它也可能做出不是最好或最合适的决定。这可能是因为缺乏上下文,或者AI训练的数据少了些基本要素。
接受风险
最后,如果人们觉得他们控制不了或管理不了人工智能,就很难让他们接受人工智能。这可能会限制人工智能在业务上的积极影响,因为它会限制采用,或者如果公司开始用人工智能,可能会导致客户强烈反对。
以人为本的AI治理最佳实践
把AI和机器学习从数据中推断出的信息,和员工的专业知识结合起来,可以让你制定指导方针、约束条件、产品设计、监管框架和政策。确保以人为本的AI治理,意味着关注整体决策——超越AI的各种技术——以及持续改进。
决策思维,而非算法思维
要实现以人为本的AI治理,重要的是改变只孤立地思考AI的方式。相反,你应该全面地思考决策——在业务决策的背景下使用机器学习和人工智能。这意味着聘用能理解决策的人,捕捉指导和约束它的业务规则,并准确了解在什么背景下应用机器学习和AI。
混合和匹配技术
AI不是孤立存在的。成功的、以人为本的AI是和更“传统”的机器学习和分析技术混合在一起的,以创建自动化但受管控的决策。这意味着把决策分解成各个部分,并有策略地把它们分配给AI。这也意味着把应该基于人类专业知识做出的决策分配给人类决策者——不是最后才临时加,而是要让他们的角色在指示中被明确地定义。
持续改进
最后,正如这个词说的,最重要的是人类参与其中。业务专家观察决策过程,评估其有效性,并用决策过程中生成的数据来改进。这种持续改进的循环让你能在面对新数据和真实世界结果时改进决策。专业知识、判断和结果被重新注入到一个整体结构良好的决策中。
迈向人类治理的人工智能
随着我们进入新的技术时代,我看到了对人类治理的人工智能日益增长的需求。它可以帮助确保人类仍然控制着人工智能系统做出的决策,同时仍然允许我们在业务系统中最大限度地利用人工智能。
通过理解决策过程,捕捉指导和约束它的业务规则,并准确展示机器学习和人工智能在其中使用的上下文,公司可以确保他们的人工智能系统得到适当的治理。
嵌入人类治理的人工智能可以帮助记住伦理考量,监控和评估潜在风险,并适应和响应不断变化的环境。最终,我相信只有人类治理的人工智能才能确保公司的人工智能系统得到客户和员工的适当治理和信任。
原创声明:本文系作者授权腾讯云开发者社区发表,未经许可,不得转载。
如有侵权,请联系 cloudcommunity@tencent.com 删除。
原创声明:本文系作者授权腾讯云开发者社区发表,未经许可,不得转载。
如有侵权,请联系 cloudcommunity@tencent.com 删除。