当地时间周一,OpenAI 公布了一系列关于防范 AI 风险的指导方针。
其中指出,即使公司领导层认为将发布的 AI 模型是安全的,其董事会也可以选择推迟发布该模型。
今年 10 月 27 日,OpenAI 宣布组建名为「Preparedness」的安全团队,旨在最大限度地降低 AI 带来的风险。
据彭博社报道,Preparedness 团队负责人 Aleksander Madry 表示,他的团队将向一个新的内部安全咨询小组发送月度报告。该小组随后将对其进行分析,并向 Altman 和公司董事会提出建议。
Altman 和公司高层可以根据这些报告决定是否发布新的 AI 系统,但董事会有权撤销这一决定。
领取专属 10元无门槛券
私享最新 技术干货