OpenAI的首席执行官Sam Altman对欧盟(EU)提出的人工智能(AI)法规表示担忧,这可能导致该公司从欧盟市场撤回其服务。这标志着围绕全球人工智能治理正在进行的对话的又一章,反映了世界各国和不同地区之间,面对快速发展的人工智能技术,对于如何进行监管和协调存在很多不同看法。
即将出台的欧盟人工智能法案目前正在敲定中,已将其条款扩大到包括“基础模型”。这些大型人工智能系统,如OpenAI的ChatGPT和DALL-E,可能会面临该法案规定的新义务。Altman强调,OpenAI将努力满足这些要求,但如果它能不遵守这些要求,它可能会考虑停止在欧洲市场的运营。
一个重大问题是,根据拟议的立法,像ChatGPT这样的系统被归类为“高风险”。因此,OpenAI将被要求遵守各种安全和透明度要求,其中一些可能会带来技术和业务挑战。Altman担心这些规定可能会超过技术上可行的规定。
欧盟人工智能法案草案还要求基础模型的创建者披露有关其系统设计和训练的详细信息。这包括揭示计算能力、训练时间以及用于训练人工智能模型的版权数据摘要。对于像OpenAI这样的公司来说,这不仅会对其竞争优势造成潜在风险,还会因为训练数据中使用受版权保护的内容而面临潜在的诉讼。
此前,OpenAI分享了这些细节,但随着其工具获得商业价值,OpenAI停止了这种分享的 做法。该公司现在认为,保持训练方法和数据源的机密性对于防止竞争对手的重复至关重要。
为了应对这些担忧,OpenAI正在启动一项100万美元的奖励计划,以资助确定人工智能规则的众包实验。该倡议独立于OpenAI的商业利益,旨在促进建立一个在法律范围内制定人工智能指导方针的全球进程。
在启动该计划之前,OpenAI呼吁成立一个类似于国际核能监管机构的人工智能国际监管机构。在关于这样一个机构的提案中,OpenAI联合创始人Sam Altman、Greg Brockman和Ilya Sutskever认为,人工智能的创新速度如此之快,以至于我们不能指望现有当局充分控制技术——最近的行动也是这种情绪的体现。
OpenAI表示,在该计划中它正在寻求为个人、团队和组织提供资金,制定概念验证试验,以回答有关人工智能护栏的问题。它表示,该公司希望从这些试验中学习,并将它们作为未来更全球化、更雄心勃勃的进程的基础。感兴趣的个人可以在6月24号之前提出申请,公司将选择10个试验每个资助10万美元,而每个试验必须涉及不少于500个用户。
Altman最近的评论和该公司的行动,为OpenAI的监管方法提供了细致入微的视角。虽然他支持对未来更强大的人工智能系统的监管,Altman参与了关于人工智能监管的国际对话,包括与英国首相Rishi Sunak以及人工智能公司DeepMind和Anthropic的负责人的会谈。对话围绕着与人工智能相关的各种风险展开,从虚假信息到国家安全,甚至生存威胁。
尽管存在潜在的挑战,但OpenAI首席执行官仍然对人工智能的好处持乐观态度。在伦敦大学学院,Altman分享了他的信念,即人工智能可以创造更多就业机会并减少不平等。然而,他在给监管机构的倡导中强调了在促进人工智能创新和应对其风险之间需要达成的平衡。
领取专属 10元无门槛券
私享最新 技术干货