在最近的慕尼黑安全会议上,20家科技公司,包括OpenAI、微软、Adobe以及社交媒体平台Meta和TikTok等,共同签署了一份名为“2024年选举反欺诈AI技术协议(The Tech Accord to Combat Deceptive Use of AI in 2024 Elections)”。
这一重要举措旨在防止人工智能技术被用于干预即将到来的选举。这些公司承诺将共同应对那些“欺骗性地伪造或改变候选人外貌、声音或行为”的内容,尤其是在今年,当全球40多个国家超过40亿人将参与投票时,这一问题显得尤为重要。英国、美国和印度等国都将在2024年举行重要选举。
此次协议的签署恰逢人工智能行业的迅猛发展,先进的AI工具现如今已普及大众。然而,我们也注意到这些工具的滥用情况。比如去年流传的一个视频显示乔·拜登不当触摸他的成年孙女,这显然是被操纵的虚假内容,但足以对选举造成偏见。为此,包括微软在内的参与公司已同意协议中的八项主要承诺,涵盖提高公众意识、提升媒介素养、开发降低AI欺骗性内容产生风险的工具等方面。
尽管这些科技巨头承认AI带来的风险并采取措施是值得称赞的,但他们的做法也收到了混合反应。一些行业专家认为,为了确保选举的公正性,这些措施还不够,需要采取更直接的行动,而不是等到假内容出现。美国副司法部长Lisa Monaco甚至表示,由于AI,今年的选举很可能会受到通过虚假信息干扰的威胁。
这次行动标志着我们对AI技术在社会中作用的深刻反思,以及我们如何在保护选举的同时促进技术进步的探索。但问题来了,我们如何确保这些承诺得到履行?技术巨头的角色应该是什么?他们的监管和自我约束能否足以防止AI技术的滥用?我期待你的看法和讨论。
领取专属 10元无门槛券
私享最新 技术干货