随着人工智能技术,特别是生成式AI的迅猛发展,其在带来便利与创新的同時,也伴生了诸多风险,如虚假信息泛滥、隐私泄露、伦理争议等。为营造清朗网络空间,中央网信办部署开展了“清朗·整治AI技术滥用”专项行动。北京、上海作为科技前沿阵地,率先行动,其初步治理情况不仅揭示了当前AI滥用的重点领域,也为企业合规发展敲响了警钟,提出了明确的技术与运营要求。
北京重点打击 “一键脱衣”“声音克隆” 等违规功能,微博清理 AI 换脸教程 162 条、关闭账号 22 个;上海则聚焦 “未授权人脸 / 人声克隆”,小红书、B 站等平台拦截违规信息超 82 万条。这类功能不仅侵犯隐私,还可能引发诈骗、低俗内容传播,企业若开发或传播此类服务,面临账号封禁、行政处罚,甚至法律追责。
北京要求企业清洗训练数据,百度用 211 个权威网站的正能量数据源 “净化” 存量数据;上海督导企业规范数据爬取,百川停止使用存疑数据。若企业使用侵权、违规数据训练模型(如未经授权的人脸数据、涉黄文本),会因数据合规性问题被责令整改,还可能陷入知识产权纠纷。
北京推动近 60 家企业落实 “显著标识 + 元数据水印” 双标注;上海成立 AIGC 标识生态联盟,小红书、B 站等完成显式标识上线。若企业未标识 AI 生成内容,会导致公众误认(如把 AI 写的新闻当成人原创),触发平台治理处罚,还可能因虚假宣传吃官司。
北京、上海的“清朗”行动只是开始,全国范围内的AI治理将持续深化。对于企业而言,这既是挑战,更是规范发展的机遇。积极拥抱合规,将技术伦理融入产品设计,不仅能规避风险,更能赢得用户信任,在日趋规范的市场中占据有利位置。
原创声明:本文系作者授权腾讯云开发者社区发表,未经许可,不得转载。
如有侵权,请联系 cloudcommunity@tencent.com 删除。
原创声明:本文系作者授权腾讯云开发者社区发表,未经许可,不得转载。
如有侵权,请联系 cloudcommunity@tencent.com 删除。