近年来,随着生成式人工智能技术的快速发展,AI在内容生成、语音合成、图像处理、视频生成等方面展现出强大的能力。然而,技术的“双刃剑”效应也逐渐显现,AI被滥用的风险日益凸显,如AI换脸、AI生成虚假信息、AI换声、AI生成低俗内容等,严重影响了网络生态和公众权益。 为贯彻落实中央网信办“清朗·整治AI技术滥用”专项行动部署,浙江、江苏、广东三省迅速响应,聚焦AI技术滥用问题,加强源头治理,推动AI应用合规发展。本文将从三省治理重点出发,总结AI备案与合规运营的关键方向,助力企业合规前行。 一、三省治理重点:聚焦六大核心问题
1. 浙江:全链条治理,强化内容安全与标识管理
浙江省委网信办以“浙里清朗”专项行动为抓手,聚焦AI技术滥用问题,重点整治训练语料管理不严、内容标识落实不到位、安全审核措施薄弱等六大问题。
强化内容标识管理:要求AI生成内容必须显式或隐式标识,推动平台构建AI内容检测识别能力。
全链条自查自纠:督促平台企业对模型备案、数据训练、内容审核等环节进行全面自查。
提升安全防护能力:指导企业建立内容审核、意图识别等安全措施,如钉钉设立AI违规内容举报入口,实现“机器+人工”双重审核。
企业合规建议:
严格遵守《人工智能生成合成内容标识办法》,落实内容标识要求;
建立AI内容审核机制,提升内容安全能力;
加强与技术团队合作,提升AI模型的安全性和可控性。
2. 江苏:聚焦违规产品、数据管理、安全风险
江苏省委网信办聚焦六大问题,包括违规AI产品、训练语料管理不严、安全管理措施薄弱、未落实内容标识要求、重点领域安全风险等。
清理违规AI产品:重点排查未履行大模型备案或登记程序的AI应用,清理“一键脱衣”等违规功能。
强化数据安全与内容标识:推动企业落实内容标识要求,加强AI生成内容的可追溯性(显性标识+隐性标识)。
企业合规建议: 严格履行大模型(算法)备案与登记程序,确保合法合规; 加强数据训练和内容生成过程中的安全审查; 主动落实内容标识要求,提升用户信任度。
3. 广东:压实平台责任,强化全链管理 广东省委网信办聚焦重点平台、重点环节、重点领域,压实平台主体责任,强化AI技术源头治理。 压实平台责任:指导华为、腾讯、网易、OPPO等20余家重点平台开展专项治理,清理违规AI产品、教程及营销信息。 强化全链管理:从“事前、事中、事后”三个环节加强AI应用的管理,严格审核上架资质,加强内容巡查和整改。 加强重点领域安全:加强对医疗、金融、教育等领域的AI内容审核,防止AI误导用户、产生错误信息。
企业合规建议: 加强平台内容审核能力,确保AI生成内容符合法律法规; 建立“事前准入、事中巡查、事后复核”的全流程管理体系; 重点关注重点行业应用,避免AI误用或滥用。 二、企业合规运营:备案是第一步,合规是关键 在AI治理不断深化的背景下,备案不仅是法律要求,更是企业合规运营的起点。无论是大模型开发者、应用平台方,还是内容生成服务提供者,都必须高度重视备案与合规工作。 备案是合规的“通行证” 未履行备案或登记程序的AI产品,9月1号之后可能面临下架、封禁、罚款等风险; 备案信息真实、完整,有助于提升平台公信力和用户信任度; 备案也是企业参与行业竞争、招投标资质、获取政策支持的重要依据。
三、备案建议:企业如何高效推进合规工作? (1)提前规划,主动备案 企业应根据自身业务类型,提前规划备案路径,主动对接主管部门或备案机构,确保备案流程高效、合规。 (2)强化内部合规管理 建立AI内容审核、数据管理、用户隐私保护等内部合规机制,确保AI应用全流程可控。 (3)加强技术能力建设 提升AI内容识别、风险预警、安全防护等技术能力,降低违规风险。
备案通过只是合规运营第一步,并非高枕无忧。备案通过之后需要在显眼位置悬挂备案号,并且持续监督算法内容审核、结果标识输出、用户隐私保护、最新政策的跟进等,才能让企业持续合规运营下去。
三省在 AI 治理中各有侧重,但都围绕合规备案、内容安全、技术风控等核心要点。企业应紧跟三省治理步伐,严格落实备案要求,加强内容与数据安全管理,完善标识与审核机制,积极参与协同治理,方能在 AI 发展浪潮中合规前行,推动智能向善,实现可持续发展。
原创声明:本文系作者授权腾讯云开发者社区发表,未经许可,不得转载。
如有侵权,请联系 cloudcommunity@tencent.com 删除。
原创声明:本文系作者授权腾讯云开发者社区发表,未经许可,不得转载。
如有侵权,请联系 cloudcommunity@tencent.com 删除。