人工智能技术日新月异,ChatGPT等大型AI模型的出现,代表着人工智能又迈入了一个新阶段。这些AI模型不但可以自动生成文字,还可以理解语言与知识,在提供用户全新的体验的同时,也带来劲爆的生产力效应,让各大科技公司看到了新的增长点。
然而,随之而来的也是各种担忧。由于这些AI模型会利用海量数据进行训练,隐私泄露与安全问题日益突出。因此,ChatGPT遭到了一些国家与组织的限制与封锁。联合国教科文组织发出倡议,意大利 data 保护机构宣布“封禁”ChatGPT,德国官员也可能会跟随。
人工智能新技术必将改变我们的生活,但也需要严密监管与限制。在 AI给生活带来便利的同时,数据安全与隐私保护也至关重要。ChatGPT等新的AI工具也需要面向这两个方向不断优化与改进。
网信办盯上ChatGPT
ChatGPT通过海量文本数据训练而成,可以自动回答用户的各种问题。但这也意味着,用户使用ChatGPT时可能无意中泄露个人信息与数据。
中国支付清算协会已对此表示担忧。该协会4月10日指出,部分企业员工正在使用ChatGPT等工具工作,但这些AI工具存在跨境数据泄露等风险。协会呼吁支付行业从业人员谨慎使用ChatGPT。
在此之后,中国网信办直接出手管控ChatGPT。4月11日,为规范生成式人工智能的健康发展和应用,网信办起草了《生成式人工智能服务管理办法(征求意见稿)》,向社会公开征求意见。
《意见征求稿》明确,生成式人工智能服务提供者应当建立健全数据治理机制,加强对生成式人工智能服务过程中涉及的人员、关键数据的管理。生成式人工智能服务提供者因服务运行需要收集使用的各类数据,应当符合相关法律法规的规定,明示数据用途,征得用户同意,不得收集不必要的个人信息。
《意见征求稿》的出台,表明网信办及各监管部门已将生成式人工智能纳入重点监管领域。未来,ChatGPT等工具在中国运营,也必将面临更严格的数据管理与安全监管。与此同时,ChatGPT也需要不断优化,加强安全与隐私保护,才能在中国市场蓬勃发展。
领取专属 10元无门槛券
私享最新 技术干货