保护数据隐私前提下的联合建模
某中心研究人员在本年度声学、语音与信号处理国际会议上发表了50多篇论文。其中多数聚焦于自动语音识别及相关主题,如关键词识别和说话人识别,但也涉及计算机视觉和联邦...
何朝阳(Chaoyang He)目前是计算机科学系三年级博士研究生,由Mahdi Soltanolkotabi教授和Salman Avestimehr教授共同指...
本文针对联邦学习中遇到的Non-IID问题进行探讨,介绍Non-IID产生的原因,分析Non-IID对联邦学习的影响,以及调研了近年来针对该问题的解决方案,并进...
打开链接点亮社区Star,照亮技术的前进之路。每一个点赞,都是社区技术大佬前进的动力
联邦学习(FL)是一种允许边缘设备(如智能语音设备)在保持客户数据本地化的前提下协作训练全局模型的框架。标准FL系统包含云服务器和多个客户端(设备),每个设备拥...
Michael Lohaus, Matthaus Kleindessner, Krishnaram Kenthapadi, Francesco Locatell...
实现过程会涉及到多种技术和编程语言,如Python、TensorFlow、PyTorch、Neo4j等。具体的代码实现细节需要根据具体需求和环境进行设计和开发。
在人工智能领域,数据隐私保护与模型性能的平衡一直是核心挑战之一。联邦学习(Federated Learning)作为一种分布式机器学习范式,自2016年由Goo...
安全可信机器学习中心近日宣布遴选出来自南加州大学教师的五项新研究项目(2022-2023年度)。该中心成立于2021年1月,致力于支持机器学习隐私、安全与可信度...
随着联邦学习(FL)技术的持续发展,个性化联邦学习(pFL)已成为该领域的重要研究方向。传统FL(tFL)侧重于联合学习全局模型,而pFL则致力于平衡每个客户端...
通过使用控制变元(control variate)来校准每个客户端的本地梯度,Scaffold 已被广泛认为是缓解联邦学习中数据异质性影响的一种强大方案。但尽管...
南加州大学与某机构联合成立的"安全可信机器学习中心"于2021年1月成立,致力于支持机器学习隐私、安全与可信性的基础研究和新方法开发。该中心近日宣布了2021-...
预训练语言模型(PLMs)在各种NLP任务中表现出色,但传统微调方法存在高计算成本问题。提示调优作为高效替代方案,仅需在输入序列前添加少量可训练参数,同时冻结P...
联邦学习(FL)框架允许多个边缘设备(如智能终端)在数据本地保存的前提下协作训练全局模型。标准FL系统包含云服务器和多个客户端设备,每个设备持有本地数据和机器学...
联邦学习使分布式设备能够利用本地数据贡献全局模型,同时保护数据隐私;持续学习则要求模型在新数据到来时不断更新。两者的结合面临关键挑战——如何避免"灾难性遗忘",...
【新智元导读】华南理工大学计算机学院AI安全团队长期深耕于人工智能安全,近期联合约翰霍普金斯大学和加州大学圣地亚戈分校聚焦于联邦学习中防范恶意投毒攻击,产出工作...
人工智能在科学研究中的一大挑战是如何确保获取足够的高质量数据,以构建具有影响力的模型。尽管公共数据资源丰富,但最有价值的知识往往深藏于企业的机密数据孤岛之中。尽...
摘要:《DeepSeek医疗影像诊断:从数据到模型的落地密码南》通过详细介绍DICOM数据预处理规范、3D器官分割模型训练以及联邦学习保障数据隐私等方面的内容,...
江中华,浙江大学软件学院硕士生二年级,导师为张圣宇老师。研究方向为大小模型端云协同计算。张圣宇,浙江大学平台「百人计划」研究员。研究方向包括大小模型端云协同计算...