近日,我院特聘副研究员任昊以第一作者完成的研究成果入选人工智能顶级会议AAAI 2025。AAAI全称为人工智能促进会(Association for the Advancement of Artificial Intelligence),是人工智能领域的主要国际学术组织,该协会主办的AAAI年会(AAAI Conference on Artificial Intelligence)是国际顶级人工智能学术会议之一,被中国计算机学会评定为A类学术会议(CCF-A)。
以下是论文的简要介绍:
PrivDNFIS: Privacy-preserving and Efficient Deep Neuro-Fuzzy Inference System

深度神经网络(DNNs)在图像识别、自然语言处理、医学诊断等领域成果显著,但因其数十亿连接权重的复杂性,理解和信任成为难题,可解释人工智能模型应运而生。深度神经模糊推理系统(DNFIS)融合深度学习的模式识别与模糊逻辑的可解释性,能实现精确透明决策,在医疗、法律等领域优势突出,还借助规则表示和直观语言变量确保清晰性,展现出高性能。然而从数据安全角度看,当用户向第三方模型所有者发送推理请求时,数据传输存在被窃取或篡改风险,如医疗诊断场景中,用户上传的敏感健康数据在传输和存储时,若防护措施不到位,就可能因黑客攻击、内部人员违规操作等导致数据泄露,严重威胁个人隐私和数据安全。强化DNFIS这类模型推理服务的数据安全防护,在数据传输加密、密文域推理等方面采取有效措施,具有现实需求。因此,本文提出了名为PrivDNFIS的方案。
构建适用于深度神经模糊推理系统(DNFIS)的安全推理方案存在诸多技术挑战,而 PrivDNFIS 在应对这些挑战方面做出了多个具体贡献。从技术挑战来看,一方面,要深入研究 DNFIS 网络架构及其神经元内部结构来明确计算任务,且当前缺乏适应模糊隶属函数的安全计算协议,这就需要对 DNFIS 和密码技术展开研究;另一方面,保护用户输入数据安全需要理论保障,在给定威胁模型下确保语义安全性是项具有挑战性的任务,同时当复杂推理函数和可证明安全性成为基本要求时,降低计算开销也颇具难度。面对这些挑战,PrivDNFIS 开启了为 DNFIS 设计安全推理方案的研究,通过利用基于RLWE的同态加密和密文提取技术,提出了安全高效的推理方案;还在半诚实威胁模型下,为方案提供了正式的安全证明,分析合理简洁;并且对所用到的基础协议包括安全聚合和向量内积等提出了多项优化方案,省去了繁重的同态密文旋转操作。调整现有DNFIS 模型的多个算子,在不影响准确性的前提下,使端到端时间开销相对于基准方案降低了1.9到4.4倍。
我院特聘副研究员任昊为文章第一作者,副研究员兰晓为第二作者,第一通信作者为陈兴蜀教授,第二通信作者为唐瑞助理研究员。该成果完成单位为四川大学网络空间安全学院(研究院)、数据安全防护与智能治理教育部重点实验室。