

基于密码学视角的人工智能安全新理论与防护体系
针对AI模型面临的数据投毒、模型窃取等安全威胁,融合密码学理论与AI技术,研究数据与模型的安全共享、隐私保护训练及完整性验证等新型防护机制。
理科
SCI
CCF
人工智能
计算机科学与技术
数据安全
隐私保护
密码学分析
申请匹配
咨询客服 课题详情
【推荐发表期刊】
IEEE Transactions on Information Forensics and Security (IF=7.8) | 中科院1区 | JCR Q1 | CCF-A
Computers & Security (IF=5.6) | 中科院2区 | JCR Q1
Journal of Computer Science and Technology (IF=2.8) | 中科院3区 | JCR Q2 | CCF-B
【课题背景】
人工智能在金融、医疗、自动驾驶等关键领域深度应用的同时,其自身安全性已成为制约其发展的瓶颈。传统网络安全方案难以直接适用于数据与模型紧密耦合的AI系统。密码学作为信息安全的基石,其成熟理论(如同态加密、安全多方计算、零知识证明)为构建下一代AI安全框架提供了全新视角,该方向研究对保障AI产业健康发展至关重要。
【参考方向】
对抗样本的密码学分析与防御
支持隐私保护的联邦学习框架设计
基于区块链的AI模型完整性审计
面向大模型的训练数据安全与隐私计算
【适合人群】
计算机科学、网络安全、密码学、应用数学等相关专业硕博研究生,具备机器学习基础和一定的密码学知识。
【课题收获】
高质量论文一篇
期刊投递与发表指导
结业证书
【课题安排】
研究周期预估六个月左右,具体视学员情况调整。














