模型保护
-
开源深度学习框架在安全领域的隐患:数据泄露与防护的挑战
最近在和几个朋友讨论开源深度学习框架在安全领域的应用时,发现大家普遍对数据安全方面存在一些误区和担忧。其实,开源深度学习框架本身并非不安全,但其在安全领域应用中的数据泄露风险不容忽视。 首先,我们要明确一点,深度学习模型的训练往往需要...
-
边缘AI处理器中,如何利用NoC为AI模型权重和推理结果提供细粒度安全保护,并量化其性能开销?
在当前万物互联的时代,边缘AI算力正在爆发式增长,它将复杂的AI模型从云端推向了终端设备。但与此同时,模型安全问题也日益凸显。想象一下,一个投入了巨大研发成本训练出的AI模型,部署到边缘设备上,却面临着被轻易逆向工程、篡改甚至窃取的风险,...
-
zk-SNARK在联邦学习中的应用:隐私保护下的数据共享与模型训练
联邦学习(Federated Learning)无疑是近几年机器学习领域最火热的话题之一。 试想一下,如果各个医院的数据可以“联合”起来训练一个更强大的疾病诊断模型,而又无需担心患者隐私泄露,那将是多么美好的事情! 传统的机器学习方法...
-
深度学习模型安全性的未来挑战:对抗样本、数据投毒与模型窃取
深度学习模型在图像识别、自然语言处理等领域取得了显著的成功,但其安全性问题也日益凸显。随着深度学习模型应用场景的不断扩展,模型安全性的研究变得至关重要。本文将探讨深度学习模型安全性的未来挑战,主要关注对抗样本、数据投毒和模型窃取这三个方面...