专业术语详解 | 深入浅出 | 通俗易懂
在网络安全和机器学习领域,asymmetric poisoning(非对称污染)是一种攻击方式,指的是攻击者通过向训练数据中注入恶意样本,以影响模型的决策过程,但这些样本并不是对称地分布在所有类别中。
举个例子:假设你有一个用于识别猫和狗的图像分类器,攻击者可能只在“猫”的图片中添加一些微小的扰动,让模型误以为这些图片是“狗”,而不会在“狗”的图片上做类似操作。这种不对称的污染方式更隐蔽,也更难被检测到。
这种攻击通常用于对抗性机器学习中,目的是降低模型的准确性和鲁棒性。
asymmetric poisoning 的核心在于“不对称性”。攻击者并不需要在所有类别中都进行污染,只需在某些特定类别中制造误导信息,就可以达到破坏模型的目的。
这种攻击方式常用于以下场景:
虽然它比对称污染更隐蔽,但也更容易被发现,因为它的行为模式存在明显的不一致性。
为了防止这种攻击,研究人员提出了多种防御机制,包括:
总的来说,防御 asymmetric poisoning 需要从数据源头入手,同时结合模型层面的安全机制。