首页
知识问答
SEO
成功案例
关于我们
在线咨询
内容搜索
对抗样本
首页
>
对抗样本
04
2026-02
机器学习中的投毒攻击和对抗样本有什么区别
机器学习中的投毒攻击 和对抗样本 是两种安全威胁,它们在目的和方法上存在差异。投毒攻击 意指攻击者在训练阶段故意污染训练数据集,从而影响学习算法训练出的模型,使模型在部署时表现不正常或偏向某种错误决策。而对抗样本 是指在模型训练完成后,在测试或应用阶段,攻击者创造或修改样本以致模型做出错误的预测或分类,而这些样本通常在人类观察者看来与正常样本无异。 投毒攻击侵蚀的是模型的训练过程 ...
需要做网站?需要网络推广?欢迎咨询客户经理
13272073477
QQ咨询
QQ在线咨询
客户经理
客户经理
客户经理
客户经理
客服热线
13272073477
客户咨询热线
添加微信
微信便捷交流
返回顶部