-
Notifications
You must be signed in to change notification settings - Fork 17
New issue
Have a question about this project? Sign up for a free GitHub account to open an issue and contact its maintainers and the community.
By clicking “Sign up for GitHub”, you agree to our terms of service and privacy statement. We’ll occasionally send you account related emails.
Already on GitHub? Sign in to your account
请问我可以在我自己的多分类数据集上生成攻击样本吗?具体应该怎么做呢?我看了可以在CUB_200_2011 和 Standford数据上的实现 #23
Comments
哈喽 @woaiwojia4816294 , 是的,只需要按照demo文件夹里的格式来整理数据,就能够在新数据集上生成对抗样本。 考虑到多分类任务中一幅图像会有多个标签,所以你可以尝试直接将几个标签串联在一起,或者随机选取其中一个作为text prompt,来看看效果如何。此外,对于新的数据集,你可能需要调整损失函数的权重,来避免梯度消失: DiffAttack/diff_latent_attack.py Lines 398 to 401 in 163f0f7
|
请问我是否应该重新训练好classifier呢,我的数据集是20类 |
是的,要生成对抗样本,首先得有训练好的分类器. |
哈喽, |
结果看着有些奇怪,第一个iteration的时候attack loss值就有28,可以再验证下所用的分类器,看看它是否能输出正确的分类结果 |
分类器是正常的,也可以成功攻击,差不多1000个样本,800个可以攻击成功。就是用其他指标评价攻击样本时,效果比较差,就是生成的攻击样本和原样本相比差别稍微有点大 |
哈喽,可以尝试通过增大structure loss的权重、减少迭代轮次、减少DDIM Inversion步数等来提升内容一致性 不过还是觉得上面图片里的loss日志有点奇怪,比如attack loss每一个iteration基本都不怎么下降🤔 |
只需要给自己数据集的每个类别添加文字描述,并制作成 label.txt,然后设置好数据集路径就可以吗?
The text was updated successfully, but these errors were encountered: