
发表于CVPR2024,该论文面向语义分割任务中不准确的分割边界,提出了Contextrast,即设计了一个基于INfoNCE损失的新损失函数,以保证在不同尺度下的特征(不同类别的平均特征)的空间关系保持一致,还提出了基于边界引导的负样本挖掘方法,旨在提高负样本的质量。(代码未公布)
2025年2月17日
发表于CVPR2020,其提出了在线深度聚类的方法,即设计并维护了两个动态内存模块,即用于存储样本标签和特征的样本内存,以及用于质心进化的质心内存,将突然的全局聚类分解为稳定的内存更新和批量标签重新分配。
2025年2月17日
发表于CVPR2023,共识聚类是一种无监督的集成聚类方法,旨在通过多次重采样和聚类分析来评估聚类结果的稳定性,从而确定数据集中最优的聚类数目(k值)及其成员结构。该论文提出了DivClust,一种多样性控制损失,可以纳入现有的深度聚类框架,以产生具有所需多样性程度的多个聚类。
2025年2月16日
发表于CVPR2024,两阶段的训练过程,该框架包括自监督去噪扩散的训练前阶段和多任务微调阶段,提出了一种新的边缘提示增强模块,该模块集成在多个尺度的解码器中,以增强被篡改的边缘痕迹从粗到细。
2025年1月15日
发表于CVPR2021,无监督语义分割,使用聚类伪标签和交叉熵损失,同时使用数据增强,利用增强不变性,提高模型泛化性,是模型不关注噪声。(引用290次)
2025年1月8日
发表于IJCV 2024,多模态的图像篡改检测。
2024年10月21日
发表于CVPR2024。
2024年10月8日
发表于TIP 2020,无监督语义分割和可微聚类方法。
2024年10月7日
发表于TIFS2024,被篡改区域的边界是分离被篡改和未被篡改像素的关键位置,在这项工作中,我们提出了一种图像操作检测的边界感知方案,其中我们引入了充分利用篡改区域的边界信息,并从注意和特征学习两个角度实现了我们的方案。
现有问题:被篡改区域的边界是分离被篡改和未被篡改像素的关键位置。然而,如何利用这些边界信息来提高检测被篡改图像区域的性能仍有待探索。
解决方案:
在这项工作中,我们提出了一种图像操作检测的边界感知方案,其中我们引入了充分利用篡改区域的边界信息,并从注意和特征学习两个角度实现了我们的方案。首先,为了进一步增强操作定位,我们鼓励该模型关注一个被篡改区域周围的边界,其中经常存在非自然的混合。其次,受对比学习的启发,我们寻求学习一个特征空间,即篡改区域内的点远离篡改区域边界附近的非调和区域点,以获得更强大的特性来定位篡改区域。
具体情况
在注意方面,在我们的框架的解码层中,我们提出了一种新的基于交叉注意的边界感知模块,旨在提取图像中被篡改区域的边界,从而使模型进一步集中于被篡改区域的边界。特别是,边界感知注意模块利用跳连编码特征与前一层解码特征的相关性,提取被篡改区域的边界,进一步用于生成图像篡改定位的掩模。


发表于TIFS2023,随着互联网的蓬勃发展,在线社交网络(OSNs, online social networks)已成为图像共享和传输的主导渠道,但OSN传输下所有现有算法的性能都会严重下降,尤其是WeChat、QQ、Telegram和Dingding。为了减轻OSN的负面影响,在本工作中,我们提出了一种新的相机轨迹提取方法,该方法有望对各种OSN平台的传输具有鲁棒性。
2024年9月2日
发表于CVPR2024型,CAAA可以像素级自动和精确地注释大量的人工伪造的图像,进一步提出了一种新的度量QES,以方便不可靠注释的自动过滤。
2024年8月26日
发表于ACMMM2024,针对IML任务中公共训练数据集的稀缺,通过采用可调提示来利用预训练模型的丰富先验知识,即Prompt-IML框架,即插即用的特征对齐和融合模块。
现有问题:IML任务中公共训练数据集的稀缺直接阻碍了模型的性能。
解决方案:
提出了一个Prompt-IML框架,该框架通过采用可调提示来利用预训练模型的丰富先验知识。
具体情况
> 通过集成可调提示,从单个预先训练过的主干中提取和调整多视图特征,从而保持性能和鲁棒性


发表于CVPR2024,集成三个视图的UnionFormer框架,一个调节不同尺度上空间一致性的篡改特征提取网络BSFI-Net。
现有问题:以往的方法主要利用为高级视觉任务设计的深度卷积神经网络作为特征编码器或直接连接来自不同层的特征,不能充分表示篡改痕迹;目前的高级方法关注于像素或补丁级的一致性,而忽略了对象级的信息,在自然语言提示的引导下,自动生成的伪造部分更有可能表现出对象的不一致。解决方案:设计了专门用于提取取证工件的边界敏感特征交互网络(BSFI-Net, Boundary Sensitive Feature Interaction Network)设计了用于图像操作检测和定位的多视图表示的统一学习transformer框架
具体情况
> cnn-Transformer并发网络 BSFI-Net,该网络在保持边缘灵敏度的同时,促进了两个分支中不同尺度的特征之间的彻底交互。



发表于ICCV2023 将不确定性进行建模。
2024年5月16日
发表于ICCV2023,关注边界的信息,使用边界监督。
2024年5月16日
发表于ICCV2023,为弱监督图像篡改检测,具体来说,学习了两个一致性属性,多源一致性(MSC, multi-source consistency)和补丁间一致性(IPC, inter-patch consistency )。MSC利用不同的内容无关信息,并通过在线伪标签生成和细化过程实现跨源学习。IPC执行全局成对补丁关系推理,以发现完整的操作区域。
2024年5月10日
发表于AAAI2024,提出基于CatmullRom样条的回归网络,为了明确抑制假阳性样本和避免不确定性边界,综合再评分算法(CRA,Comprehensive Re-scoring Algorithm),综合评估每个区域的信任分数作为篡改区域,而垂直纹理交互感知(VTP, Vertical Texture-interactive Perception)控制生成更准确的区域边缘。
现有问题:假阳性(FPs)和不准确的边界。
解决方案:
基于CatmullRom样条的回归网络(CSR-Net, CatmullRom Splines-based Regression Network),首次尝试将回归方法引入像素级任务。为了明确抑制假阳性样本和避免不确定性边界,我们设计两个相互互补和强化的组件,即综合再评分算法(CRA,Comprehensive Re-scoring Algorithm),综合评估每个区域的信任分数作为篡改区域,而垂直纹理交互感知(VTP, Vertical Texture-interactive Perception)控制生成更准确的区域边缘。
具体情况

详细地说,与传统的边界盒检测方法相比,我们引入了CatmullRom定位技术,该技术对目标区域控制点的轮廓进行了建模,从而实现了更准确和有效的篡改区域定位。然后,为了抑制FPs(假阳性),设计了综合再评分算法(CRA),我们为每个区域实例重新分配分数,区域实例的综合得分由分类得分(CLS)和实例得分(INS)两部分组成。
此外,我们还提出了一个可学习的区域纹理提取模块垂直纹理交互感知(VTP)来进一步参考边缘。


发表于AAAI2024,一种两阶段判别噪声引导的方法,第一阶段训练一个噪声提取器,以明确地扩大真实区域和伪造区域之间的噪声分布差异,第二阶段将噪声不一致和RGB数据集成,以进行伪造检测和定位。
现有问题:- 随着篡改和后处理技术的发展,这两个区域在噪声域之间的差异变得不那么明显,甚至不那么隐藏。鉴于这些缺陷,我们建议明确地学习和利用噪声的不一致性可以进一步提高IFDL的性能。
解决方案:
通过关注噪声域内的操纵痕迹来检测和定位图像伪造,一种两阶段判别噪声引导的方法,第一阶段训练一个噪声提取器,以明确地扩大真实区域和伪造区域之间的噪声分布差异,第二阶段将噪声不一致和RGB数据集成,以进行伪造检测和定位。
具体情况
一阶段:

$$ \mathbf{L_{n}}=\lambda\left(1-JSD\right)+\left(1-\lambda\right)\mathcal{L}\left(Y,G_{c}\right) $$ 二阶段:


发表于AAAI2024,为应对交叉熵损失优先考虑逐像素精度,但忽略了篡改区域的空间位置和形状细节,设计了基于掩码引导查询的转换器框架(MGQFormer),该框架使用GroundTruth掩码来引导可学习查询令牌(LQT)识别伪造区域。
现有问题:- 所有现有的IMD主要通过交叉熵损失使用真值掩码,该损失优先考虑逐像素精度,但忽略了篡改区域的空间位置和形状细节。
解决方案:一种基于掩码引导查询的转换器框架(MGQFormer),该框架使用基本事实掩码来引导可学习查询令牌(LQT)识别伪造区域。
具体情况
利用BayarConv和Transformer编码器从输入图像中提取RGB和噪声特征,过空间和通道注意模块(SCAM,spatial and channel attention module)对多模态特征进行融合。其特征提取器如下:


发表于AAAI2024,包含RGB和频率特征的hrnet双分支架构,能够检测双压缩伪影的压缩伪影学习模型。
现有问题:- 所有现有的IMD技术在从大图像中检测小的篡改区域时都遇到了挑战。
- 基于压缩的IMD方法在相同质量因子的双重压缩的情况下面临困难。
解决方案:包含RGB和频率特征的双分支架构,能够检测双压缩伪影的压缩伪影学习模型。
具体情况
> RGB和频率特征的双分支架构


发表于Pattern Recognition 2023, 设计了一个优化kmeans的算法BigMeans。
2025年1月8日
发表于Information Fusion 2023。
2024年12月29日
发表于TCSVT 2024。
2024年12月26日
发表于IEEE Transactions on Neural Networks and Learning Systems 2023,提出了DAFC来自动分组图像,得到的迭代优化问题可以通过小批量RMSprop和反向传播而不是SGD有效地解决,可以学习一个更聚类友好的瓶颈空间。
2024年12月23日
发表于Pattern Recognition 2023,基于深度学习的图像伪造检测综述。
2024年12月18日
发表于IEEE Transactions on Fuzzy Systems 2019,提出了深度模糊k-means(DFKM),具有加权自适应损失函数的FKM。
2024年12月4日
发表于JCR一区、CCF B类期刊的Pattern Recognition 2024,提出了一种新的边界引导图像篡改定位模型,该模型通过精心设计的注意力和对比学习机制充分利用被篡改区域的边界信息,利用拉普拉斯正则化方法对隶属度矩阵进行约束,使从相似样本中学习到的隶属度也相互关联,将自适应损失函数引入到统一的框架中,可以减少各种异常值的影响,有助于增强聚类的鲁棒性。
2024年12月3日
发表于Information Sciences 2023。
2024年12月2日
发表于ECCV2024,提出了AdaIFL,为不同的网络组件定制不同的专家组,构建多个不同的特征子空间,利用自适应激活的专家网络,AdaIFL可以捕获与伪造模式相关的判别特征,增强了模型的泛化能力。提出了一种特征重要性感知注意力,自适应地感知不同区域的重要性,并将区域特征聚集成可变长度的标记,将模型的注意力导向更有区别和信息的区域。
2024年11月19日
发表于ECCV 2024。
2024年11月19日
发表于IEEE Transactions on Neural Networks and Learning Systems 2024,深度聚类的综合综述。
2024年9月29日
发表于Pattern Recognition 2024,双同源感知生成对抗网络(DH-GAN),选择性金字塔(SAP)校准多尺度特征。
2024年8月24日
发表于TCSVT 2023。
2024年5月5日
发表于WACV 2023,RGB频域双通道多尺度特征网络。
2024年4月10日
aixiv文章,面对无监督语义分割,使用多级聚类的方法来实现。
2025年2月15日
发表于Vicinagearth 2024,从先验的角度看深度聚类方法,(a)结构先验:数据结构可以反映实例之间的语义关系。(b)分布先验:来自不同集群的实例遵循不同的数据分布。(c)增强不变性:由相同实例增强的样本具有相似的特征。(d)邻域一致性:相邻的样本具有一致的聚类分配。(e)伪标签:具有高可信度的聚类分配很可能是正确的。(f)外部知识:在开放世界的数据和模型中存在大量有利于聚类的知识。
2025年1月7日
aixiv文章,首次使用对比学习加聚类的方法做图像篡改检测。
2024年4月8日