2022-06-22 美国 来源:其他 作者:唐乾琛 领域:信息
关键词:
据TechXplore网6月17日消息,美国加州大学河滨分校研究人员正在开发保护计算机视觉系统免受对抗性攻击的技术。现有的计算机视觉对抗性攻击机制的原理都是对特定对象和活动进行错误分类。然而,大多数场景包含多个对象,并且场景中的对象之间通常存在某种关系,这意味着某些对象比其他对象更频繁地同时出现。这种共现称为“上下文”。加州大学河滨分校研究人员通过上下文图来指导算法应该针对哪些对象来欺骗受害者模型,同时保持整体场景上下文。这种攻击方式较其他关注单个对象的攻击方法更为有效。相关研究有望为研究人员提供新的思路,以开发保护计算机视觉系统的机制。
消息来源:https://techxplore.com/news/2022-06-vision-adversarial.html