排序方式: 共有3条查询结果,搜索用时 0 毫秒
1
1.
当前基于深度学习的有监督前景分割方法得益于大量待分割场景的标注信息,其性能大幅超越传统的无监督方法.然而,获取高精度的像素级标注需要耗费大量的人力和时间成本,这严重限制了有监督算法在无标注场景的部署应用.为解决对场景监督信息依赖的问题,设计了一种与传统的帧间差分法相融合的跨场景深度学习架构,即帧间高级特征差分算法.该算法重点围绕时域变化等跨场景共性知识的迁移,在不依赖待分割场景监督信息的前提下实现高精度分割.面向五类不同模式的困难场景开展实验,本文算法的平均F值达到0.8719,超越了当前最高性能的有监督算法FgSegNet v2(相同的跨场景条件下)和最佳的无监督算法SemanticBS.本文算法对QVGA视频(320×240)的处理速度达到35帧/s,具有较好的实时性. 相似文献
2.
3.
深度学习模型对对抗样本表现出脆弱性.作为一种对现实世界深度系统更具威胁性的攻击形式,物理域对抗样本近年来受到了广泛的研究关注.现有方法大多利用局部对抗贴片噪声在物理域实现对图像分类模型的攻击,然而二维贴片在三维空间的攻击效果将由于视角变化而不可避免地下降.为了解决这一问题,所提Adv-Camou方法利用空间组合变换来实时生成任意视角及变换背景的训练样本,并最小化预测类与目标类交叉熵损失,使模型输出指定错误类别.此外,所建立的仿真三维场景能公平且可重复地评估不同的攻击.实验结果表明,Adv-Camou生成的一体式对抗伪装可在全视角欺骗智能图像分类器,在三维仿真场景比多贴片拼接纹理平均有目标攻击成功率高出25%以上,对Clarifai商用分类系统黑盒有目标攻击成功率达42%,此外3D打印模型实验在现实世界平均攻击成功率约为66%,展现出先进的攻击性能. 相似文献
1