特斯联在 CV 领域的科研突破涵盖了语义分割、图像增强、显著物体识别、迁移学习、行为识别等方面。其中不少创新技术打破了现有技术上限,亦开发了数个性能更优、识别更快、效率更高的模型,这些技术研究的应用与推广将会成为特斯联赋能城市数字化、智能化的有力保障。
5月9日获悉,作为成渝地区东数西算的深度参与者,特斯联对外公布了其计算机视觉(CV)领域的多个科研突破,并有8篇论文被CVPR、TPAMI等顶级国际学术会议和期刊收录。
此次,特斯联在 CV 领域的科研突破涵盖了语义分割、图像增强、显著物体识别、迁移学习、行为识别等方面。其中不少创新技术打破了现有技术上限,亦开发了数个性能更优、识别更快、效率更高的模型,这些技术研究的应用与推广将会成为特斯联赋能城市数字化、智能化的有力保障。
据介绍,特斯联集团首席科学家兼特斯联国际总裁邵岭及其团队在该领域中提出的图像和视频的识别和学习各算法,缩短了训练和推理时间,从图像识别提升、识别效率提升以及解决数据标注瓶颈三个方面,提升了整体视觉应用效果。
在图像识别方面,团队的技术突破主要集中在算法层面,囊括背景消除模块、图像特征突出等。这些可以从图像本质入手,丰富图像本身信息,去除多余噪点,为后续图像识别提供高清的图像数据,是高效率识别的基础。更有技术突破采用创新的手法,如加上声音信息来协助识别,提高信息准确度。
比如,在被收录于CVPR的《Learning Non-target Knowledge for Few-shot Semantic Segmentation》(《学习用于小样本语义分割的非目标知识》)研究中,团队从挖掘和排除非目标区域的新角度重新思考了少样本语义分割,继而提出了一个新颖的非目标区域消除(Non-target Region Eliminating)框架,以确保模型免受背景和分散注意力目标的干扰进而获得准确的目标分割结果。不仅如此,该研究还提出一个原型对比学习算法,通过精炼原型的嵌入特征以便更好的将目标对象与分散注意力的对象区分开来。
另外,特斯联方面指出,数据标注是一个重要的过程,传统人工数据标注费时费力。为此,上述团队提出了一种新技术以更高效地解决背后的问题。该研究被收录于今年的CVPR中,标题为《Category Contrast for Unsupervised Domain Adaptation in Visual Tasks》(《视觉任务中无监督域适应的类别对比》)。
具体来看,团队提出了一种新的类别对比技术(CaCo),该技术在无监督域适应(UDA)任务的实例判别之上引入了语义先验,可以有效地用于各种视觉UDA任务。该技术构建了一个具有语义感知的字典,其中包含来自源域和目标域的样本,每个目标样本根据源域样本的类别先验分配到一个(伪)类别标签,以便学习与UDA目标完全匹配的类别区分但域不变的表征。与当下最先进的方法对比,简单的CaCo技术可以实现更优越的性能表现,也可以成为现有UDA方法的补充,推广到其他机器学习方法中去,如无监督模型适应,开放/部分集适应等。该技术解决了传统监督学习需要大量人工标注的问题,比现有技术拥有更高的效率。