科技成果

阅读数: 2329

成果名称: 复杂视觉场景的多目标表征与识别理论与方法

成果登记号: 9612020J0112

第一完成单位: 西安交通大学

联 系 人: 黄丹

成果类型: 基础理论

成果体现形式 : 其他

技术领域: 其他

应用行业: 信息传输、软件和信息技术服务业

成果简介:

复杂视觉场景多目标定位与跟踪是实现智能系统的核心与基础,在智能机器人、无人车、视频监控、军事国防等领域具有十分重要的应用。

高精度目标表征与识别是视觉场景多目标定位与跟踪的关键性难题,体现在:(1)跟踪目标数量多、相似度高且持续变化导致难以精准识别相同目标、区分不同目标;(2)光照变化、视觉遮挡等复杂噪声及视觉信息缺失导致难以获取稳定与鲁棒的目标表征与识别;(3)视觉场景的多样性导致目标表征与识别难以适应不同场景。

其关键科学问题是满足高不变性、高区分性、高鲁棒性的场景自适应目标表征与识别。

围绕上述科学问题, 该项目历经 10 余年攻关,从精准性、鲁棒性和场景自适应性三个方面开展研究,揭示了目标表征与识别的不变性与区分性内在机理,构建了视觉信息缺失及复杂噪声下的鲁棒表征与识别理论,建立了场景自适应的目标表征与识别联合框架,实现了复杂视觉场景下的高精度多目标定位与跟踪。

主要科学发现如下: 1. 揭示了视觉场景目标精准表征与识别的不变性与区分性内在机理,构建了可同时学习全局与局部特征的多通路神经网络架构,并提出了最小最大表征准则和最大互相关熵识别准则,建立了满足高不变性与高区分性的目标表征与识别方法,解决了复杂视觉场景多目标难以精准表征与识别的难题。

该成果已成为目标再识别领域的主流,引领了该研究方向,被评价为"目标再识别代表性方法","具有非常强的特征表达能力","总体性能非常好","达到领域最佳精度"。

2. 建立了视觉信息缺失及复杂噪声情况下的目标鲁棒表征与识别理论,揭示了移动多目标同胚分布规律及其噪声动态特性,提出了 PEM 表征算子和多阶混合灰色识别模型,构建了复杂噪声下的互相关熵鲁棒模型学习方法,解决了光照变化、视觉遮挡等条件下的鲁棒多目标定位与跟踪问题。

成果被国际知名学者评价为"多目标跟踪领域的典型工作","兼顾测距与非测距优点的目标定位方法","能有效抑制非高斯噪声干扰"。

3. 阐明了视觉场景自适应的目标表征与识别机理,提出了场景驱动的表征和识别联合求解框架及目标表征质量度量,建立了由场景通用性向专用性自适应演化的目标表征与识别双向反馈计算方法,解决了传统方法难以适配复杂多样视觉场景的问题。

成果被国际知名学者评价为"多目标跟踪领域最成功的方法","业内顶级方法中最快的算法"。

该项目发表 EI/SCI 论文 122 篇, 获授权国家发明专利 12 项。

5 篇代表作总计 Google Scholar 引用 1511 次; 单篇最高 Google Scholar 引用 773 次, 1 篇 ESI 高被引论文。

主要成果被美国、英国、澳大利亚、瑞典等国家的科学院院士、 IEEE/ACM/AAAS/IAPR Fellows 等国际知名学者引用并高度评价。

第一完成人因在计算机视觉与多媒体领域贡献于 2017年入选 IEEE Fellow。

基于项目成果所研发的复杂场景多目标定位与跟踪方法在西藏移动智慧+大数据分析平台与多层次城市公共安全智能管理平台、陕西省的智能视频监控系统中得到实际应用,显著提升了上述地区的公共安全信息的感知能力和情报能力, 为反恐、维稳、边防、车辆和人员的识别与跟踪等做出重要贡献。