X为了获得更好的用户体验,请使用火狐、谷歌、360浏览器极速模式或IE8及以上版本的浏览器
平台简介 | 帮助中心
欢迎来到科易厦门城市创新综合服务平台,请 登录 | 注册
尊敬的 , 欢迎光临!  [会员中心]  [退出登录]
当前位置: 首页 >  科技成果  > 详细页

[00902105]基于注意力机制的视频监控场景下行人视图属性的定位与识别方法

交易价格: 面议

所属行业: 监控

类型: 发明专利

技术成熟度: 正在研发

专利所属地:中国

专利号:CN202110543394.5

交易方式: 其他

联系人:

所在地:浙江杭州市

服务承诺
产权明晰
资料保密
对所交付的所有资料进行保密
如实描述
|
收藏
|

技术详细介绍

本发明提供一种基于注意力机制的视频监控场景下行人视图属性的定位与识别方法。包括如下步骤:步骤一:设计Inception-v4主干网络;步骤二:通过视角预测器分支预测出四个置信度作为视角先验信息贡献给最后输出单元作为视角权重;步骤三:将视角置信度反馈至浅层网络组成视角性特征来监督深层网络特征提取;步骤四:通过注意力分支来定位视角性特征属性,且为最后的输出单元贡献注意力权重;步骤五:设计最后属性识别单元的输出方式及损失函数;步骤六:整个网络模型在公开数据集上训练;步骤七:将模型应用到实际视频监控中进行行人属性识别;步骤八:制作Qt前端系统界面。本发明用于实际监控视频中进行行人属性识别,在排除复杂背景和遮挡问题同时,对行人在不同视角中的同一特定属性进行定位和识别。未来的应用场景可涉及商场、公安、交通等地的人员跟踪、检索、定位、重识别。
本发明提供一种基于注意力机制的视频监控场景下行人视图属性的定位与识别方法。包括如下步骤:步骤一:设计Inception-v4主干网络;步骤二:通过视角预测器分支预测出四个置信度作为视角先验信息贡献给最后输出单元作为视角权重;步骤三:将视角置信度反馈至浅层网络组成视角性特征来监督深层网络特征提取;步骤四:通过注意力分支来定位视角性特征属性,且为最后的输出单元贡献注意力权重;步骤五:设计最后属性识别单元的输出方式及损失函数;步骤六:整个网络模型在公开数据集上训练;步骤七:将模型应用到实际视频监控中进行行人属性识别;步骤八:制作Qt前端系统界面。本发明用于实际监控视频中进行行人属性识别,在排除复杂背景和遮挡问题同时,对行人在不同视角中的同一特定属性进行定位和识别。未来的应用场景可涉及商场、公安、交通等地的人员跟踪、检索、定位、重识别。

推荐服务:

智能制造服务热线:0592-5380947

运营商:厦门科易帮信息技术有限公司     

增值电信业务许可证:闽B2-20100023      闽ICP备07063032号-5