欢迎来到继续教育培训网院校库!
继续教育培训网首页日前,第36届人工智能领域顶级会议AAAI-22(The 36th AAAI Conference on Artificial Intelligence)录用结果出炉,我校人工智能学院李成龙副教授课题组喜中3篇论文,涉及跨模态跟踪、多模态行人重识别等研究方向。据悉,AAAI-22为史上最严一届,全球人工智能相关领域学者投稿论文9251篇,创历史新高,而两轮评审最终录用率仅为15%(1349篇),创历史新低。
AAAI,即The Association for Advancement of Artificial Intelligence(国际人工智能发展协会)的简称,是具有重要影响力的国际学术组织,旨在推动智能思维与行为机制的科学理解及机器实现,并促进人工智能的科学研究和规范应用。该组织每年举办的学术会议AAAI Conference on Artificial Intelligence是中国计算机学会(CCF)推荐的人工智能领域A类会议,也是清华大学发布的计算机科学推荐学术会议中的A类会议。
李成龙老师、朱天昊同学和刘磊同学等的题为“Cross-Modal Object Tracking: Modality-Aware Representations and A Unified Benchmark”的论文,首次提出了跨模态目标跟踪新任务,旨在解决可见光与红外等模态的成像差异问题。监控相机一般包含红外补光机制,即在黑暗成像条件下自动通过红外补光克服可见光成像的局限。但这种成像切换会带来显著的图像内容变化,极大影响目标跟踪性能。为此,该论文设计了一种模态感知模型,通过自适应集成不同模态的特征,消除目标在不同模态中的外观差异,以此实现稳健持续跟踪。该模型具有一定的通用性,嵌入到两个代表性的目标跟踪框架中,性能都得到了显著提升。
郑爱华老师、李成龙老师和王梓同学等的题为“Interact, Embed and EnlargE: Boosting Modality-specific Representations for Multi-Modal Person Re-identification”的论文,提出了一种新颖的可见光、近红外、热红外的多光谱行人图像的重识别方法。多模态行人重识别任务是解决包含可见光、近红外、热红外的多光谱行人图像的重识别问题。可见光包含较多纹理信息,近红外和热红外可以在低光照环境下保持较好成像效果。该论文提出的方法从不同模态图像的特点和优势出发,通过交互、嵌入和扩大三种手段来挖掘模态的特异信息,最终从多模态图像中提取到丰富的互补特征。该论文提出的方法不仅在行人重识别任务取得优越性能,同时可以为其他多模态问题提供新的解决思路。
肖云老师、李成龙老师和杨蒙蒙同学等的题为“Attribute-based Progressive Fusion Network for RGBT Tracking”的论文,提出了一种新颖的渐进式融合方法,为解决复杂多模态数据下的视觉跟踪提供了新思路。复杂多模态数据具有较强的歧义性、不确定性和不一致性等,为有效信息抽取和充分融合带来了极大挑战。为此,该论文设计了一种包含属性感知融合、多属性聚集融合和模态增强融合的渐进式融合方法,实现复杂多模态数据的有效信息抽取和充分融合,显著改善了多模态目标跟踪性能,同时为解决复杂多模态数据融合问题提供了新视角。