面向极端复杂场景的鲁棒视觉融合方法

报告题目:面向极端复杂场景的鲁棒视觉融合方法

报告人:李辉博士 江南大学讲师

报告时间:20255115:00-16:00

报告地点:秀山校区艺设楼214会议室

报告对象:999策略手机论坛版及相关学院师生

主办单位:999策略手机论坛版

报告内容:视觉融合方法在自动驾驶、安防监控以及智慧医疗等领域有着至关重要的作用,同时融合技术的引入也大大提升了通用视觉模型对部分复杂环境的泛化性和鲁棒性。然而,真实场景中的视觉数据往往伴随着各种各样的数据退化问题(如极端光照场景,极端天气场景,以及传感器引入的噪声干扰等),导致融合模型性能极度下降,同时视觉融合模型对输入数据的场景配准要求也大大限制了融合模型的进一步应用。针对以上两点问题,本报告将探讨两种鲁棒视觉融合方案,从理论上解决融合模型对极端复杂场景的低泛化性,以及融合模型对非配准输入的弱鲁棒性。

报告人简介:李辉,2022年毕业于江南大学,获工学博士学位。现为江南大学人工智能与计算机学院讲师,科技部中英人工智能联合实验室、教育部/江苏省人工智能国际合作联合实验室主要成员。主要从事多模态视觉信息融合的基础理论研究工作,目前在IEEE TPAMIIEEE TIPIJCVInformation FusionCVPR等顶级期刊和会议发表论文30余篇,其中ESI高被引论文/热点论文8篇,单篇论文谷歌学术引用超1600次。连续三年(202120222023年)入选斯坦福大学全球前2%科学家榜单。获得2020年视觉目标跟踪竞赛(RGBT赛道)冠军,2021年国际反无人机竞赛季军,“2024年江苏省自然科学百篇学术成果论文奖励。