【IFAL访谈录】上海交通大学-胡川副教授2025年6月25至27日,第十三届中国国际汽车照明论坛(The 13th International Forum of Automotive Lighting, China (IFAL 2025))在上海嘉定颖奕皇冠假日酒店隆重召开。本届论坛由复旦大学智能机器人与先进制造创新学院电光源研究所、中国照明学会智能交通照明专业委员会、上海机动车检测认证技术研究中心有限公司、复旦临港产业化创新平台、上海复诺视觉智能科技有限公司联合主办,中国创造学会人因工程与产业创新专业委员会协办,并得到了教育部国际合作与交流司及复旦大学的指导支持。
本次特邀 上海交通大学机械与动力工程学院胡川副教授接受采访
访谈人员对胡川副教授的与会表达了欢迎,并准备了相关问题进行采访。 记者: 您刚刚的演讲中提到了多模态感知数据,那您的团队是如何处理不同维度的多模态感知数据呢? 胡川: 我们团队放弃了昂贵且侵入性强的皮电、脑电等生理传感器,转而采用两类“轻量化”设备:①佩戴式眼动仪,实时记录瞳孔直径、注视点、眨眼频率、眼睑开合和眼球运动轨迹;②车内多角度摄像头,捕捉手势、身体姿态、头部与面部朝向、脚部动作等图像特征。数据流入后先经过深度学习模型对疲劳、分心、情绪三大中介状态进行逐帧识别:例如检测连续打哈欠与眨眼加速来判定疲劳;眼动、头向偏离路面来判定分心;表情肌动作来推断情绪。随后把这些中介变量与接管耗时、驾驶员主观评分等指标融合,输入预测网络输出接管准备时间、接管质量等级和风险水平,实现线上评估与持续校正。该流程既避免了直接用高维原始图像/眼动数据做“粗暴”分类,也兼顾了实时性与可落地性。 记者: 感谢您的精彩回答,那您觉得车内数据能否与车外信息融合以优化整体驾驶行为? 胡川: 驾驶员生理与行为状态涉及个人隐私,不可能在V2V 通信层面公开共享,因此“车外→车内”信息路径主要依赖车辆外部感知(摄像头、毫米波雷达、激光雷达等)与智慧路侧单元。单车通过目标车型识别、速度/加速度反演和历史轨迹挖掘,可用深度学习对其他车辆或行人的行驶风格与短期意图(如闯黄灯、横穿马路)进行概率预测;同时,智慧路口部署的摄像头与 3D雷达能弥补车载传感器在转弯遮挡等场景的盲区,并通过车路协同将风险信息广播给所有接近路口的车辆。如此一来可在不泄露车内隐私的前提下,实现“本车内状态本地化处理 + 车外公共信息共享”的分层融合架构,显著提升交互安全性与预见性。 记者: 今天参加完会议后,您有什么感受或者建议嘛? 胡川: 本次参会帮助我拓宽了光照研究与自动驾驶安全交叉的视野,希望将来可增设自动驾驶与智能座舱专场,邀请底盘控制、环境感知、红外/激光成像及夜视系统研究者参会,以探讨光照条件对摄像头感知可靠性、红外成像对隧道与夜间障碍物探测的补偿作用,以及光环境对乘员舒适度的综合影响,同时还可以组织现场演示或案例研讨,如夜间摄像头失效导致的事故重现与光照改进方案比较,从实战角度凸显光照设计在自动驾驶安全闭环中的价值,借此吸引更广泛的行业关注并扩大会议影响力。 记者: 感谢您专业热情的回答,谢谢本次会议的支持,期待明年再次与您相见!谢谢!
|