当前位置:首页 > 我爱科技 > 科技前沿 > 正文

比出“剪刀手”就能自动拍照,手指“比心”就能导航回家

长安汽车智能人机交互“黑科技”怎么实现的

发布日期:2021-08-11 10:07 来源:重庆日报

8月9日,长安汽车智能化研究院,一位工作人员正在演示汽车手势操控拍照功能。记者 白麟 摄/视觉重庆

“这辆车,太神奇了!”

8月9日,在长安汽车智能化研究院座舱体验设计室,前来参观的市民代表徐侃,坐在一辆长安UNI-K智能车型样车里,对着车内摄像头比出一个“剪刀手”,汽车就自动给他拍了一张照片。

更让徐侃没想到的是,他只需要用眼睛注视中控屏幕一秒钟,就可以点亮中控屏幕;只是用手在空中划两下,就能操作中控系统……

这些强大的智能人机交互“黑科技”,是怎么实现的?

视线追踪

“看”懂驾驶者状态和需求

“注视点亮中控屏幕,是应用了视线追踪技术。”长安汽车智能化研究院座舱体验设计室主管刘于告诉记者。

具体来说,就是车内的摄像头会检测驾驶者视线偏移的位置,并划分出多个视线区域,当判定视线偏移到中控区的时候,就会自动响应,点亮休眠的中控屏。这项功能,可为夜间行驶等场景下的用户提供便利。

这项视线追踪技术还和车内的面部识别技术整合在一起,用于疲劳驾驶检测。

记者注意到,样车的方向盘旁有一个凸起的装置。据介绍,这是一个红外线摄像头。它可以持续捕捉驾驶者的面部特征、眼部信号、头部动作,并根据一系列算法,推断驾驶者的疲劳状态,并进行报警提示。

手势和动作识别,是长安汽车智能化人机交互系统的一大特色。车内摄像头获得用户手势的形状特征或运动轨迹后,经过分析,再与系统中的手势模板进行比对,就能够确定用户发出的手势命令,作出响应。

体验中,徐侃对着中控屏幕位置向右一挥手,就实现汽车音响播放“下一首歌”;手指“比心”,就可以实现地图导航回家。

听声辨位

精准满足乘客需求

除了能“看”懂人们的动作,长安UNI-K智能车型样车还能“听声辨位”。

例如,在右后座的乘客发出“开窗”的指令,座舱会自动判断发出声音的位置,正确打开右后窗。

这是怎么做到的?

原来,车内的麦克风拥有声源定位功能,可以判断出座舱中的声音来源方向,当捕捉到声音是右后座的乘客发出时,就会对语音信息进行分析,并与语音命令库中的模板进行比对,确认该乘客的命令,然后由车机控制相应的车窗自动开启。

车内的每一个扬声器,也都有精细化的智能控制。例如,当汽车雷达感应到左后方的人、车距离过近时,会将相应的信息传回车机系统,车机系统会发出单独的命令给左后的扬声器,精确提示可能存在危险的方向。

AR导航

地图指示与现实场景一模一样

徐侃最喜欢的,是仪表台AR导航系统。

“我开车很怕分心,通常都不敢偏头去看中控屏幕上的导航,而且导航里的简化地图,慌忙中经常会看错。”徐侃说,但这辆车不同,仪表台的屏幕直接就变成了导航屏幕,而且导航地图还跟现实中的场景一模一样。

据介绍,AR导航系统的强大之处,是将视觉识别、融合定位以及地图导航技术进行了智能融合。摄像头捕捉汽车前方的真实场景,仪表盘从车载雷达等获取实时数据资料,再结合汽车的动态数据、GPS定位信息,从而创建出以驾驶者为主视角的车外影像。

此外,AR导航系统还可以为驾驶人提供实时的行车安全辅助,如车道偏离预警、前车碰撞预警等,提高驾驶安全系数。

刘于透露,目前长安正在开发基于AI和高清视觉的环境感知和预判功能,并配套开发汽车与外界的声、光互动形式,将进一步提升车辆自身及周边的交通环境安全。

此外,长安未来还将推出更加精准的车道级导航功能,并结合“第三空间”理念,整合优化各种智能功能,为用户打造一些专属的智能模式,例如工作模式、影院模式、休息模式等,让汽车真正成为用户的有“生命”、有人情味的伙伴。

(记者 白麟)

(稿件原载于2021年08月11日《重庆日报》)