传感器普及,汽车更安全
随着高级驾驶员辅助系统 (ADAS) 等系统的问世,以及面向无人驾驶车辆的发展方向,汽车需要清楚地知道周围环境。驾驶员能够感知我们周围的环境,做出判断,并在不同的情况下迅速做出反应。然而,人无完人。我们会疲惫、分神,也会犯错误。为了提升安全性,汽车制造商正在设计用于小客车的ADAS。汽车依靠多种传感器来了解很多不同情况下的周围环境。然后,这些数据被传送给诸如TI的TDA2x等高精密处理器,用于诸如自动紧急刹车 (AEB),车道偏离报警 (LDW) 和盲点监测等功能。
有几种传感器经常被用于周围环境感知。被动传感器—被用来感测从物体上反射或发射出来的射线。
可视图像传感器—所有在可视光谱内运行的成像仪
红外图像传感器—在可视光谱外运行。可以是近红外或热红外(远红外)。
被动传感器受环境的影响—一天中的不同时刻,天气等。例如,可视传感器受到每天不同时刻的可见光数量的影响。
主动传感器—发射出射线,并测量反射信号的响应。优势是能够随时获得测量结果,不受早中晚或季节的影响。
雷达—发射无线电波,根据从物体上反射回来的无线电波来确定这个物体的距离、方向和速度
超声波—发射超声波,根据从物体上反射回来的超声波来确定这个物体的距离
光达—扫描从一个物体上反射回来的激光来确定物体的距离
飞行时间—一个摄像头,测量一个发射出的红外光束从物体上反弹回来到返回传感器的时间,以确定这个物体的距离
结构光—一个已知光图案被投射到一个物体上,通常由TI的数字光处理 (DLP) 设备投射。这个图案的变形情况被摄像头所捕捉,并进行分析,以确定物体的距离。
为了提高多种不同情况下的准确度、可靠性和耐用性,至少需要用一种以上的传感器来观察同一场景。所有传感器技术都有其固有的限制因素和优势。不同的传感器技术可以被组合在一起,将来自同一场景下的不同传感器的数据融合在一起,从而提供一个更加稳定耐用的解决方案,“数据融合消除了数据混淆”。其中一个示例就是可见光传感器和雷达的组合。
可见光传感器的优势包括高分辨率、识别物体和对其分类的能力、以及提供重要信息情况的功能。然而,它们的性能受到可获得的光量以及天气(诸如下雾、雨雪)的影响。其它诸如过热等因素会导致图像的质量因噪声的影响而下降。TI处理器上提供的精密图像处理可以缓解其中的某些影响。
另一方面,雷达能够穿过雨雪,并且可以非常迅速和有效地测量距离。多普勒雷达具有额外优势,能够检测物体的运动。然而,雷达分辨率较低,并且不能轻易地识别物体。可见光数据和雷达数据的融合提供了一种在多种不同情况下更加稳健耐用的解决方案。
此外,不同传感器之间的成本有所差异,这也会影响到针对特定应用的最佳选择。例如,激光雷达 (LIDAR) 提供非常精确的距离测量功能,但是比被动图像传感器贵很多。随着不断的开发,成本将会持续降低,而汽车最终将在多种传感器的帮助下做到眼观六路、耳听八方。
TDA处理器系列高度集成,并在可编程平台上开发而成,这个平台满足了配备有ADAS的汽车的高强度处理需要。来自观察此场景的不同传感器的数据可被提供给TDA2x,并且组合成更加完整的照片,以便为迅速且智能的决策提供支持。例如,一个视觉传感器在较暗的情景下会将一个信箱显示为类似于人的形状。TI处理器可以执行精密行人检测,根据物体的比例,此功能可将其识别为路边可能的行人。然而,来自热传感器的数据将会识别出此物体的温度过低,不太可能是有生命的物体,所以可能不是行人。因此,工作特性不同的传感器可提供更高的安全级别。
最终目标是创造出一款完全自主的汽车,而这些无人驾驶的车辆将最终实现一个没有交通伤亡事故的世界。