KITTI数据集介绍
硬件设施
由德国卡尔斯鲁厄理工学院和丰田美国技术研究院联合创办。
汽车:Volkswagen Passat B6,已对踏板(加速和制动)和方向盘的执行器进行了改装。
使用配备RAID系统,运行Ubuntu Linux和实时数据库的八核i7计算机记录数据。我们使用以下传感器:
1惯性导航系统(GPS / IMU):OXTS RT 3003
1台激光扫描仪:Velodyne HDL-64E
2台1.4百万像素的灰度相机:Point Grey Flea 2(FL2-14S3M-C)
2台彩色摄像头,1.4百万像素:Point Grey Flea 2(FL2-14S3C-C)
4个变焦镜头,4-8毫米:Edmund Optics NT59-917
激光扫描仪以每秒10帧的速度旋转,每个周期捕获大约100k点。激光扫描仪的垂直分辨率为64。
摄像头安装在与地面大致水平的位置。使用libdc的格式7模式将相机图像裁剪为1382 x 512像素的大小。校正后,图像会变小。
激光扫描仪(面向前方)以每秒10帧的速度触发摄像机,并动态调整快门时间(最大快门时间:2 ms)。
激光雷达扫描频率为10帧/s,相机基本上和地平面保持水平。
相机的采集频率也保持在10HZ,并且在激光雷达朝向正前方时释放快门。
图像采集尺寸被裁减为1382x512像素,在经过校正后,图像可能会进一步变小。
传感器的坐标系定义
(上下左右以驾驶员为基准)
下图说明了我们针对车辆的传感器设置。请注意,有关校准参数的更多信息在校准文件和开发套件中提供(请参阅原始数据部分)。
相机:x轴——向右,y轴——向下,z轴——向前;
激光雷达:x轴——向前,y轴——向左,z轴——向上;
组合导航:同激光雷达。
注: 此处坐标系的定义对后续数据的可视化和分析,以及标定矩阵的理解和使用至关重要,需要熟悉。
根据用途划分
stereo、flow、sceneflow、depth、odometry、object、tracking、road、semantics和raw data
不同部分的数据包含不同的人为标注的真值数据,但其实针对不同用途的数据也基本上是从raw data数据中分离出来的。
介绍一下object和tracking数据的组织方式。
1、object数据集
主要用于验证无人驾驶中有关目标检测算法而设置的数据集,该数据集包含“2D Object Detection”、“3D Object Detection”和“Bird’s Eye View”三部分数据,分别用于验证2D图像检测框、3D图像或者激光雷达包围盒和鸟瞰图检测算法的优劣。
该部分数据可以针对你所开发检测算法的具体需求,选择下载图像或者雷达等数据,每个数据下载解压之后都包含training和testing两个文件夹,分别用于检测算法中作为训练数据和测试数据,其中训练数据包含有标注文件。
需要注意的是对于object数据集,其数据并不是严格连续采集的数据,即都是单帧结果,只用于检测算法使用。
2、tracking数据集
主要用于验证无人驾驶中有关目标跟踪算法而设置的数据集,其数据组织方式与object数据集类似,最大的区别在于tracking数据集每个数据序列是连续的。
上一篇: Tomcat 虚拟主机设置