首页 >> 大全

kitti之ros可视化_学习笔记

2023-09-15 大全 18 作者:考证青年

环境:.04,ros-,,,,rviz

概要:这节课笔记,新增展示的是,介绍的是下载绘制2号相机所需要的资料,并使用资料,先给图片中一个货车绘制一个浅蓝色的2d侦测框,最后统一给每张图片根据物体类型不同绘制不同颜色2d侦测框。

资料准备及预处理可参考博客,

0、资料下载和一些注意问题

1)资料简单作用:加载人工加注资料用以提供给机器学习,如自动驾驶的物体侦测训练

1)资料下载:

资料名称: of data set (9 MB)

填写邮箱,系统发送邮件,官方会发送下载链接到你邮箱,这里是个人之前获取下载链接 :

资料保存位置参考:压缩包-解压-放到kitti数据集的同级目录中,如:

就是下载压缩包,解压后的文件夹。

2)这个资料只是包含2号相机,如果前面小伙伴选了其他相机的,注意把相机设置为2号,才能使用这个资料,具体说明可以看链接:

https://github.com/pratikac/kitti/blob/master/readme.tracking.txt

3)使用 工具

安装指令:sudo pip

使用时,终端输入:

在网页中生成一个界面,进入所在包src文件中,按钮新建一个.0文件。

注意,网页使用读取资料时候,终端一定要求保持打开状态。填写路径时,最好采用的pwd指令获取

1、源码及解析

ros教程_零基础学习ios开发系列笔记_

1) 预测试2d侦测框:

以下代码,均直接放到 里面,点击run即可。注意,不同模块,放到不同的栏中。

1-1)单张图片某一个 车子的2d侦测框绘制

import pandas as pd
import numpy as np
#数据单位
COLUMN_NAMES=['frame', 'track_id', 'type', 'truncated', 'occluded', 'alpha', 'bbox_left', 'bbox_top','bbox_right', 'bbox_bottom', 'height', 'width', 'length', 'pos_x', 'pos_y', 'pos_z', 'rot_y']
#读取tracking资料并处理
df=pd.read_csv('/home/ylh/data/kitti/training/label_02/0000.txt',header=None,sep=' ')
df.columns=COLUMN_NAMES#给读取的数据添加单位
df.head()#查找原始数据'Truck','Van','Tram'类型汽车,都更改类型为'Car',得到表1
df.loc[df.type.isin(['Truck','Van','Tram']),'type']='Car'
#对表1,查找'Car','Pedestrian','Cyclist'三种类型物体,得到表2
df=df[df.type.isin(['Car','Pedestrian','Cyclist'])]#表2,对2号资料,注意不是id为2,进行读取所示类型的资料,并以阵列形式展示
#df.loc[2,['bbox_left','bbox_top','bbox_right','bbox_bottom']]
#将阵列显示的数据,保存到box的numpy数组里面
box=np.array(df.loc[2,['bbox_left','bbox_top','bbox_right','bbox_bottom']])import cv2#读取图片
image = cv2.imread('/home/ylh/data/kitti/RawData/2011_09_26/2011_09_26_drive_0005_sync/image_02/data/0000000000.png')#这里展示的给图片中一个货车绘制浅蓝色的框框
#由于像素只有整数,所以需要对box数组元素进行int类型转换;根据坐标值,绘制左上角点
top_left=int(box[0]),int(box[1])
#根据坐标值,绘制右下角的点
bottom_right=int(box[2]),int(box[3])#指定图片,根据左上角点和右下角点绘制框框,(255,255,0)表示框框的颜色,2表示框线的宽度
cv2.rectangle(image,top_left,bottom_right,(255,255,0),2)
cv2.imshow('image',image)#显示图片
cv2.waitKey(0)#设置图片显示,避免一显示就消失情况
cv2.destroyAllWindows()#最后销毁该图片窗口

效果

1-2)单张图片多个物体的2d侦测框绘制

import pandas as pd
import numpy as np
COLUMN_NAMES=['frame', 'track_id', 'type', 'truncated', 'occluded', 'alpha', 'bbox_left', 'bbox_top','bbox_right', 'bbox_bottom', 'height', 'width', 'length', 'pos_x', 'pos_y', 'pos_z', 'rot_y']
df=pd.read_csv('/home/ylh/data/kitti/training/label_02/0000.txt',header=None,sep=' ')
df.columns=COLUMN_NAMES
df.head()df.loc[df.type.isin(['Truck','Van','Tram']),'type']='Car'#将这三种车子,统一定义为Car
df=df[df.type.isin(['Car','Pedestrian','Cyclist'])]#只是获取数据集中类型为指定的数据,注意car为重定义类型#box=np.array(df.loc[2,['bbox_left','bbox_top','bbox_right','bbox_bottom']])#把2号资料四个边坐标保存到numpy阵列里面import cv2image = cv2.imread('/home/ylh/data/kitti/RawData/2011_09_26/2011_09_26_drive_0005_sync/image_02/data/0000000000.png')#读取图片boxes = np.array(df[df.frame==0][['bbox_left','bbox_top','bbox_right','bbox_bottom']])#获取第0帧图片中的box们对应的四边坐标for box in boxes:#给每个box绘制图线top_left=int(box[0]),int(box[1])#box的左上角点,像素为整数,所以需要转换int类型bottom_right=int(box[2]),int(box[3])#box的右下角点cv2.rectangle(image,top_left,bottom_right,(255,255,0),2)#绘制框框,依次指定图片、左上角点、右下角点、颜色、线粗细cv2.imshow('image',image)#显示框框
cv2.waitKey(0)#避免框框一显示就消失,也就是一直显示
cv2.destroyAllWindows()#结束就销毁所有窗口

效果:

1-3) 单张图片多个物体的2d侦测框根据类型而异颜色框框绘制

DETECTION_COLOR_DICT = {'Car':(255,255,0),'Pedestrian':(0,226,255),'Cyclist':(141,40,255)}#颜色字典
import pandas as pd
import numpy as np
COLUMN_NAMES=['frame', 'track_id', 'type', 'truncated', 'occluded', 'alpha', 'bbox_left', 'bbox_top','bbox_right', 'bbox_bottom', 'height', 'width', 'length', 'pos_x', 'pos_y', 'pos_z', 'rot_y']
df=pd.read_csv('/home/ylh/data/kitti/training/label_02/0000.txt',header=None,sep=' ')
df.columns=COLUMN_NAMES
df.head()df.loc[df.type.isin(['Truck','Van','Tram']),'type']='Car'#将这三种车子,统一定义为Car
df=df[df.type.isin(['Car','Pedestrian','Cyclist'])]#只是获取数据集中类型为指定的数据,注意car为重定义类型#box=np.array(df.loc[2,['bbox_left','bbox_top','bbox_right','bbox_bottom']])#把2号资料四个边坐标保存到numpy阵列里面import cv2image = cv2.imread('/home/ylh/data/kitti/RawData/2011_09_26/2011_09_26_drive_0005_sync/image_02/data/0000000000.png')#读取图片boxes = np.array(df[df.frame==0][['bbox_left','bbox_top','bbox_right','bbox_bottom']])#获取第0帧图片中的box们对应的四边坐标
types=np.array(df[df.frame==0]['type'])#读取图片中的种类类型并保存到tpyes数组中#zip(types,boxes)[0]#两个数组的第一笔资料合并在一起
#for box in boxes:#给每个box绘制图线for typ,box in zip(types,boxes):#给对应类型每个box绘制对应颜色图线top_left=int(box[0]),int(box[1])#box的左上角点,像素为整数,所以需要转换int类型bottom_right=int(box[2]),int(box[3])#box的右下角点cv2.rectangle(image,top_left,bottom_right,DETECTION_COLOR_DICT[typ],2)#绘制框框,依次指定图片、左上角点、右下角点、根据类型不同给的颜色(bgr)、线粗细cv2.imshow('image',image)#显示框框
cv2.waitKey(0)#避免框框一显示就消失,也就是一直显示
cv2.destroyAllWindows()#结束就销毁所有窗口

效果:

当然,这里统一读取的是.png图片,如果想看其他图片效果的,可以根据图片资料集,更改路径上图片名称即可,这里不再展示。

2)连续帧图片,多个物体2d侦测框在rviz效果

通过 的预测试,下面将上述的代码移植到下面三个文件中,目的在rviz显示连续帧不同类型不同颜色侦测框显示。

对于读取数据文件,.py:

#!/usr/bin/env python
# -*- coding:utf8 -*-import cv2
import numpy as np
import os
import pandas as pd #用于读取imu资料IMU_COLUMN_NAMES = ['lat','lon','alt','roll','pitch','yaw','vn','ve','vf','vl','vu','ax','ay','az','af','al','au','wx','wy','wz','wf','wl','wu','posacc','velacc','navstat','numsats','posmode','velmode','orimode']#根据kitti数据集中的名称进行定义的,个人理解是对照c里面的宏定义TRACKING_COLUMN_NAMES=['frame', 'track_id', 'type', 'truncated', 'occluded', 'alpha', 'bbox_left', 'bbox_top','bbox_right', 'bbox_bottom', 'height', 'width', 'length', 'pos_x', 'pos_y', 'pos_z', 'rot_y']#tracking数据单位#读取图片路径函数
def read_camera(path):return cv2.imread(path)#读取点云路径函数
def read_point_cloud(path):return np.fromfile(path,dtype=np.float32).reshape(-1,4)#读取imu资料
def read_imu(path):df=pd.read_csv(path,header=None,sep=' ')#读取数据df.columns=IMU_COLUMN_NAMES#给数据赋予单位return df#读取trackiing资料
def read_tracking(path):df=pd.read_csv(path,header=None,sep=' ')#读取tracking资料df.columns=TRACKING_COLUMN_NAMES#给资料数据添加单位df.loc[df.type.isin(['Truck','Van','Tram']),'type']='Car'#将这三种车子,统一定义为Cardf=df[df.type.isin(['Car','Pedestrian','Cyclist'])]#只是获取数据集中类型为指定的数据,注意car为重定义类型return df#返回读取的资料

对于发布函数定义文件,.py:

#!/usr/bin/env python
# -*- coding:utf8 -*-import rospy
from std_msgs.msg import Header
from visualization_msgs.msg import Marker,MarkerArray#Marker绘制相机视野指示线模块,MarkerArray解决Marker带来发布的不同步问题
from sensor_msgs.msg import Image,PointCloud2,Imu,NavSatFix
from geometry_msgs.msg import Point#Point来自ros包定义,所以需要定义;若不清楚,则需要到ros官网上面查看具体那个包
import sensor_msgs.point_cloud2 as pcl2
from cv_bridge import CvBridge
import numpy as np
import tf
import cv2FRAME_ID='map'
DETECTION_COLOR_DICT = {'Car':(255,255,0),'Pedestrian':(0,226,255),'Cyclist':(141,40,255)}#颜色字典#发布图片函数
def publish_camera(cam_pub,bridge,image,boxes,types):#增加参数boxes、types#绘制框框到图片中for typ,box in zip(types,boxes):#给对应类型每个box绘制对应颜色图线top_left=int(box[0]),int(box[1])#box的左上角点,像素为整数,所以需要转换int类型bottom_right=int(box[2]),int(box[3])#box的右下角点#绘制框框,依次指定图片、左上角点、右下角点、根据类型不同给的颜色(bgr)、线粗细cv2.rectangle(image,top_left,bottom_right,DETECTION_COLOR_DICT[typ],2)cam_pub.publish(bridge.cv2_to_imgmsg(image,"bgr8"))#发布点云函数
def publish_point_cloud(pcl_pub,point_clond):header=Header()header.stamp=rospy.Time.now()header.frame_id=FRAME_IDpcl_pub.publish(pcl2.create_cloud_xyz32(header,point_clond[:,:3]))#发布相机视野以及车子模型marker函数
def publish_ego_car(ego_car_pub):
#publish left and right 45 degree FOV lines and ego car model meshmarker_array=MarkerArray()#解决marker发布不同步问题marker=Marker()marker.header.frame_id=FRAME_IDmarker.header.stamp=rospy.Time.now()marker.id=0#每个marker只能有一个id,有重复的id,只会显示一个marker.action=Marker.ADD#表示添加markermarker.lifetime=rospy.Duration()#lifetime表示marker在画面中显示的时长;Duration()函数,不给任何参数时,表示一直存在marker.type=Marker.LINE_STRIP#所发布marker的类型#设定指示线颜色marker.color.r=0.0marker.color.g=1.0marker.color.b=0.0marker.color.a=1.0#透明度,1表示完全不透明marker.scale.x=0.2#大小,这里表示线的粗细#根据激光点云的坐标系来定义2号相机的视野范围marker.points=[]marker.points.append(Point(10,-10,0))#Point,属于ros的资料包里面的定义,所以需要导入marker.points.append(Point(0,0,0))marker.points.append(Point(10,10,0))marker_array.markers.append(marker)#将指示线marker放到MarkerArray中#发布车子外形函数mesh_marker=Marker()mesh_marker.header.frame_id=FRAME_IDmesh_marker.header.stamp=rospy.Time.now()mesh_marker.id=-1#id只能设置整数,不能设置带有小数的mesh_marker.lifetime=rospy.Duration()mesh_marker.type=Marker.MESH_RESOURCE#这里的MESH_RESOURCE表示导入的是3d模型mesh_marker.mesh_resource="package://kitti_tutorial/Audi R8/Models/Audi R8.dae"#下载的dae模型存在问题,只是显示部分#设定模型位置mesh_marker.pose.position.x=0.0mesh_marker.pose.position.y=0.0mesh_marker.pose.position.z=-1.73#这里负数,是因为以激光雷达坐标系而定义的,1.73是根据官方发布的位置定义所取的#设计车子模型的旋转量q=tf.transformations.quaternion_from_euler(0,0,np.pi/2)#(np.pi/2,0,np.pi)这里根据下载的车子模型进行调整mesh_marker.pose.orientation.x=q[0]mesh_marker.pose.orientation.y=q[1]mesh_marker.pose.orientation.z=q[2]mesh_marker.pose.orientation.w=q[3]#设置车子模型的颜色mesh_marker.color.r=1.0mesh_marker.color.g=1.0mesh_marker.color.b=1.0mesh_marker.color.a=1.0#设置车子模型的大小mesh_marker.scale.x=0.6mesh_marker.scale.y=0.6mesh_marker.scale.z=0.6marker_array.markers.append(mesh_marker)#将车子marker放到MarkerArray中ego_car_pub.publish(marker_array)#发布imu资料函数
def publish_imu(imu_pub,imu_data):imu=Imu()#ros,imu 进行google可以查看文档说明imu.header.frame_id=FRAME_IDimu.header.stamp=rospy.Time.now()#旋转角度、加速度,角速度q=tf.transformations.quaternion_from_euler(float(imu_data.roll),float(imu_data.pitch),float(imu_data.yaw))#(np.pi/2,0,np.pi)这里根据下载的车子模型进行调整imu.orientation.x=q[0]#以下四个表示旋转角,将读取的数据转为四元数表示imu.orientation.y=q[1]imu.orientation.z=q[2]imu.orientation.w=q[3]imu.linear_acceleration.x=imu_data.af#根据雷达坐标系,确定x方向线性加速度imu.linear_acceleration.y=imu_data.al#根据雷达坐标系,确定y方向线性加速度imu.linear_acceleration.z=imu_data.au#根据雷达坐标系,确定z方向线性加速度imu.angular_velocity.x=imu_data.wf#这三个表示不同方向的角速度imu.angular_velocity.y=imu_data.wlimu.angular_velocity.z=imu_data.wuimu_pub.publish(imu)#发布gps资料函数
def publish_gps(gps_pub,imu_data):gps=NavSatFix()#ros里面对于gps资料识别包gps.header.frame_id=FRAME_IDgps.header.stamp=rospy.Time.now()gps.latitude=imu_data.lat#纬度gps.longitude=imu_data.lon#经度gps.altitude=imu_data.alt#海拔gps_pub.publish(gps)

对于执行文件,.py:

#!/usr/bin/env python
# -*- coding:utf8 -*-from data_utils import *
from publish_utils import *DATA_PATH='/home/ylh/data/kitti/RawData/2011_09_26/2011_09_26_drive_0005_sync'if __name__=='__main__':frame = 0rospy.init_node('kitti_node',anonymous=True)cam_pub=rospy.Publisher('kitti_cam',Image,queue_size=10)#建立发布图片topicpcl_pub=rospy.Publisher('kitti_point_cloud',PointCloud2,queue_size=10)#建立发布点云topic#ego_pub=rospy.Publisher('kitti_ego_car',Marker,queue_size=10)#建立发布指示线marker的topicego_pub=rospy.Publisher('kitti_ego_car',MarkerArray,queue_size=10)#MarkerArray方式发布#model_pub=rospy.Publisher('kitti_car_model',Marker,queue_size=10)#建立发布车子模型的marker的topicimu_pub=rospy.Publisher('kitti_imu',Imu,queue_size=10)#建立发布imu资料的topicgps_pub=rospy.Publisher('kitti_gps',NavSatFix,queue_size=10)#建立发布gps资料的topic,NavSatFix,ros里面固定卫星侦测bridge=CvBridge()rate=rospy.Rate(10)#读取tracking资料df_tracking=read_tracking('/home/ylh/data/kitti/training/label_02/0000.txt')while not rospy.is_shutdown():#将tracking资料的绘制框框所需资料筛选并处理boxes = np.array(df_tracking[df_tracking.frame==frame][['bbox_left','bbox_top','bbox_right','bbox_bottom']])#获取tracking资料第frame帧图片中的box们对应的四边坐标types=np.array(df_tracking[df_tracking.frame==frame]['type'])#读取tracking资料第frame帧图片中的物体种类类型并保存到tpyes数组中#读取图片image=read_camera(os.path.join(DATA_PATH,'image_02/data/0d.png'%frame))#发布图片#publish_camera(cam_pub,bridge,image)publish_camera(cam_pub,bridge,image,boxes,types)#增加参数boxes,types,为了给图片指定类型绘制框框     #读取点云point_clond=read_point_cloud(os.path.join(DATA_PATH,'velodyne_points/data/0d.bin'%frame))#发布点云publish_point_cloud(pcl_pub,point_clond)#发布指示线marker;由于不需要读取资料,所以直接发布即可#当采用markerarray发布方式,则车子和指示线都放在这个topic#进行发布即可。故下面的发布车子模型marker可以删除。这样子,可以解决不同marker发布不同步问题publish_ego_car(ego_pub)#发布车子模型marker;由于不需要读取资料,所以直接发布即可#publish_car_model(model_pub)#读取imu资料,这里也包含了gps资料了imu_data=read_imu(os.path.join(DATA_PATH,'oxts/data/0d.txt'%frame))#发布imu资料publish_imu(imu_pub,imu_data)#发布gps资料publish_gps(gps_pub,imu_data)#发布rospy.loginfo("published")rate.sleep()frame+=1frame%=154

2、效果展示

包创建、源文件保存位置,运行编译,rviz添加新topic,这里不再罗嗦了,有不了解的,可以参考这系列之前博客内容。

那么,启动rviz,可以发现,播放视频里面,有了连续的2d侦测框框,而且,根据物体类型不同,框框显示不同颜色。具体效果如图中左下方。

3、一些想法

1)文件编写时候,一定要注意文件路径的编写正确性,个人建议终端使用pwd指令获取最有保障。

2)在读取资料时候,发现只是读取文件夹里面的0000.txt,个人感觉这是因为这一个文件已经包含绘制框框所需要的全部信息了,觉得后面有时间可以查一下或者测试一下。

至此,kitti数据集中图片资料,根据不同类型绘制不同颜色侦测框,发布到ros中,在rviz显示任务完成~

#####################

学习课程来源up主,AI葵:

致谢AI葵老师

不积硅步,无以至千里

好记性不如烂笔头

感觉有点收获的话,麻烦大大们点赞收藏哈

关于我们

最火推荐

小编推荐

联系我们


版权声明:本站内容由互联网用户自发贡献,该文观点仅代表作者本人。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如发现本站有涉嫌抄袭侵权/违法违规的内容, 请发送邮件至 88@qq.com 举报,一经查实,本站将立刻删除。备案号:桂ICP备2021009421号
Powered By Z-BlogPHP.
复制成功
微信号:
我知道了