在Linux下使用Pytorch运行yolov3训练自己的数据集初体验
在Linux下使用Pytorch运行yolov3训练自己的数据
1.说明
最近我本人一直在学习深度学习方面的内容,尝试了tensorflow下使用yolov3也尝试了Pytorch下使用yolov3,今天在这里就分享一下我完成Pytorch下使用yolov3训练自己数据集的过程,希望可以帮助到其他正在学习的人。
首先要在这里由衷的感谢那些让我吸取了经验的帖子,csdn文章的作者。那么接下来就详细的写一下我自己训练的过程。
2.环境
1.centos操作系统
2.Pytorch1.2
3.anaconda
4.英伟达Tesla p4显卡 8g
刚开始配环境是一个特别困难的事,在这里分享一篇我觉得受益匪浅的文章:感谢大佬W_Tortoise安装Pytorch的经验
再分享一些需要提前安装好的包
pip install opencv-python
pip install tqdm
pip install matplotlib
pip install pycocotools
3.制作数据集
1. 制作数据集第一步是大家要获取到自己所需的照片,这个就不用我多说了,如果自己没有照片,可以去voc的官网下载为大家准备好的数据集。voc数据集下载
2. 有了照片之后,咱们就需要用labelImge标注工具对图片进行标注,可以直接去github上搜索labelImage,然后下载的文件包括data文件夹和可执行的exe文件,可以直接运行。
3. 使用labelImge标记后,jpg文件会变成xml文件,这里我们就要按照voc数据集的格式进行文件设置。
4. 先要从github上clone下来yolov3的文件夹,方便后续操作,clone下来后,我们先将data文件夹移至yolov3文件夹下。
5. 将数据集Annotations、JPEGImages复制到YOLOV3工程目录下的data文件下;同时新建两个文件夹,分别命名为ImageSets和labels,最后我们将JPEGImages文件夹复制粘贴一下,并将文件夹重命名为images
6. 之后将convert_to_txt.py脚本文件放在Annotations同级目录下,运行这个脚本文件生成ImageSets下的四个txt文件,分别是train.txt,val.txt,test.txt,trainval.txt文件。
import os
import random
trainval_percent = 0.1
train_percent = 0.9
xmlfilepath = 'Annotations'
txtsavepath = 'ImageSets\Main'
total_xml = os.listdir(xmlfilepath)
num = len(total_xml)
list = range(num)
tv = int(num * trainval_percent)
tr = int(tv * train_percent)
trainval = random.sample(list, tv)
train = random.sample(trainval, tr)
ftrainval = open('ImageSets/Main/trainval.txt', 'w')
ftest = open('ImageSets/Main/test.txt', 'w')
ftrain = open('ImageSets/Main/train.txt', 'w')
fval = open('ImageSets/Main/val.txt', 'w')
for i in list:
name = total_xml[i][:-4] + '\n'
if i in trainval:
ftrainval.write(name)
if i in train:
ftest.write(name)
else:
fval.write(name)
else:
ftrain.write(name)
ftrainval.close()
ftrain.close()
fval.close()
ftest.close()
7. 之后是将voc_label.py放在data的同级目录下,运行生成labels文件夹下的文件。
8. voc数据集制作还有一些细节,需要大家去专门查看关于voc数据集制作的博客
import xml.etree.ElementTree as ET
import pickle
import os
from os import listdir, getcwd
from os.path import join
sets = ['train', 'test','val']
classes = ["RBC"]
def convert(size, box):
dw = 1. / size[0]
dh = 1. / size[1]
x = (box[0] + box[1]) / 2.0
y = (box[2] + box[3]) / 2.0
w = box[1] - box[0]
h = box[3] - box[2]
x = x * dw
w = w * dw
y = y * dh
h = h * dh
return (x, y, w, h)
def convert_annotation(image_id):
in_file = open('data/Annotations/%s.xml' % (image_id))
out_file = open('data/labels/%s.txt' % (image_id), 'w')
tree = ET.parse(in_file)
root = tree.getroot()
size = root.find('size')
w = int(size.find('width').text)
h = int(size.find('height').text)
for obj in root.iter('object'):
difficult = obj.find('difficult').text
cls = obj.find('name').text
if cls not in classes or int(difficult) == 1:
continue
cls_id = classes.index(cls)
xmlbox = obj.find('bndbox')
b = (float(xmlbox.find('xmin').text), float(xmlbox.find('xmax').text), float(xmlbox.find('ymin').text),
float(xmlbox.find('ymax').text))
bb = convert((w, h), b)
out_file.write(str(cls_id) + " " + " ".join([str(a) for a in bb]) + '\n')
wd = getcwd()
print(wd)
for image_set in sets:
if not os.path.exists('data/labels/'):
os.makedirs('data/labels/')
image_ids = open('data/ImageSets/%s.txt' % (image_set)).read().strip().split()
list_file = open('data/%s.txt' % (image_set), 'w')
for image_id in image_ids:
list_file.write('data/images/%s.jpg\n' % (image_id))
convert_annotation(image_id)
list_file.close()
4.接下来需要调整yolo中的几个配置文件
在data文件下新建car.data,配置内容如下:
classes=1#classes是训练的类别的个数,可以多个
train=data/train.txt
valid=data/test.txt
names=data/car.names
backup=backup/
eval=coco
再在data文件下新建car.names,配置内容如下:
car
5.修改yolo-tiny.cfg文件
[net]
batch=1
subdivisions=1
width=416
height=416
channels=3
momentum=0.9
decay=0.0005
angle=0
saturation = 1.5
exposure = 1.5
hue=.1
learning_rate=0.001
burn_in=1000
max_batches = 500200
policy=steps
steps=400000,450000
scales=.1,.1
[convolutional]
batch_normalize=1
filters=16
size=3
stride=1
pad=1
activation=leaky
[maxpool]
size=2
stride=2
[convolutional]
batch_normalize=1
filters=32
size=3
stride=1
pad=1
activation=leaky
[maxpool]
size=2
stride=2
[convolutional]
batch_normalize=1
filters=64
size=3
stride=1
pad=1
activation=leaky
[maxpool]
size=2
stride=2
[convolutional]
batch_normalize=1
filters=128
size=3
stride=1
pad=1
activation=leaky
[maxpool]
size=2
stride=2
[convolutional]
batch_normalize=1
filters=256
size=3
stride=1
pad=1
activation=leaky
[maxpool]
size=2
stride=2
[convolutional]
batch_normalize=1
filters=512
size=3
stride=1
pad=1
activation=leaky
[maxpool]
size=2
stride=1
[convolutional]
batch_normalize=1
filters=1024
size=3
stride=1
pad=1
activation=leaky
[convolutional]
batch_normalize=1
filters=256
size=1
stride=1
pad=1
activation=leaky
[convolutional]
batch_normalize=1
filters=512
size=3
stride=1
pad=1
activation=leaky
[convolutional]
size=1
stride=1
pad=1
filters=18
activation=linear
[yolo]
mask = 3,4,5
anchors = 10,14, 23,27, 37,58, 81,82, 135,169, 344,319
classes=1
num=6
jitter=.3
ignore_thresh = .7
truth_thresh = 1
random=1
[route]
layers = -4
[convolutional]
batch_normalize=1
filters=128
size=1
stride=1
pad=1
activation=leaky
[upsample]
stride=2
[route]
layers = -1, 8
[convolutional]
batch_normalize=1
filters=256
size=3
stride=1
pad=1
activation=leaky
[convolutional]
size=1
stride=1
pad=1
filters=18
activation=linear
[yolo]
mask = 0,1,2
anchors = 10,14, 23,27, 37,58, 81,82, 135,169, 344,319
classes=1
num=6
jitter=.3
ignore_thresh = .7
truth_thresh = 1
random=1
博主就在这里踩了坑,这里千万要注意别的一些博客是有空行的,但是我训练时cfg照着别人的改,有空行和注释是不行的,必须像我这样写。
还有一个要注意的是最后一个[convolutional]里面的filters是根据classes的数量改变的,关系是filters=18 #3(class + 4 + 1)。
6.之后要下载yolov3-tiny.weights权重文件,并且要将train.py文件中的这一行改为yolo-tiny.cfg和yolov3-tiny.weights对应的情况,要不也会出现错误,这个也是一个值得注意的点。
parser.add_argument('--weights', type=str, default='weights/yolov3-tiny.weights', help='initial weights path')
7.下载weights文件后放入yolov3的weights文件夹下,后需要运行一行代码生成yolov3-tiny.conv.15(这里需要在darknet文件夹中生成,比较麻烦所以我为大家提供了下载地址)
./darknet partial cfg/yolov3-tiny.cfg yolov3-tiny.weights yolov3-tiny.conv.15 15
链接:https://pan.baidu.com/s/1DRYENKz3u7z1W9_v7CwgJA
提取码:woa6
复制这段内容后打开百度网盘手机App,操作更方便哦
8.训练
因为我用的Liunx系统没有图形界面,我是在Linux下cmd训练的,在简单说一下步骤,运行你anaconda下的pytorch环境,然后cd到yolov3文件夹,之后运行
python train.py --data data/car.data --cfg cfg/yolov3-tiny.cfg --epochs 10
epochs可以随意改变,别的博客写的是python train.py --data-cfg data/rbc.data --cfg cfg/yolov3-tiny.cfg --epochs 10,但是我在–data后加-cfg会报错,所以去掉。
训练完成后会得到模型
9.预测
这样就到了最后的预测阶段,可以拿到最后的被标注的图片,把我们需要进行预测的图片也就是数据集里的图片放到data中的samples文件夹下,运行
python detect.py --names data/car.name --source data/samples/ --cfg cfg/yolov3-tiny.cfg --weights weights/best.pt
很多博客是这样写的,大家可以尝试。python detect.py --data-cfg data/rbc.data --cfg cfg/yolov3-tiny.cfg --weights weights/best.pt,我在预测的时候这样写会报unrecognized arguments的错误
我这个精度还是比较低,可能是因为epochs次数比较少,大家可以多多尝试。
10.致谢
今天的文章就写到这里,在最后再次感谢多我提供了帮助的人。
这里非常感谢为本次写作提供灵感的文章感谢作者陶陶name
感谢教研室优秀的师姐@ToLiveXX感谢教研室的师兄@floodgone感谢我的同学@weixin_50935759
本文地址:https://blog.csdn.net/weixin_40553780/article/details/110404170
上一篇: Xftp的下载和安装教程(图文教程)
下一篇: IIS 架设FTP服务器图文教程