【目标检测】Labelme的改进——海量图片的自动标注
深度学习一般需要对大量的图片进行标注,但是手动标注耗时耗力,所以模仿labelme软件的功能,使用程序对大批量的图片进行自动标注,大大减少手动操作。下面介绍如何实现对大批量的图片进行标注。
自动标注的程序实现:https://github.com/shuyucool/Labelme.git
程序内容均为原创,如果使用麻烦您点赞呀
一:Labelme的安装参考——https://github.com/wkentaro/labelme.git
1) 打开Anaconda命令行工具
2) conda create --name=labelme python=3.5 #我使用的版本是Python3.5,根据自己的情况修改版本号
3) activate labelme
4) conda install pyyaml
5) pip install labelme
6) labelme
安装中可能会出现这样的错误:from PyQt5 import QtCore
ImportError: DLL load failed: 找不到指定的模块。
Anaconda 安装的Python缺少了python3.dll,可以通过去python.org 下载所需版本的python安装包并安装,然后从安装目录中拷贝python3.dll文件,粘贴到Anaconda安装目录下,也就是python36.dll所在的目录下,一般就是第一层目录,具体要看自己的安装情况。
详细解决方案参照——https://blog.csdn.net/ltime/article/details/71403947
二:了解Labelme生成的json文件的内部数据,批量生成标注图像
{
"imageData": "xxxxxx", # 原图像数据通过b64编码生成的字符串数据,这里不重要,只需要知道是图像数据的另一种存储形式
"shapes": [ # 所有对象的形状,鼠标点击的轮廓坐标点,填充颜色等
{ # 第一个对象
"points": [ # 边缘是由点构成,实际上就是物体的轮廓坐标
[
165.90909090909093, # 第一个点 x 坐标
36.909090909090935 # 第一个点 y 坐标
],
……
[
240.90909090909093,
15.909090909090935
],
[
216.90909090909093, # 最后一个点的x坐标
31.909090909090935 # 最后一个点的y坐标
]
],
"fill_color": null, #填充颜色
"label": "cat_1", # 第一个对象的标签
"line_color": null
},
{ # 第二个对象
"points": [
[
280.90909090909093,
31.909090909090935
],
……
[
362.90909090909093,
20.909090909090935
],
[
339.90909090909093,
32.909090909090935
]
],
"fill_color": null,
"label": "cat_2", # 第二个对象的标签
"line_color": null
}
],
"fillColor": [
255,
0,
0,
128
],
"imagePath": "/home/wu/1.jpg", # 原始图片的路径
"lineColor": [
0,
255,
0,
128
]
}
详细信息可以参考——https://blog.csdn.net/wc781708249/article/details/79595174
参考labelme软件标记后生成的json文件海量图片的自动标注可以分为以下四个步骤:
【1】提取图片中物体轮廓的坐标
【2】将图片编码保存为json格式
【3】将【1】中的坐标数据与【2】的编码后的图片数据“融合”
【4】自动解析生成的json文件,并将16位的label.png转为8位的图片格式
三:提取物体轮廓坐标
图片中物体轮廓的提取需要将原图现转化为二值图,然后找到各个连通域的坐标,将所有图片中不同的连通域对应的坐标保存为mat文件。示意图如下:
轮廓坐标提取程序使用MATLAB编写,为了方便大家阅读,已经精简了程序并加了注释:
load('D:\Zerbrafish Tracking\107-LXP7-6\107-LXP7-6_Z.mat');%加载指定的数据,因为我把二值化后的图像都保存在了mat中
for i = 1:size(Z,2)-3483
Process_data= size(Z(i).imageCroped,2);
if Process_data == 6 %当鱼的数量等于6时,继续执行
I = Z(i).btnimage{1,1};%读入图像 这一步是关键,可以在此程序基础上修改,加载转换成二值化的图片
BW = im2bw(I, graythresh(I));%转换成2进制图像
[B,L] = bwboundaries(BW,'noholes');%寻找边缘,不包括孔
mid_arug = cell(length(B),2);
for k = 1:length(B)
boundary = B{k}; %boundary表示所有的轮廓坐标,为了节省内存,我们取其1/4
x_coordinate = boundary(1:4:end,2);
y_coordinate = boundary(1:4:end,1);
mid_arug{k,1} = {boundary(1:4:end,2)};
mid_arug{k,2} = {boundary(1:4:end,1)};
end
assignin('base',['img_',num2str(i)],mid_arug);
end
end
四:将图片编码后保存为json文件
这是为了最后生成的json文件和Labelme软件生成的json文件相同的必须工作。同时为了批量能够对图像进行处理,编写了一个转换程序。批量转换程序命名为:img2json.py。如果需要请点击传送门。(程序中已加入了详细的中文注释。)
以上面的图片为例转换成json文件后,其部分内容如下:(真正的图片数据很大,为方便演示,只展示部分)
五:坐标数据与图像数据的融合
坐标数据与图像数据的融合,生成可供Labelme解析的json文件。融合程序命名为imitate_json.py。如果需要请点击传送门。(程序中已加入了详细的中文注释。)自动生成的json文件其实在内容上和“二”中介绍的json内部数据相同。
六:json文件的批量解析
如果一个一个的对“五”中生成的json文件解析,需要首先进入Labelme的安装路径,找到Scripts文件夹,进入后运行:
python labelme_json_to_dataset [文件名] #比如 python labelme_json_to_dataset D:\Practice\fusion_json\1.josn
但这样每次只能解析一个文件,为了能够批量解析,我写了一个批量解析的程序,命名为release_json.py。如有需要请点击传送门。(程序中已加入了详细的中文注释。)解析后会在当前json文件路径下生成一个对应的json文件夹。如下图:
以“1_json”文件为例,其中包含了五个文件。如下图:
其中的label.png是uint16格式存储的图像,需要将其转成uint8格式存储的才能让opencv读取。16位的label.png批量转换成8位的程序命名为uint16_to_uint8.py。程序如下:(非常精简)
#!/usr/bin/env python
# _*_ coding: UTF-8 _*_
# author:"Zhang Shuyu"
"""使用skimage模块读取图片,不改变图片数据类型uint16,保存为uint8类型"""
import os
import cv2
import natsort
import numpy as np
from skimage import io
from matplotlib import pylab as plt
input_file = "D:\\Practice\\fusion_json\\" #文件路径
img_type = ".png"
for root, dirs, files in os.walk(input_file,topdown=True):
for name in natsort.natsorted(dirs): #natsort,自然排序
file_name = os.path.join(input_file + name,"label_1" + img_type)
img = io.imread(file_name) #Todo:使用skimage模块读取图片不会改变图片的数据格式
print(img.dtype)
img = img.astype(np.uint8)
print(img.dtype)
cv2.imwrite(os.path.join(input_file + name,"label_1" + img_type),img)
其中的label.png转成8位后看起来还是一片黑色,当其实已经对目标价上了标签。以上图中的label.png为例,转换为8位后再对齐进行图像增强,效果如下:
这样就能快速制作出大量的训练数据集,对于几千张图片的标注大概只需要几分钟就能完成,如果手动标注的话一个人至少需要两天。程序内容均为原创,使用请用麻烦点赞呀