从零开始机器学习-3 教会你的AI识别特定的物体(上)

本文由 沈庆阳 所有,转载请与作者取得联系!
在上一节中,我们成功地运行了TensorFlow的Object Detection API,并且可以使用该程序识别日常生活中一些常见的物体。那么对于没有预置在程序中的物体模型,则需要通过特定的训练来使你的AI程序识别该物体。

关于COCO:
COCO又称MS COCO,全称为:Common Objects in Context,即对日常生活中的常见物体进行语境标注的数据集。
官方网址:http://cocodataset.org/#home

TensorFlow的Object Detection API提供了一些预先训练好的模型。模型的识别精准度和识别速度往往不可兼得,如果想要达到更高的识别精准度则需要花更长的时间进行训练,我们往往需要在精准度和速度之间做取舍。
训练特定的目标模型需要我们收集关于该物体(也称目标)的足够多的图片(通常在500~1000上下)。在我们收集完足够多的图片之后,再一张张框出图片中识别的目标,标上标签,并分为训练(Train)和测试(Test)两个分组,然后将这些数据生成TF Record文件。

训练前的准备

要想训练我们自己的模型,第一件事就是找到待识别物体的足够多数量的照片。对于收集这些照片的途径主要有:
1、Google或是Baidu的图片搜索引擎
2、Image Net等计算机视觉系统相关图像库
对于图像的收集,笔者建议先搜寻Image Net等图像库,如果图像库中没有需要的物体图像,则通过Google或是Baidu等图片搜索引擎进行搜索。由于Image Net拥有完整的数据集,因此此处采用Google等图片搜索引擎搜索图片,而后手动标签的方法。

收集互联网上的图片

该教程选择以钢笔为检测的目标。因此,我们需要收集500张左右的照片作为训练用的数据集。
经过2到3个小时的收集过程,最终收集到了足够多的图片。


搜集到的含有Pen的图片

标记收集到的图片

对于已经收集到的图片,我们需要标记出所有图片中对应的待识别物体的范围。
标记(Label)图片中的对象,在这里使用一个名为LabelImg的Github上的开源项目。

LabelImg项目地址:https://github.com/tzutalin/labelImg

将当前工作目录切换到我们想要存放labelImg工具的目录,然后使用git clone命令将仓库复制下来。

root@ubuntu:~/Dev/tool# git clone https://github.com/tzutalin/labelImg
正克隆到 'labelImg'...
remote: Counting objects: 1138, done.
remote: Compressing objects: 100% (16/16), done.
remote: Total 1138 (delta 6), reused 14 (delta 6), pack-reused 1116
接收对象中: 100% (1138/1138), 232.25 MiB | 5.54 MiB/s, 完成.
处理 delta 中: 100% (643/643), 完成.
检查连接... 完成。

对于使用源代码编译安装的方式,Github的项目页面中有相应介绍。Ubuntu Linux中对应有Python2 + Qt4和Python3 + Qt5两种安装方式。这里选用Python3+Qt5的方式。

Python 2 + Qt4

sudo apt-get install pyqt4-dev-tools
sudo pip install lxml
make qt4py2
python labelImg.py
python labelImg.py [IMAGE_PATH] [PRE-DEFINED CLASS FILE]

Python 3 + Qt5

sudo apt-get install pyqt5-dev-tools
sudo pip3 install lxml
make qt5py3
python3 labelImg.py
python3 labelImg.py [IMAGE_PATH] [PRE-DEFINED CLASS FILE]

使用python3 labelImg.py命令打开labelImg的UI界面。


LabelImg的UI界面

刚打开LabelImg的界面,空空如也。因为上批量标记图片,因此我们点击Open Dir来打开存放所有图片的文件夹。打开后,界面如下:


打开文件夹之后的界面

上图中,最中间本身灰色的区域显示出了文件夹中的图片。右下角的File List列出了该文件夹下面的所有的图片信息。
通过点击Create RectBox按钮(快捷键为W),出现了如下图的横竖直线:
定位线

通过拖动定位线,标记出图中待标记物体(笔)的方框,并输入待标记物体的名称,点击OK。


输入目标名称

对于一张图片中有多个待检测目标的情况,此时则需要再次使用方框讲物体标注。
常用快捷键
下一张:快捷键D
上一张:快捷键A
创建矩形框:快捷键W
保存:快捷键Ctrl+S

在标注完毕之后,我们在突然的相同文件夹下会产生同名的xml文件。该xml文件内容如下:

<annotation>
    <folder>Train</folder>
    <filename>jy5t4wr.jpg</filename>
    <path>/home/jack/桌面/Pen/Train/jy5t4wr.jpg</path>
    <source>
        <database>Unknown</database>
    </source>
    <size>
        <width>1024</width>
        <height>707</height>
        <depth>3</depth>
    </size>
    <segmented>0</segmented>
    <object>
        <name>pen</name>
        <pose>Unspecified</pose>
        <truncated>0</truncated>
        <difficult>0</difficult>
        <bndbox>
            <xmin>204</xmin>
            <ymin>160</ymin>
            <xmax>673</xmax>
            <ymax>616</ymax>
        </bndbox>
    </object>
</annotation>

在上述xml文件中,我们可以看到有图像文件的内容信息和Object标签的相关信息。
至此,经过近6个小时的时间,我们的准备工作进行完毕。

创建TF Record

TF Record是一种二进制文件。传统的图像与标签往往是分为不同文件存放的(如jpg是图片格式,xml中包含标签等),而在TF Record中每一张输入图像和与其相关的标签则是存放在一个文件中的。TF Record并不对数据进行压缩,所以可以被快速加载到内存中,从而进行大量数据流的读取操作。
在创建TF Record之前,我们将上一节中标注好的图片与其标注信息分别放入两个文件夹中,一个是test一个是train文件夹。其中,Test文件夹中的图片约为所有图片数量的10%。准备完成之后,将test和train文件夹放入images文件夹中。同时在形同的目录层级下新建名为data和training的文件夹。


文件夹结构

新建一个名为xml_to_csv.py的脚本:

import os
import glob
import pandas as pd
import xml.etree.ElementTree as ET


def xml_to_csv(path):
    xml_list = []
    for xml_file in glob.glob(path + '/*.xml'):
        tree = ET.parse(xml_file)
        root = tree.getroot()
        for member in root.findall('object'):
            value = (root.find('filename').text,
                     int(root.find('size')[0].text),
                     int(root.find('size')[1].text),
                     member[0].text,
                     int(member[4][0].text),
                     int(member[4][1].text),
                     int(member[4][2].text),
                     int(member[4][3].text)
                     )
            xml_list.append(value)
    column_name = ['filename', 'width', 'height', 'class', 'xmin', 'ymin', 'xmax', 'ymax']
    xml_df = pd.DataFrame(xml_list, columns=column_name)
    return xml_df


def main():
    for directory in ['train','test']:
        image_path = os.path.join(os.getcwd(), 'images/{}'.format(directory))
        xml_df = xml_to_csv(image_path)
        xml_df.to_csv('data/{}_labels.csv'.format(directory), index=None)
        print('Successfully converted xml to csv.')


main()

该脚本来自https://github.com/datitran/raccoon_dataset,并经过修改
通过控制台,使用python xml_to_csv.py或python3 xml_to_csv.py运行该脚本。
当控制台出现如下提示时,脚本执行成功,并且在data目录下会出现test_labels.csv和train_labels.csv两个文件。

root@jack:~/object_detection# python3 xml_to_csv.py 
Successfully converted xml to csv.
Successfully converted xml to csv.

我们成功地讲xml标签转换为csv标签,那么下一步就是生成TF Record了。新建一个名为generate_tfrecord.py的脚本,输入以下内容:

"""
Usage:
  # From tensorflow/models/
  # Create train data:
  python generate_tfrecord.py --csv_input=data/train_labels.csv  --output_path=train.record

  # Create test data:
  python generate_tfrecord.py --csv_input=data/test_labels.csv  --output_path=test.record
"""
from __future__ import division
from __future__ import print_function
from __future__ import absolute_import

import os
import io
import pandas as pd
import tensorflow as tf

from PIL import Image
from object_detection.utils import dataset_util
from collections import namedtuple, OrderedDict

flags = tf.app.flags
flags.DEFINE_string('csv_input', '', 'Path to the CSV input')
flags.DEFINE_string('output_path', '', 'Path to output TFRecord')
FLAGS = flags.FLAGS


# TO-DO replace this with label map
def class_text_to_int(row_label):
    if row_label == 'pen':
        return 1
    else:
        None


def split(df, group):
    data = namedtuple('data', ['filename', 'object'])
    gb = df.groupby(group)
    return [data(filename, gb.get_group(x)) for filename, x in zip(gb.groups.keys(), gb.groups)]


def create_tf_example(group, path):
    with tf.gfile.GFile(os.path.join(path, '{}'.format(group.filename)), 'rb') as fid:
        encoded_jpg = fid.read()
    encoded_jpg_io = io.BytesIO(encoded_jpg)
    image = Image.open(encoded_jpg_io)
    width, height = image.size

    filename = group.filename.encode('utf8')
    image_format = b'jpg'
    xmins = []
    xmaxs = []
    ymins = []
    ymaxs = []
    classes_text = []
    classes = []

    for index, row in group.object.iterrows():
        xmins.append(row['xmin'] / width)
        xmaxs.append(row['xmax'] / width)
        ymins.append(row['ymin'] / height)
        ymaxs.append(row['ymax'] / height)
        classes_text.append(row['class'].encode('utf8'))
        classes.append(class_text_to_int(row['class']))

    tf_example = tf.train.Example(features=tf.train.Features(feature={
        'image/height': dataset_util.int64_feature(height),
        'image/width': dataset_util.int64_feature(width),
        'image/filename': dataset_util.bytes_feature(filename),
        'image/source_id': dataset_util.bytes_feature(filename),
        'image/encoded': dataset_util.bytes_feature(encoded_jpg),
        'image/format': dataset_util.bytes_feature(image_format),
        'image/object/bbox/xmin': dataset_util.float_list_feature(xmins),
        'image/object/bbox/xmax': dataset_util.float_list_feature(xmaxs),
        'image/object/bbox/ymin': dataset_util.float_list_feature(ymins),
        'image/object/bbox/ymax': dataset_util.float_list_feature(ymaxs),
        'image/object/class/text': dataset_util.bytes_list_feature(classes_text),
        'image/object/class/label': dataset_util.int64_list_feature(classes),
    }))
    return tf_example


def main(_):
    writer = tf.python_io.TFRecordWriter(FLAGS.output_path)
    path = os.path.join(os.getcwd(), 'images')
    examples = pd.read_csv(FLAGS.csv_input)
    grouped = split(examples, 'filename')
    for group in grouped:
        tf_example = create_tf_example(group, path)
        writer.write(tf_example.SerializeToString())

    writer.close()
    output_path = os.path.join(os.getcwd(), FLAGS.output_path)
    print('Successfully created the TFRecords: {}'.format(output_path))


if __name__ == '__main__':
    tf.app.run()

注意第31行的代码中,我们需要讲row_label变量替换为我们自己定义的标签名称,此处我使用的是pen标签。

...
29:# TO-DO replace this with label map
30:def class_text_to_int(row_label):
31:    if row_label == 'pen':
...

另外,在第20行,导入了object_detection.utils中的包

from object_detection.utils import dataset_util

因此我们需要讲tensorflow的models安装到计算机中。通过cd命令进入到~/Dev/tensorflow/models/research# 目录,通过

sudo python3 setup.py install

命令来安装tensorflow的相关python包。
安装完成之后,通过如下命令生成TF Record文件,对于train和test需要分别运行两次。

  python3 generate_tfrecord.py --csv_input=data/train_labels.csv  --output_path=data/train.record

  python3 generate_tfrecord.py --csv_input=data/test_labels.csv  --output_path=data/test.record
成功生成了TF Record文件

觉得写的不错的朋友可以点一个 喜欢♥ ~
谢谢你的支持!

最后编辑于
©著作权归作者所有,转载或内容合作请联系作者
  • 序言:七十年代末,一起剥皮案震惊了整个滨河市,随后出现的几起案子,更是在滨河造成了极大的恐慌,老刑警刘岩,带你破解...
    沈念sama阅读 158,425评论 4 361
  • 序言:滨河连续发生了三起死亡事件,死亡现场离奇诡异,居然都是意外死亡,警方通过查阅死者的电脑和手机,发现死者居然都...
    沈念sama阅读 67,058评论 1 291
  • 文/潘晓璐 我一进店门,熙熙楼的掌柜王于贵愁眉苦脸地迎上来,“玉大人,你说我怎么就摊上这事。” “怎么了?”我有些...
    开封第一讲书人阅读 108,186评论 0 243
  • 文/不坏的土叔 我叫张陵,是天一观的道长。 经常有香客问我,道长,这世上最难降的妖魔是什么? 我笑而不...
    开封第一讲书人阅读 43,848评论 0 204
  • 正文 为了忘掉前任,我火速办了婚礼,结果婚礼上,老公的妹妹穿的比我还像新娘。我一直安慰自己,他们只是感情好,可当我...
    茶点故事阅读 52,249评论 3 286
  • 文/花漫 我一把揭开白布。 她就那样静静地躺着,像睡着了一般。 火红的嫁衣衬着肌肤如雪。 梳的纹丝不乱的头发上,一...
    开封第一讲书人阅读 40,554评论 1 216
  • 那天,我揣着相机与录音,去河边找鬼。 笑死,一个胖子当着我的面吹牛,可吹牛的内容都是我干的。 我是一名探鬼主播,决...
    沈念sama阅读 31,830评论 2 312
  • 文/苍兰香墨 我猛地睁开眼,长吁一口气:“原来是场噩梦啊……” “哼!你这毒妇竟也来了?” 一声冷哼从身侧响起,我...
    开封第一讲书人阅读 30,536评论 0 197
  • 序言:老挝万荣一对情侣失踪,失踪者是张志新(化名)和其女友刘颖,没想到半个月后,有当地人在树林里发现了一具尸体,经...
    沈念sama阅读 34,239评论 1 241
  • 正文 独居荒郊野岭守林人离奇死亡,尸身上长有42处带血的脓包…… 初始之章·张勋 以下内容为张勋视角 年9月15日...
    茶点故事阅读 30,505评论 2 244
  • 正文 我和宋清朗相恋三年,在试婚纱的时候发现自己被绿了。 大学时的朋友给我发了我未婚夫和他白月光在一起吃饭的照片。...
    茶点故事阅读 32,004评论 1 258
  • 序言:一个原本活蹦乱跳的男人离奇死亡,死状恐怖,灵堂内的尸体忽然破棺而出,到底是诈尸还是另有隐情,我是刑警宁泽,带...
    沈念sama阅读 28,346评论 2 253
  • 正文 年R本政府宣布,位于F岛的核电站,受9级特大地震影响,放射性物质发生泄漏。R本人自食恶果不足惜,却给世界环境...
    茶点故事阅读 32,999评论 3 235
  • 文/蒙蒙 一、第九天 我趴在偏房一处隐蔽的房顶上张望。 院中可真热闹,春花似锦、人声如沸。这庄子的主人今日做“春日...
    开封第一讲书人阅读 26,060评论 0 8
  • 文/苍兰香墨 我抬头看了看天上的太阳。三九已至,却和暖如春,着一层夹袄步出监牢的瞬间,已是汗流浃背。 一阵脚步声响...
    开封第一讲书人阅读 26,821评论 0 194
  • 我被黑心中介骗来泰国打工, 没想到刚下飞机就差点儿被人妖公主榨干…… 1. 我叫王不留,地道东北人。 一个月前我还...
    沈念sama阅读 35,574评论 2 271
  • 正文 我出身青楼,却偏偏与公主长得像,于是被迫代替她去往敌国和亲。 传闻我的和亲对象是个残疾皇子,可洞房花烛夜当晚...
    茶点故事阅读 35,480评论 2 267

推荐阅读更多精彩内容