Android中使用OpenCV

三点:

  1. 集成OpenCV
  2. 使用官方的人脸识别模型写个Demo
  3. 训练库

一、集成OpenCV

OpenCV集成还是很简单的,不需要我们自己去交差编译生成动/静态库,解压后的文件已经包含了动态库。一般套路都是这样,下载库、导入.h和动/静态库、配置CmakeList。详细步骤:

  1. 下载OpenCV官网Android最新版本SDK(这里用的是4.1.0)
  2. AS创建NDK项目,新旧版本AS创建出来的目录结构不太一样,这里把目录贴一下,跟CMake文件中配置文件路径有关系:


    项目目录
  3. 导入.h文件和.so动态库


  4. 在CmakeLists.txt中引入库,修改3处,下面都有注释,这里的路径就是上面贴目录的原因,根据自己AS版本创建出来的目录自行修改。
cmake_minimum_required(VERSION 3.4.1)


add_library(
        native-lib

        SHARED

        native-lib.cpp)

#导入头文件
include_directories(include)

#导入库文件
set(CMAKE_CXX_FLAGS "${CMAKE_CXX_FLAGS} -L${CMAKE_SOURCE_DIR}/libs/${ANDROID_ABI}")

find_library(
        log-lib

        log)


target_link_libraries(
        native-lib
        
        #添加opencv_java4
        opencv_java4

        android

        ${log-lib})
  1. build.gradle中添加寻找目录:
    sourceSets {
        main {
            jniLibs.srcDirs = ['src/main/cpp/libs']
        }
    }
  1. 如果编译报错记得clean rebuild,AS有时候抽风

二、使用官方的人脸识别模型写个Demo

  1. 官方的提供的正脸识别模型也在刚才下载的包里包括了,先copy到assets中:


  2. 这里用到两个工具类UtilsCameraHelper就不贴了,Utils 是把文件从assetscopy到外置储存空间的,CameraHelper是打开摄像头的工具类,在onPreviewFrame(..)中把每一帧图片回调给了MainActivity,因为这里并不是把摄像头采集的画面直接放到SurfaceView显示,识别出人脸之后要标记处理,所以把Surface和摄像头数据都传到native层,在native层对图片处理过之后直接写入Surface,也会得到在SurfaceView预览的效果, 代码可以在项目中查看。
  3. 在MainActivity里我们先把对人脸识别模型进行拷贝,然后把SurfaceView和CameraHelper的每一帧数据传递给native层去处理:
public class MainActivity extends AppCompatActivity implements SurfaceHolder.Callback, Camera.PreviewCallback {

    @Override
    protected void onCreate(Bundle savedInstanceState) {
        super.onCreate(savedInstanceState);

        ...

        Utils.copyAssets(this, "lbpcascade_frontalface.xml");
    }

    @Override
    protected void onResume() {
        super.onResume();
        String path = new File(Environment.getExternalStorageDirectory(), "lbpcascade_frontalface.xml").getAbsolutePath();
        cameraHelper.startPreview();
        openCvJni.init(path);

    }

    ...

    @Override
    public void surfaceChanged(SurfaceHolder holder, int format, int width, int height) {
        openCvJni.setSurface(holder.getSurface());
    }

    @Override
    public void onPreviewFrame(byte[] data, Camera camera) {
        openCvJni.postData(data, CameraHelper.WIDTH, CameraHelper.HEIGHT, cameraId);
    }

    ...
}
  1. OpencvJni是Java层和native层通讯的类,只有native方法声明,用处已注释:
public class OpencvJni {
    static {
        System.loadLibrary("native-lib");
    }

    /**
     * 初始化native层相关逻辑
     * @param path 人脸识别模型路径
     */
    public native void init(String path) ;

    /**
     * 摄像头采集的数据发送到native层
     * @param data 每一帧数据(NV21)
     * @param width 摄像头采集图片的宽
     * @param height 摄像头采集图片的高
     * @param cameraId 摄像头ID(前置、后置)
     */
    public native void postData(byte[] data, int width, int height, int cameraId);

    /**
     * 发送Surface到native,用于把数据后的图像数据直接显示到Surface上
     * @param surface
     */
    public native void setSurface(Surface surface);
}
  1. native层OpenCV初始化相关的代码,这里要创建一个检测器,一个跟踪器。OpenCV的实现并不是每一帧图片都检测,目标检测还是比较耗时耗性能的,检测出目标之后会有跟踪器的工作,这里的具体原理就不瞎扯了,大概是这么个意思。
Java_com_yu_opencvdemo_OpencvJni_init(JNIEnv *env, jobject instance, jstring path_) {
    const char *path = env->GetStringUTFChars(path_, 0);


    //创建检测器
    Ptr<CascadeClassifier> classifier=makePtr<CascadeClassifier>(path);
    Ptr<CascadeDetectorAdapter> mainDetector= makePtr<CascadeDetectorAdapter>(classifier);

    //创建跟踪器
    Ptr<CascadeClassifier> classifier1=makePtr<CascadeClassifier>(path);
    Ptr<CascadeDetectorAdapter> trackingDetector= makePtr<CascadeDetectorAdapter>(classifier1);

    //开始识别,结果在CascadeDetectorAdapter中返回
    DetectionBasedTracker::Parameters DetectorParams;
    tracker= new DetectionBasedTracker(mainDetector, trackingDetector, DetectorParams);
    tracker->run();

    env->ReleaseStringUTFChars(path_, path);
}

这里需要一个CascadeDetectorAdapter,这个类可以从开发包的sample里找到,包括上面的初始化代码也是参考sample里的,有兴趣可以去读相关代码。这个CascadeDetectorAdapter的作用是每一帧检测出目标后的一个回调:

class CascadeDetectorAdapter: public DetectionBasedTracker::IDetector
{
public:
    CascadeDetectorAdapter(cv::Ptr<cv::CascadeClassifier> detector):
            IDetector(),
            Detector(detector)
    {
    }
    void detect(const cv::Mat &Image, std::vector<cv::Rect> &objects)
    {
        Detector->detectMultiScale(Image, objects, scaleFactor, minNeighbours, 0, minObjSize, maxObjSize);
    }

    virtual ~CascadeDetectorAdapter()
    {
    }

private:
    CascadeDetectorAdapter();
    cv::Ptr<cv::CascadeClassifier> Detector;
};

检测到目标后会回调detect,把结果放进objects里,下面我就就可以通过getObjects()获取检测结果

  1. 在postData对应native层实现中调用OpenCV处理图像:
extern "C"
JNIEXPORT void JNICALL
Java_com_yu_opencvdemo_OpencvJni_postData(JNIEnv *env, jobject instance, jbyteArray data_,
                                          jint width, jint height, jint cameraId) {
    jbyte *data = env->GetByteArrayElements(data_, NULL);

    // 数据的行数也就是数据高度,因为数据类型是NV21,所以为Y+U+V的高度, 也就是height + height/4 + height/4
    Mat src(height*3/2, width, CV_8UC1, data);

    // 转RGB
    cvtColor(src, src, COLOR_YUV2RGBA_NV21);
    if (cameraId == 1) {// 前置摄像头
        //逆时针旋转90度
        rotate(src, src, ROTATE_90_COUNTERCLOCKWISE);
        //1:水平翻转   0:垂直翻转
        flip(src, src, 1);
    } else {
        //顺时针旋转90度
        rotate(src, src, ROTATE_90_CLOCKWISE);

    }
    Mat gray;
    //灰度化
    cvtColor(src, gray, COLOR_RGBA2GRAY);
    //二值化
    equalizeHist(gray, gray);

    std::vector<Rect> faces;
    //检测图片
    tracker->process(gray);
    //获取CascadeDetectorAdapter中的检测结果
    tracker->getObjects(faces);
    //画出矩形
    for (Rect face : faces) {
        rectangle(src, face, Scalar(255, 0, 0));
    }

    //把图片展示到Surface中
    ...

    src.release();
    gray.release();
    env->ReleaseByteArrayElements(data_, data, 0);
}

这里就是识别相关代码逻辑,NV21的结构这里不再多说,图片旋转是因为摄像头放置方向的问题,灰度化是把图片变黑白,二值化是突出轮廓,都是为了提高OpenCV识别率,相关知识也很多,有兴趣可以去深度了解OpenCV。

  1. 上面已经识别出目标,并用红色矩形框了出来,现在需要把操作完成的图片显示到Surface中。显示需要用到ANativeWindow这个类,setSurface的时候把Surface设置给window。
Java_com_yu_opencvdemo_OpencvJni_setSurface(JNIEnv *env, jobject instance, jobject surface) {

    if (window) {
        ANativeWindow_release(window);
        window = 0;
    }
    window = ANativeWindow_fromSurface(env, surface);

}

然后还是在postData的函数中,把图片中的数据(src.data)一行一行拷贝到window,还是在上面这个函数中,每一行的作用已注释:

Java_com_yu_opencvdemo_OpencvJni_postData(JNIEnv *env, jobject instance, jbyteArray data_,
                                          jint width, jint height, jint cameraId) {
    jbyte *data = env->GetByteArrayElements(data_, NULL);

     //识别相关代码
    ...

    //显示到surface
    if (window) {
        ANativeWindow_setBuffersGeometry(window, src.cols, src.rows, WINDOW_FORMAT_RGBA_8888);
        ANativeWindow_Buffer window_buffer;
        do {
            //lock失败 直接brek出去
            if (ANativeWindow_lock(window, &window_buffer, 0)) {
                ANativeWindow_release(window);
                window = 0;
                break;
            }

            uint8_t *dst_data = static_cast<uint8_t *>(window_buffer.bits);
            //stride : 一行多少个数据
            //(RGBA) * 4
            int dst_linesize = window_buffer.stride * 4;

            //一行一行拷贝,src.data是图片的RGBA数据,要拷贝到dst_data中,也就是window的缓冲区里
            for (int i = 0; i < window_buffer.height; ++i) {
                memcpy(dst_data + i * dst_linesize, src.data + i * src.cols * 4, dst_linesize);
            }
            //提交刷新
            ANativeWindow_unlockAndPost(window);
        } while (0);


    }
    ...
    env->ReleaseByteArrayElements(data_, data, 0);
}

OK,愉快的识别吧。这里先说下,OpenCV这个自带的识别模型。。识别率不是太高。。

三、训练库

这里不想多写什么(相关知识我迷糊),但是,用着很简单,并不需要你有数据算法知识,OpenCV提供了训练工具,你只要准备好正样本和负样本,比如你想做猪脸识别,准备好各式各样的猪脸作为正样本,再准备一些比如人脸狗脸什么的作为负样本,然后命令行调用OpenCV工具就好,工具在OpenCV官网下载Window版本的里面包含。
训练文档

四、项目地址