非線性可分離數(shù)據(jù)的SVM

2018-10-19 10:57 更新

目標(biāo)

在本教程中,您將學(xué)習(xí)如何:

  • 當(dāng)不可能對訓(xùn)練數(shù)據(jù)進(jìn)行線性分離時,定義SVM的優(yōu)化問題。
  • 如何配置參數(shù)以適應(yīng)您的SVM的這一類問題。

動機(jī)

為什么要擴(kuò)展SVM優(yōu)化問題以處理非線性可分離的訓(xùn)練數(shù)據(jù)呢?在計算機(jī)視覺中使用SVM的大多數(shù)應(yīng)用需要比簡單的線性分類器更強(qiáng)大的工具。這源于事實,在這些任務(wù)中,訓(xùn)練數(shù)據(jù)很少使用超平面分離。

考慮這些任務(wù)之一,例如面部檢測。在這種情況下的訓(xùn)練數(shù)據(jù)由一組圖像組成,這些圖像是面部和另一組圖像,這些圖像是非面部(世界上除了面部之外的其他事物)。該訓(xùn)練數(shù)據(jù)太復(fù)雜,以便找到每個樣本(特征向量)的表示,可以使整個面的整個面線與整組非面線線性分離。

擴(kuò)展優(yōu)化問題

記住,使用SVM我們獲得一個分離超平面。因此,由于訓(xùn)練數(shù)據(jù)現(xiàn)在是非線性可分的,所以我們必須承認(rèn),發(fā)現(xiàn)的超平面將錯誤分類某些樣本。這種錯誤分類是必須考慮的優(yōu)化中的一個新變量。新模式必須既包含找到提供最大利潤的超平面的舊要求,又包括通過不允許太多分類錯誤正確地推廣訓(xùn)練數(shù)據(jù)的新要求。

我們從制定找到最大化邊距的超平面的優(yōu)化問題開始,這在前面的教程(SVM簡介)中有介紹:

SVM

可以通過多種方式修改此模型,以便考慮錯誤分類錯誤。例如,人們可以想到將訓(xùn)練數(shù)據(jù)中的錯誤分類錯誤的數(shù)量減少到相同的數(shù)量加一個常數(shù),即:

SVM

然而,這不是一個很好的解決方案,因為在其他一些原因之中,我們不區(qū)分錯誤分類的樣本與其適當(dāng)?shù)臎Q策區(qū)域或不適合的決策區(qū)域的小距離。因此,更好的解決方案將考慮到錯誤分類樣本與其正確決策區(qū)域距離,即:

SVM

對于訓(xùn)練數(shù)據(jù)的每個樣本,一個新的參數(shù)ξ被定義。這些參數(shù)中的每一個包含從其對應(yīng)的訓(xùn)練樣本到其正確決策區(qū)域的距離。下圖顯示了來自兩個類別的非線性可分離訓(xùn)練數(shù)據(jù),分離超平面以及與錯誤分類的樣本的正確區(qū)域的距離。

SVM

注意
圖中只顯示了錯誤分類的樣品的距離。其余樣本的距離為零,因為它們已經(jīng)處于正確的決策區(qū)域。

圖片上出現(xiàn)的紅色和藍(lán)色線條是每個決策區(qū)域的邊距。認(rèn)識到每一個ξ都是非常重要的一世 從錯誤分類的培訓(xùn)樣本到其適當(dāng)?shù)貐^(qū)的邊緣。

最后,優(yōu)化問題的新方法是:

SVM

如何選擇參數(shù)C,很明顯,這個問題的答案取決于如何分配培訓(xùn)數(shù)據(jù)。雖然沒有一般答案,但考慮到這些規(guī)則是有用的:

  • C的大值給出具有較少錯誤分類錯誤但更小裕度的解決方案??紤]到在這種情況下,錯誤分類錯誤是很昂貴的。由于優(yōu)化的目的是最小化參數(shù),因此允許錯誤分類錯誤。
  • C的小值給出具有更大裕度和更多分類誤差的解決方案。在這種情況下,最小化并不考慮這個總和的這個術(shù)語,所以它更側(cè)重于找到一個具有大邊距的超平面。

源代碼

您還可以在samples/cpp/tutorial_code/ml/non_linear_svmsOpenCV源庫的文件夾中找到源代碼,或從這里下載。

注意
以下代碼已經(jīng)通過OpenCV 3.0類和函數(shù)實現(xiàn)??梢栽?a rel="external nofollow" target="_blank" rel="external nofollow" target="_blank" target="_blank">此頁面中找到使用OpenCV 2.4的代碼的等效版本。
#include <iostream>
#include <opencv2/core.hpp>
#include <opencv2/imgproc.hpp>
#include "opencv2/imgcodecs.hpp"
#include <opencv2/highgui.hpp>
#include <opencv2/ml.hpp>
#define NTRAINING_SAMPLES   100         // Number of training samples per class
#define FRAC_LINEAR_SEP     0.9f        // Fraction of samples which compose the linear separable part
using namespace cv;
using namespace cv::ml;
using namespace std;
static void help()
{
    cout<< "\n--------------------------------------------------------------------------" << endl
        << "This program shows Support Vector Machines for Non-Linearly Separable Data. " << endl
        << "Usage:"                                                               << endl
        << "./non_linear_svms" << endl
        << "--------------------------------------------------------------------------"   << endl
        << endl;
}
int main()
{
    help();
    // Data for visual representation
    const int WIDTH = 512, HEIGHT = 512;
    Mat I = Mat::zeros(HEIGHT, WIDTH, CV_8UC3);
    //--------------------- 1. Set up training data randomly ---------------------------------------
    Mat trainData(2*NTRAINING_SAMPLES, 2, CV_32FC1);
    Mat labels   (2*NTRAINING_SAMPLES, 1, CV_32SC1);
    RNG rng(100); // Random value generation class
    // Set up the linearly separable part of the training data
    int nLinearSamples = (int) (FRAC_LINEAR_SEP * NTRAINING_SAMPLES);
    // Generate random points for the class 1
    Mat trainClass = trainData.rowRange(0, nLinearSamples);
    // The x coordinate of the points is in [0, 0.4)
    Mat c = trainClass.colRange(0, 1);
    rng.fill(c, RNG::UNIFORM, Scalar(1), Scalar(0.4 * WIDTH));
    // The y coordinate of the points is in [0, 1)
    c = trainClass.colRange(1,2);
    rng.fill(c, RNG::UNIFORM, Scalar(1), Scalar(HEIGHT));
    // Generate random points for the class 2
    trainClass = trainData.rowRange(2*NTRAINING_SAMPLES-nLinearSamples, 2*NTRAINING_SAMPLES);
    // The x coordinate of the points is in [0.6, 1]
    c = trainClass.colRange(0 , 1);
    rng.fill(c, RNG::UNIFORM, Scalar(0.6*WIDTH), Scalar(WIDTH));
    // The y coordinate of the points is in [0, 1)
    c = trainClass.colRange(1,2);
    rng.fill(c, RNG::UNIFORM, Scalar(1), Scalar(HEIGHT));
    //------------------ Set up the non-linearly separable part of the training data ---------------
    // Generate random points for the classes 1 and 2
    trainClass = trainData.rowRange(  nLinearSamples, 2*NTRAINING_SAMPLES-nLinearSamples);
    // The x coordinate of the points is in [0.4, 0.6)
    c = trainClass.colRange(0,1);
    rng.fill(c, RNG::UNIFORM, Scalar(0.4*WIDTH), Scalar(0.6*WIDTH));
    // The y coordinate of the points is in [0, 1)
    c = trainClass.colRange(1,2);
    rng.fill(c, RNG::UNIFORM, Scalar(1), Scalar(HEIGHT));
    //------------------------- Set up the labels for the classes ---------------------------------
    labels.rowRange(                0,   NTRAINING_SAMPLES).setTo(1);  // Class 1
    labels.rowRange(NTRAINING_SAMPLES, 2*NTRAINING_SAMPLES).setTo(2);  // Class 2
    //------------------------ 2. Set up the support vector machines parameters --------------------
    //------------------------ 3. Train the svm ----------------------------------------------------
    cout << "Starting training process" << endl;
    Ptr<SVM> svm = SVM::create();
    svm->setType(SVM::C_SVC);
    svm->setC(0.1);
    svm->setKernel(SVM::LINEAR);
    svm->setTermCriteria(TermCriteria(TermCriteria::MAX_ITER, (int)1e7, 1e-6));
    svm->train(trainData, ROW_SAMPLE, labels);
    cout << "Finished training process" << endl;
    //------------------------ 4. Show the decision regions ----------------------------------------
    Vec3b green(0,100,0), blue (100,0,0);
    for (int i = 0; i < I.rows; ++i)
        for (int j = 0; j < I.cols; ++j)
        {
            Mat sampleMat = (Mat_<float>(1,2) << i, j);
            float response = svm->predict(sampleMat);
            if      (response == 1)    I.at<Vec3b>(j, i)  = green;
            else if (response == 2)    I.at<Vec3b>(j, i)  = blue;
        }
    //----------------------- 5. Show the training data --------------------------------------------
    int thick = -1;
    int lineType = 8;
    float px, py;
    // Class 1
    for (int i = 0; i < NTRAINING_SAMPLES; ++i)
    {
        px = trainData.at<float>(i,0);
        py = trainData.at<float>(i,1);
        circle(I, Point( (int) px,  (int) py ), 3, Scalar(0, 255, 0), thick, lineType);
    }
    // Class 2
    for (int i = NTRAINING_SAMPLES; i <2*NTRAINING_SAMPLES; ++i)
    {
        px = trainData.at<float>(i,0);
        py = trainData.at<float>(i,1);
        circle(I, Point( (int) px, (int) py ), 3, Scalar(255, 0, 0), thick, lineType);
    }
    //------------------------- 6. Show support vectors --------------------------------------------
    thick = 2;
    lineType  = 8;
    Mat sv = svm->getUncompressedSupportVectors();
    for (int i = 0; i < sv.rows; ++i)
    {
        const float* v = sv.ptr<float>(i);
        circle( I,  Point( (int) v[0], (int) v[1]), 6, Scalar(128, 128, 128), thick, lineType);
    }
    imwrite("result.png", I);                      // save the Image
    imshow("SVM for Non-Linear Training Data", I); // show it to the user
    waitKey(0);
}

說明

  • 設(shè)置訓(xùn)練數(shù)據(jù)該練習(xí)的訓(xùn)練數(shù)據(jù)由屬于兩個不同類之一的一組標(biāo)記的2D點形成。為了使運(yùn)動更具吸引力,使用統(tǒng)一的概率密度函數(shù)(PDF)隨機(jī)生成訓(xùn)練數(shù)據(jù)。我們將訓(xùn)練數(shù)據(jù)的生成分為兩個主要部分。在第一部分中,我們?yōu)榭煞蛛x的兩個類生成數(shù)據(jù)。
    // Generate random points for the class 1
    Mat trainClass = trainData.rowRange(0, nLinearSamples);
    // The x coordinate of the points is in [0, 0.4)
    Mat c = trainClass.colRange(0, 1);
    rng.fill(c, RNG::UNIFORM, Scalar(1), Scalar(0.4 * WIDTH));
    // The y coordinate of the points is in [0, 1)
    c = trainClass.colRange(1,2);
    rng.fill(c, RNG::UNIFORM, Scalar(1), Scalar(HEIGHT));
    // Generate random points for the class 2
    trainClass = trainData.rowRange(2*NTRAINING_SAMPLES-nLinearSamples, 2*NTRAINING_SAMPLES);
    // The x coordinate of the points is in [0.6, 1]
    c = trainClass.colRange(0 , 1);
    rng.fill(c, RNG::UNIFORM, Scalar(0.6*WIDTH), Scalar(WIDTH));
    // The y coordinate of the points is in [0, 1)
    c = trainClass.colRange(1,2);
    rng.fill(c, RNG::UNIFORM, Scalar(1), Scalar(HEIGHT));

在第二部分,我們?yōu)椴豢删€性分離的兩個類創(chuàng)建數(shù)據(jù),數(shù)據(jù)重疊。

    // Generate random points for the classes 1 and 2
    trainClass = trainData.rowRange(  nLinearSamples, 2*NTRAINING_SAMPLES-nLinearSamples);
    // The x coordinate of the points is in [0.4, 0.6)
    c = trainClass.colRange(0,1);
    rng.fill(c, RNG::UNIFORM, Scalar(0.4*WIDTH), Scalar(0.6*WIDTH));
    // The y coordinate of the points is in [0, 1)
    c = trainClass.colRange(1,2);
    rng.fill(c, RNG::UNIFORM, Scalar(1), Scalar(HEIGHT));
  • 設(shè)置SVM的參數(shù)
注意
在前面的教程“SVM簡介”中,我們將對在訓(xùn)練SVM之前配置的cv :: ml :: SVM類的屬性進(jìn)行說明。
    Ptr<SVM> svm = SVM::create();
    svm->setType(SVM::C_SVC);
    svm->setC(0.1);
    svm->setKernel(SVM::LINEAR);
    svm->setTermCriteria(TermCriteria(TermCriteria::MAX_ITER, (int)1e7, 1e-6));

我們在這里做的配置與上一個教程(Support Vector Machines簡介)中所做的配置之間只有兩個區(qū)別,我們用作參考。

    1、C我們在這里選擇了這個參數(shù)的一個小值,以便不優(yōu)化優(yōu)化中的錯誤分類錯誤。這樣做的想法源自于獲得一個直觀預(yù)期的解決方案的意愿。但是,我們建議通過調(diào)整此參數(shù)來更好地了解問題。

注意:在這種情況下,類之間的重疊區(qū)域中只有很少的點。通過給FRAC_LINEAR_SEP一個較小的值,可以增加點的密度,深入探索參數(shù)C的影響。

     2、終止終止標(biāo)準(zhǔn)的算法。為了正確解決非線性可分離訓(xùn)練數(shù)據(jù)的問題,迭代次數(shù)的最大值必須大大增加。特別是我們這個價值增加了??五個數(shù)量級。

  • 訓(xùn)練SVM

我們稱之為方法cv :: ml :: SVM :: train來構(gòu)建SVM模型。請注意,培訓(xùn)過程可能需要相當(dāng)長的時間。當(dāng)你的程序運(yùn)行時Have patiance。

    svm-> train(trainData,ROW_SAMPLE,labels);

  • 顯示決策區(qū)域

方法cv :: ml :: SVM :: predict用于使用經(jīng)過訓(xùn)練的SVM對輸入樣本進(jìn)行分類。在這個例子中,我們使用這種方法來根據(jù)SVM所做的預(yù)測來對空間進(jìn)行著色。換句話說,遍歷圖像將其像素解釋為笛卡爾平面的點。每個點根據(jù)SVM預(yù)測的類別著色; 如果是帶有標(biāo)簽1的課程,則為深綠色,如果是帶有標(biāo)簽2的課程,則為深藍(lán)色。

    Vec3b green(0,100,0), blue (100,0,0);
    for (int i = 0; i < I.rows; ++i)
        for (int j = 0; j < I.cols; ++j)
        {
            Mat sampleMat = (Mat_<float>(1,2) << i, j);
            float response = svm->predict(sampleMat);
            if      (response == 1)    I.at<Vec3b>(j, i)  = green;
            else if (response == 2)    I.at<Vec3b>(j, i)  = blue;
        }

  • Support vectors

我們在這里使用幾種方法來獲取有關(guān)Support vectors的信息。方法cv :: ml :: SVM :: getSupportVectors獲取所有Support vectors。我們在這里使用這種方法來找到Support vectors的訓(xùn)練示例并突出顯示。

    thick = 2;
    lineType  = 8;
    Mat sv = svm->getUncompressedSupportVectors();
    for (int i = 0; i < sv.rows; ++i)
    {
        const float* v = sv.ptr<float>(i);
        circle( I,  Point( (int) v[0], (int) v[1]), 6, Scalar(128, 128, 128), thick, lineType);
    }

結(jié)果

  • 該代碼打開一個圖像并顯示兩個類的訓(xùn)練示例。一個類的點用淺綠色表示,淺藍(lán)色用于另一個類。
  • SVM被訓(xùn)練并用于對圖像的所有像素進(jìn)行分類。這導(dǎo)致在藍(lán)色區(qū)域和綠色區(qū)域中的圖像的劃分。兩個區(qū)域之間的邊界是分離超平面。由于訓(xùn)練數(shù)據(jù)是非線性可分的,可以看出,這兩個類的一些例子被錯誤分類; 一些綠點位于藍(lán)色區(qū)域,一些藍(lán)點位于綠色區(qū)域。
  • 最后,訓(xùn)練示例周圍使用灰色戒指顯示支持向量。

非線性可分離數(shù)據(jù)的SVM

以上內(nèi)容是否對您有幫助:
在線筆記
App下載
App下載

掃描二維碼

下載編程獅App

公眾號
微信公眾號

編程獅公眾號