🖍️
gitbook_docs
  • Introduction
  • Machine Learning
    • Recommended Courses
      • For Undergrad Research
      • Math for Machine Learning
    • ML Notes
      • Covariance Correlation
      • Feature Selection
      • Linear Regression
      • Entropy, Cross-Entropy, KL Divergence
      • Bayesian Classifier
        • Terminology Review
        • Bayesian Classifier for Normally Distributed classes
      • Linear Discriminant Analysis
      • Logistic Regression
        • Logistic Regression Math
      • Logistic Regression-MaximumLikelihood
      • SVM
        • SVM concept
        • SVM math
      • Cross Validation
      • Parameter, Density Estimation
        • MAP, MLE
        • Gaussian Mixture Model
      • E-M
      • Density Estimation(non-parametric)
      • Unsupervised Learning
      • Clustering
      • kNN
      • WaveletTransform
      • Decision Tree
    • Probability and Statistics for Machine Learning
      • Introduction
      • Basics of Data Analysis
      • Probability for Discrete Random Variable
      • Poisson Distribution
      • Chi-Square Distribution
      • P-value and Statistical Hypothesis
      • Power and Sample Size
      • Hypothesis Test Old
      • Hypothesis Test
      • Multi Armed Bandit
      • Bayesian Inference
      • Bayesian Updating with Continuous Priors
      • Discrete Distribution
      • Comparison of Bayesian and frequentist inference
      • Confidence Intervals for Normal Data
      • Frequenist Methods
      • Null Hypothesis Significance Testing
      • Confidence Intervals: Three Views
      • Confidence Intervals for the Mean of Non-normal Data
      • Probabilistic Prediction
  • Industrial AI
    • PHM Dataset
    • BearingFault_Journal
      • Support Vector Machine based
      • Autoregressive(AR) model based
      • Envelope Extraction based
      • Wavelet Decomposition based
      • Prediction of RUL with Deep Convolution Nueral Network
      • Prediction of RUL with Information Entropy
      • Feature Model and Feature Selection
    • TempCore Journal
      • Machine learning of mechanical properties of steels
      • Online prediction of mechanical properties of hot rolled steel plate using machine learning
      • Prediction and Analysis of Tensile Properties of Austenitic Stainless Steel Using Artificial Neural
      • Tempcore, new process for the production of high quality reinforcing
      • TEMPCORE, the most convenient process to produce low cost high strength rebars from 8 to 75 mm
      • Experimental investigation and simulation of structure and tensile properties of Tempcore treated re
    • Notes
  • LiDAR
    • Processing of Point Cloud
    • Intro. 3D Object Detection
    • PointNet
    • PointNet++
    • Frustrum-PointNet
    • VoxelNet
    • Point RCNN
    • PointPillars
    • LaserNet
  • Simulator
    • Simulator List
    • CARLA
    • Airsim
      • Setup
      • Tutorial
        • T#1
        • T#2
        • T#3: Opencv CPP
        • T#4: Opencv Py
        • Untitled
        • T#5: End2End Driving
  • Resources
    • Useful Resources
    • Github
    • Jekyll
  • Reinforcement Learning
    • RL Overview
      • RL Bootcamp
      • MIT Deep RL
    • Textbook
    • Basics
    • Continuous Space RL
  • Unsupervised Learning
    • Introduction
  • Unclassified
    • Ethics
    • Conference Guideline
  • FPGA
    • Untitled
  • Numerical Method
    • NM API reference
Powered by GitBook
On this page
  • Support Vector Machine Base Bearing Fault Diagnosis for Induction Motors Using Vibration Signals
  • Outer-race Rolling Bearing Faults
  • Proposed Diagnostic Method for Bearing Fault Detection
  • Multi-class SVM을 이용한 회전기계의 결함 진단
  • Support Vector Machine
  • Multi-class SVM의 전략
  • 결함 진단 시스템의 구성
  • Simulation 결과

Was this helpful?

  1. Industrial AI
  2. BearingFault_Journal

Support Vector Machine based

PreviousBearingFault_JournalNextAutoregressive(AR) model based

Last updated 3 years ago

Was this helpful?

Support Vector Machine Base Bearing Fault Diagnosis for Induction Motors Using Vibration Signals

2015, 황돈하, 윤영우, 선종호, 이종호, 대한전기학회

Outer-race Rolling Bearing Faults

Characteristic frequencies

  • vibration freq.:

  • harmonics of f_od

    \eqalign{ & f_{OD,k} = k \times f_{OD} \cr & where\,k = 1,2,3,... \cr}
  • load에 따른 주파수

Experimental setup

  • outer race fault

    • 외륜에 8mm, 12mm hole

  • 75kW cage induction motor

    • rated voltage: 33V

    • rated current: 16.3A

    • f_supply: 60Hz

    • speed: 1780 rpm

experimental setup

  • test motor

    • NU318E roller bearing, 롤러 개수 N=13

    • acceleration sensor AS-022(from B&K Vibro) 부착

  • load motor

    • inverter 연결하여 load condition 제어

      • no load, 50%, 100%

  • data acquisition system

    • sampling freq. F_s=200kHz

Proposed Diagnostic Method for Bearing Fault Detection

Background of SVM

Feature calculation

  • peak-to-average ratio를 제안함

    PR=∑k=1KPk1J∑j=1JSjPR = {{\sum\limits_{k = 1}^K {P_k } } \over {{1 \over J}\sum\limits_{j = 1}^J {S_j } }}PR=J1​j=1∑J​Sj​k=1∑K​Pk​​

    P_k: amplitude of the maximum peak located at the freq. band that is centered at the kth defect freq. harmonic(f_OD,k) with a bandwidth BW

    (k번째 harmonic 주파수 근처에서 피크값)

    S_j: amplitude at any freq.

    J: number of points in the spectrum

    K: number of harmonics in the spectrum

  • PR에는 신호의 모든 harmonic 정보가 담겨있음, 그러나 load rate에 따라 중요한 일부만 feature로 사용함

    PRk=Pk1M∑j=1MWk,jPR_k = {{P_k } \over {{1 \over M}\sum\limits_{j = 1}^M {W_{k,j} } }}PRk​=M1​j=1∑M​Wk,j​Pk​​

    k: harmonic index

    W_k,j: amplitude of freq. component at the freq. band centered at f_OD,k with BW

    M: number of freq. domain sample points in BW

Feature Selection

υ-fold validation 사용(???)

Training and classification

two-stage classification

1st SVM: 모든 데이터 학습

2nd SVM: 결함이 있는 데이터만 학습

Classification result

Bandwidth BW=8Hz로 설정

각 load condition에 따라 50번씩 실험

  • Classifier

  • 0% load condition

    PR1은 정상 베어링과 고장 베어링을 잘 구분하지만 고장베어링끼리는 구분할 수 없음

  • 50% load condition & 100% load condition

    PR1에선 bearing 1의 값이 큰데 PR2에선 bearing 2의 값이 큼: 심각한 결함일수록 더 큰 고조파를 유도하기 때문

제안하는 기법: SFS method를 이용해 {PR1, PR2, ⋯, PR5}의 부분집합으로 각 부하마다 best feature set을 만들기

  • 1st SVM

  • 2nd SVM

Multi-class SVM을 이용한 회전기계의 결함 진단

2004, 황원우, 양보석, 한국소음진동공학회

Support Vector Machine

  • hyperplane의 정의

    \eqalign{ & w \cdot x + b = 0 \cr & w \in R^N \cr & b \in R \cr}
  • 회색 원과 사각형 데이터 포인트를 support vector라고 함

    • 나머지 데이터는 폐기해서 학습 시간이 빨라짐

  • 두 hyperplane H1과 H2 사이의 거리가 최대가 되어야함

    margin=2∣∣w∣∣margin = {2 \over {||w||}}margin=∣∣w∣∣2​
  • Lagrangian을 사용해서 최적화한다(???)

  • ???

  • Lagrangian multiplier a_i와 한계값 b로 새로운 데이터를 분류 가능함

    f(x)=sign(∑i=1Nαiyi(xi⋅x)+b)f\left( x \right) = sign\left( {\sum\limits_{i = 1}^N {\alpha _i y_i \left( {x_i \cdot x} \right) + b} } \right)f(x)=sign(i=1∑N​αi​yi​(xi​⋅x)+b)
  • 실제 데이터는 선형적으로 구분할 수 없는 경우가 많음

    • N차원의 입력 공간을 고차원의 특징공간(Q차원)으로 변환하면 선형적으로 구분 가능

      • 변환함수

        \eqalign{ & s = \Phi \left( x \right) \cr & where\,\,x \in R^N ,\,\,s \in R^Q \cr}
      • f(x)에 대입

        f(x)=sign(∑i=1Nαiyi(Φ(x)⋅Φ(xi))+b)f\left( x \right) = sign\left( {\sum\limits_{i = 1}^N {\alpha _i y_i \left( {\Phi \left( x \right) \cdot \Phi \left( {x_i } \right)} \right) + b} } \right)f(x)=sign(i=1∑N​αi​yi​(Φ(x)⋅Φ(xi​))+b)
      • kernel 함수

        K(x,y)=Φ(x)⋅Φ(y)K\left( {x,y} \right) = \Phi \left( x \right) \cdot \Phi \left( y \right)K(x,y)=Φ(x)⋅Φ(y)

        를 f(x)에 대입하면

        f(x)=sign(∑i=1NαiyiK(x,xi)+b)f\left( x \right) = sign\left( {\sum\limits_{i = 1}^N {\alpha _i y_i K\left( {x,x_i } \right) + b} } \right)f(x)=sign(i=1∑N​αi​yi​K(x,xi​)+b)
        • 일반적으로 kernel 함수로 RBF kernel, Polynomial kernel, Perceptron, Linear등 사용

Multi-class SVM의 전략

one-against-all, one-against-one, directed acyclic graph, binary tree 등

one-against-all 기법

k개의 상태를 분류하기 위해 k-1개의 svm 필요

one-against-one 기법

k개의 상태를 분류하기 위해 k(k-1)/2개의 svm 필요

결함 진단 시스템의 구성

실험 장치 및 데이터 취득

  • 결함의 종류

    • 편심, 편각, 정렬불량, 베어링 결함(내륜, 외륜, 볼, 복합), 디스크의 불평형

  • 데이터 취득

    • 베어링 하우징 상단에 부착된 가속도계 이용

    • 최대 주파수 5kHz, 데이터 수 16384개

    • 운전속도 1800rpm(30Hz)

  • 결함별 진동 신호

    • 불평형: 1x(30Hz) 성분 증가

    • 편각 정렬 불량: 1x, 2x, 3x 성분 증가

    • 편심 정렬 불량: 2x, 3x 성분 증가

    • 베어링 외륜 결함: 외륜통과주파수(104.7Hz) 증가, 고주파 대역의 공진 성분 증가(충격 때문)

    • 베어링 내륜 결함: 내륜통과주파수(162.2Hz) 증가

    • 볼 결함: 볼 자전속도의 2배 성분 142.44Hz 성분 존재

특징 추출

통계적 처리기법 이용

  • 원신호에 대한 mean, RMS, shape factor, skewness, kurtosis, crest factor, entropy estimation, entropy error

  • Daubeches-10 wavelet 변환을 level3까지 수행

특징 선택

총 32개의 파라미터를 대상으로 유효성 평가를 통해 유효성 계수가 높은 파라미터들을 선택함

방법

  1. 한 상태 집합에서 데이터간의 거리 d_i,j 계산

    di,j=1N×(N−1)∑m,n=1N∣pi,j(m)−pi,j(n)∣d_{i,j} = {1 \over {N \times \left( {N - 1} \right)}}\sum\limits_{m,n = 1}^N {|p_{i,j} \left( m \right) - p_{i,j} \left( n \right)|}di,j​=N×(N−1)1​m,n=1∑N​∣pi,j​(m)−pi,j​(n)∣
  2. 다른 데이터 집합에서 각각 데이터간의 거리 d'_i,j 계산

    di,j,=1N×(N−1)∑m,n=1N∣pai,m−pai,n∣d^, _{i,j} = {1 \over {N \times \left( {N - 1} \right)}}\sum\limits_{m,n = 1}^N {\left| {p_{ai,m} - p_{ai,n} } \right|}di,j,​=N×(N−1)1​m,n=1∑N​∣pai,m​−pai,n​∣
  3. 파라미터의 유효성 계수 계산

    αi=dai,/dai\alpha _i = d^, _{ai} /d_{ai}αi​=dai,​/dai​

유효성 계수가 큰 순서대로 8개의 특징 파라미터 사용

Simulation 결과

학습 및 테스트 데이터의 구성

  • 총 160개의 데이터

    • 학습 데이터: 각 결함마다 10개씩 총 80개 사용

    • 테스트 데이터: 나머지 80개

학습 및 테스트 결과

학습 데이터는 거의 100%의 분류율

테스트 데이터는 Gaussian RBF가 다른 kernel보다 양호하고 one-to-one이 one-against-all보다 양호함

image-20210716082827574