Prediction of RUL with Deep Convolution Nueral Network
Last updated
Last updated
Lei Ren, Yaqiang Sun, Hao Wang, Lin Zhang, IEEE Access, 2018
스펙트럼 차원(fft)과 진동 신호 차원은 2560 차원
스펙트럼을 64개의 블록으로 나눔
각 블록의 주파수 대역에서 maximum amplitude를 해당 주파수 대역의 eigenvalue로 선택
64개의 Spectrum-Principal-Energy-Vector가 얻어짐
각각의 time point t에서는 원하는 t-63, t-62, ..., t data point를 사용(총 64개)
(time에서 특정 주파수 신호의 변화를 사용)
feature map 크기가 64*64가 됨
CNN 결과 360차원 벡터 얻음
RUL 단계에서는 360차원 벡터를 DNN의 input으로 사용
기존의 time domain feature, freq. domain feature는 정보 손실이 큼
하지만 2560 차원의 진동 신호를 전부 input으로 쓰기엔 너무 큼
진동 신호에는 noise도 많음
-> Spectrum-Principal-Energy-Vector 제안
where k = 1, 2, 3, ..., K
K = 64
X_SPEV is a 64-dimensional column vector
여러 번 실험해서 찾은 가장 적합한 structure
Relu 사용
RUL 예측에 필요한 정보만 남김
fully connected layer에서 얻은 feature vector와 eigenvalue로 regression prediction 수행
RUL이 discrete하게 나오는 경우 필요함
running time과 RUL은 linear한 관계
-> 10개의 point씩 linear regression함
spectrum 64등분 하고 local maximum 찾기
CNN의 input으로 사용
어두운 부분은 에너지가 낮고 밝은 부분은 높음
가로는 freq., 세로는 time
training loss: mean squared error
epoch 100
Analysis of feature extraction methods
Spectral Mean Energy Vector와 비교
주파수 영역에서 64등분 할 때 평균값 사용
Contrast with traditional features
시간-주파수 영역의 feature와 비교
테스트하기 위해 SVM과 DNN 사용
동일한 feature로 비교
DNN, SVM과 비교
다른 feature로 비교
wavelet 변환으로 얻은 time-freq. feature 사용