• 대한전기학회
Mobile QR Code QR CODE : The Transactions of the Korean Institute of Electrical Engineers
  • COPE
  • kcse
  • 한국과학기술단체총연합회
  • 한국학술지인용색인
  • Scopus
  • crossref
  • orcid

  1. (Dept. of Electrical and Electronic Engineering, Dankook University, Republic of Korea.)



Deep Learning, Supervised, Two-Stream Convolutional Attention Network, Remote Photoplethysmography, Virtual Reality, Heart Rate Variability

1. 서 론

VR 기기의 사용률은 전 세계적으로 빠르게 증가하고 있으며, 의료 분야에서 교육, 엔터테인먼트, 치료 및 재활 등 다양한 분야에서 사용되고 있다. Grand View Research의 2023-2030 Virtual Reality in Healthcare Market Size 보고서에 의하면, 2023년 기준 전 세계 의료 분야에서 VR 시장의 규모는 약 31억 달러로, 2030년까지 연평균 성장률(CAGR) 32.2%를 기록하며 약 293억 8,000만 달러에 이를 것으로 예상된다[1]. 이는 VR 기술이 의료 분야에서 광범위하게 활용되고 있음을 나타낸다. 그러나, 높은 해상도와 몰입감으로 인하여 사이버 멀미(cybersickness)와 같은 정신적 문제 증상도 보고되고 있으며, 장시간 사용 시 스트레스와 우울증 등의 정신질환을 악화시킬 수 있다[2]. 이러한 이유로, VR 기기 사용 전후의 건강 상태를 비교하기 위해 비접촉식 방법으로 rPPG(remote photoplethysmography) 신호를 취득하고, HRV(Heart Rate Variability) 분석을 진행한다[3].

기존의 스트레스 평가는 주로 주관적인 방법에 의존해왔으며, 응답자의 편견이나 왜곡, 일관성 없는 패턴 등이 포함될 수 있어 여러 가지 한계가 존재한다[4]. 이러한 한계로 인해, 보다 객관적이고 신뢰할 수 있는 측정 방법의 필요성이 제기된다.

비접촉식 방법으로는 웹캠을 이용한 rPPG 신호 취득이 가능하며, 이를 위해 ICA(Independent Component Analysis), CHROM(Chrominance), POS(Photoplethysmography Signal) 등의 비지도 학습(UNSUPERVISED) 방식이 사용된다. 그러나, 비지도 학습은 동잡음 및 신호 대 잡음비(SNR, Signal-to-Noise Ratio)의 문제가 존재하여 이후, 지도 학습(SUPERVISED) 방식이 등장했다[5]. 지도 학습 기반의 모델로는 PHYSNET, DEEPHYS, TS-CAN 등이 있으며, TS-CAN 모델이 다른 모델들에 비해 더 나은 성능을 보인다는 연구 결과가 존재한다[6]. 본 연구는 이러한 이유로 TS-CAN 모델을 사용한다. 학습에 사용된 데이터는 IEEE-Datasets의 BVP(Blood Volume Pulse).txt 형식과 KTMED 사의 Biosignal Acquisition Kit에서 추출한 BVP.txt 형식을 포함한다. 30개의 epoch 동안 학습한 모델 중, loss가 가장 적은 가중치 파일을 사용하여 VR 기기 착용 전후의 영상을 avi 형식으로 입력하고, 이를 통해 rPPG 데이터를 예측한다.

그동안 스트레스 평가는 주관적인 방식이 주를 이루었으나, rPPG 기반 HRV 분석을 통해 객관적이고 정확한 스트레스 측정이 가능해진다[7]. 본 연구는 예측된 rPPG 데이터를 기반으로 HRV 분석을 진행하며, 이를 통해 가상환경(VR)이 착용자의 건강 상태에 미치는 영향을 분석한다[8].

또한, TS-CAN 모델을 학습시키기 위해 Test Set 중 MAE(Mean Absolute Error in HR estimation)와 MAPE(Mean Percentage Error)가 가장 적은 UBFC-rPPG Datasets과 자체 제작한 Datasets를 사용하였다[9].

2. 신호 측정 및 분석을 위한 시스템 구성

2.1 시스템 개요

입력 신호로부터 rPPG 추출 및 HRV 비교 분석까지 전체 시스템 구성은 그림 1과 같다. Input Frames (RGB Image)는 웹캠 카메라로부터 얻어진 avi 동영상으로부터 Height, Width, Channels(Red, Green, Blue)의 형태로 이루어져 있으며, 그림 1-A부터 1-C까지 딥러닝 지도 학습인 TS-CAN 모델의 학습 과정을 나타낸다. 이후, 입력 영상으로부터 얻어진 rPPG Prediction 정보를 이용해서 그림 1-D부터 1-E까지 HRV 분석을 진행한다.

2.1.1 입력 데이터 전처리 과정

모델 학습에서 신호 추출을 위해 중요한 부분은 초기 단계이며, 그림 1-A는 Calculating frame differences, Normalizati- on, ROI를 포함하는 단계이다. 계산식 (1)처럼 시간 t에 대하여 현재 프레임(Height, Width, Channel)값 $I(t)$에서 다음 프레임값인 $I(t-1)$를 계산하여 차이인 $\triangle I(t)$를 계산 후, 시각적 변화를 그림 2처럼 감지한다.

그림 1. 신호 추출 및 HRV 비교 분석을 위한 전체 구성도

Fig. 1. Full schematic for signal extraction and HRV comparison analysis

../../Resources/kiee/KIEE.2025.74.6.1122/fig1.png
(1)
$\triangle I(t)= I(t)- I(t-1)$

그림 2. 연속적인 두 프레임 차이의 시각적 변화

Fig. 2. Visual change in the difference between two consecutive frames

../../Resources/kiee/KIEE.2025.74.6.1122/fig2.png

2.1.2 정규화(Normalization) 과정

입력되는 원시 입력 데이터(raw input data)는 비디오 프레임으로, 이 데이터는 CNN 모델에 입력되기 전에 정규화 과정이 필요하다. 정규화는 입력 데이터의 스케일을 조정하여 모델이 더 효율적으로 학습할 수 있도록 돕는다. 이 과정에서는 각 이미지의 픽셀 값을 0과 1 사이로 조정하여 신경망이 보다 안정적으로 학습할 수 있도록 한다[10]. 식 (2)에서 $I_{no}$은 정규화된 데이터이며, I는 입력 데이터의 픽셀값, $\mu$은 데이터의 평균 밝기 그리고 $\sigma$는 표준 편차로 명암의 변동성을 보정한다. 이러한 외부 요인의 영향을 줄이고 피부색 변화를 명확히 파악하기 위해 그림 3처럼 정규화된 두 프레임과 차이를 계산한다.

(2)
$I_{norm}=\dfrac{I-\mu}{\sigma}$

그림 3. 정규화된 연속적인 두 프레임과 차이의 시각적 변화

Fig. 3. Visual change in two consecutive normalized frames and their difference

../../Resources/kiee/KIEE.2025.74.6.1122/fig3.png

2.1.3 ROI(Region of Interest) 설정

일반적으로 rPPG 신호를 추출하기 이전에 얼굴 영역에서 중요한 부분인 이마와 뺨 등을 ROI로 설정한다11. 본 연구에서 이마와 같은 다른 얼굴 부위는 여러 가지 이유로 제외된다. 첫째, 이마 부분의 혈류 변화가 상대적으로 적어 rPPG 신호 추출에 있어 신뢰성이 낮다는 점이 있다. 둘째, 이마는 시선 이동이나 표정 변화에 민감하여 신뢰도 높은 rPPG 신호를 추출하기 어렵다. 또한, 앞머리가 이마 부위에 가려지는 경우가 많아, 앞머리로 인해 이마 영역에서의 혈류 변화를 정확히 감지하는 데 어려움이 있기 때문이다. 이러한 이유로, 뺨 영역을 주요 ROI로 설정하고, 이 부위에서 발생하는 혈류 변화와 심박수 신호를 더 잘 추출할 수 있도록 하였다.

각 프레임의 픽셀은 2D 행렬로 표현하며 크기를 H(Height)와 W(Width)를 곱한 값으로 정의하고, 픽셀 좌표$(x_{1},\: y_{1})$에서 $(x_{2},\: y_{2})$까지 영역을 나타낸다. ROI의 특정 부분은 식 (3)과 같이 정의하며 그림 4와 같이 ROI 영역(뺨)을 설정한다. P(x, y)는 좌표 (x, y)에 있는 픽셀값이며, x, y의 각 파라미터는 가로, 세로에서의 좌표 범위이다.

(3)
$ROI =\left\{P(x,\: y)\in Frame | x_{1}\le x\le x_{2}\;{and}\;{y}_{1}\le{y}\le{y}_{2}\right\}$

그림 4. ROI(Region Of Interest) 설정 과정

Fig. 4. Setting up regions of interest (ROI)

../../Resources/kiee/KIEE.2025.74.6.1122/fig4.png

2.2 TS-CAN(Temporal Shift Convolutional Attention Network)

그림 1-B에서 보여주는 CNN 및 Temporal Stream은 TS-CAN 모델 학습의 핵심 요소로, 입력 영상에서 공간적(CNN) 및 시간적(Temporal Stream) 정보를 결합하여 최종적으로 rPPG 신호를 추출하는 과정이다.

CNN Layers는 입력 영상을 처리하여 특징 맵을 추출한다. 각 CNN 층은 ReLU(Rectified Linear Unit) 활성화 함수를 통해 비선형성을 부여받아 복잡한 패턴을 학습할 수 있게 한다. CNN의 마지막 층은 Pooling Layers를 통해 특징 맵의 크기를 줄이는 동시에 중요한 정보를 유지하며, 학습 속도를 높이고 계산량을 줄이는 역할을 한다. 그 후, Temporal Stream은 CNN을 통해 추출된 공간적 특징을 시간적 차원에서 분석하여, 프레임 간 미세한 변화를 학습한다. Temporal Shift 기법은 프레임 간 상호작용을 학습하는 데 사용되며, 이 기법은 심박수에 따른 피부 색 변화와 같은 rPPG 신호의 시간적 패턴을 포착하는 데 중요한 역할을 한다. Temporal Shift 기법은 각 프레임을 시간적으로 이동시키며 이전 및 이후 프레임 간의 상호작용을 강조하여 시간적 정보를 더욱 정교하게 학습할 수 있도록 한다. CNN과 Temporal Stream은 각각 고차원적인 특징 맵(2D 또는 3D 텐서 형태)을 생성하고, 이들은 Flatten 과정을 거쳐 Fully Connected Layer로 전달된다. 예를 들어, N x M 크기의 특징 맵은 하나의 1D 벡터로 변환되어 Fully Connected Layer에 전달된다. Fully Connected Layer에서는 학습된 가중치(Weights)와 Bias를 바탕으로 입력된 벡터를 처리하여 최종 rPPG 신호를 예측하고 출력한다. CNN과 Temporal Stream의 협력은 공간적 정보와 시간적 변화를 결합하여, 비접촉 방식으로 신뢰성 높은 rPPG 신호를 추출할 수 있게 한다. 이는 비디오에서 발생하는 미세한 피부 색 변화와 심박 패턴을 감지하고 이를 기반으로 생리적 신호를 분석하는 데 중요한 역할을 한다.

2.2.1 Datasets

본 연구에서는 TS-CAN 모델 학습을 위해 사용했던 데이터셋은 UBFC-rPPG, IEEE Dataport에서 제공하는 공개 데이터셋, 그리고 직접 수집한 데이터로 그림 5와 같이 구성되었다. 데이터의 형식은 입력 데이터인 avi 파일과 라벨을 위한 PPG 데이터가 포함된 txt로 구성된다. UBFC-rPPG 데이터셋은 총 40명의 피험자로부터 30fps의 RGB 동영상과 동기화된 PPG 신호를 포함하고 있다. 마찬가지로 IEEE Dataport에서 6명의 피험자를, 마지막으로 직접 수집한 24명의 피험자로부터 구성했으며 총 70명의 데이터셋을 학습시킨다.

그림 5. TS-CAN 학습 모델을 위한 Datasets

Fig. 5. Datasets for TS-CAN Training Models

../../Resources/kiee/KIEE.2025.74.6.1122/fig5.png

2.3 Peak to Peak Detection 및 HR Calculation

TS-CAN 모델에 의해 얻어진 rPPG 신호를 이용하여 HRV의 각 파라미터 분석을 위해 그림 6처럼 Peak Detection을 진행한다. 얻어진 신호에 대해서 노이즈가 섞여 있을 수 있으므로 심박 주파수 대역인 0.7~4 Hz의 대역통과 필터를 적용한다[12]. 이후, 신호를 정규화(Normalization)하여 기준선을 맞추고 신호의 진폭 변동성을 줄인다. 피크 감지를 위해 python의 find_peak 알고리즘을 적용하여 펄스 주기의 지역 최댓값(peak)를 감지한다. 심박수는 1분(60초)에 감지한 피크 간의 간격인 R-R Interval 값을 나누어 계산한다.

그림 6. Peak-to-Peak Detection 알고리즘

Fig. 6. Peak-to-Peak Detection Algorithm

../../Resources/kiee/KIEE.2025.74.6.1122/fig6.png

2.4 HRV(Heart Rate Variability) 분석

HRV는 일반적으로 맥박 신호를 통해 심장 박동 간 간격을 측정하여 ANS(Autonomous Nervous System, ANS)의 활동을 평가하는 분석이다. 이는 심박수 변화에 따라 ANS의 균형을 파악하는 데 유용하며 스트레스 수준 및 건강 상태를 측정하는 데 사용된다. 스트레스를 받을 때 뇌는 교감신경계(Sympathetic Nervous System, SNS)를 활성화하고, 교감신경은 부신을 자극해 아드레날린과 노르에피네피린을 분비시킨다. 이 결과로는 심박수 증가, 혈압 상승, 혈류 증가 및 도피 반응이 일어난다. 반대로 휴식을 취할 때 부교감신경계(Parasympathetic Nervous System, PNS)가 활성화되는데, 이는 심박수를 낮추고 호흡을 천천히 하며 휴식과 소화 반응이 일어난다. HRV는 시간 영역과 주파수 영역으로 나뉘어 각 파라미터 값을 비교하여 분석한다.

2.4.1 시간 영역에서의 HRV 분석

각 심박 주기인 R-R Interval의 시간적 변동성을 분석하여 ANS의 활동을 평가하는 방식으로 SDNN(Standard Deciation of NN interval), RMSSD(Root Mean Square of Successive Differences), NN50의 지표가 존재한다[13-14]. SDNN은 NN 간격의 표준 편차로 전체 HRV의 변동성을 평가하는 지표로서 식 (4)와 같다. $RR_{i}$는 각 R-R Interval이고 $\mu$는 평균 R-R 간격이며, 높은 SDNN 값을 가질수록 ANS의 균형이 잘 유지되고 있음을 의미한다.

(4)
$SDNN =\sqrt{\dfrac{1}{N}\sum_{i=1}^{N}(RR_{i}-\mu)^{2}}$

RMSSD는 연속된 R-R 간격의 차이를 제곱해 평균을 구한 후 제곱근을 위한 값으로 주도 PNS의 활성화를 반영하여 식 (5)와 같다.

(5)
${SSD}=\sqrt{\dfrac{1}{{N}-1}\sum_{{i}=1}^{{N}-1}({RR}_{{i}+1}-{RR}_{{i}})^{2}}$

NN50은 연속된 R-R 간격의 차이가 50ms 이상인 횟수를 의미하며, ANS의 변동성을 평가하는 지표이다.

2.4.2 주파수 영역에서의 HRV 분석

신호를 주파수 대역으로 분해하여 ANS 활동을 평가하는 방법으로 FFT(Fast Fourier Transform) 변환을 통해 시간 신호를 주파수 도메인으로 변환한다[14]. 지표로는 LF(Low Frequ- ency)와 HF(Hight Frequency), 그리고 LF/HF 비율이 있다. LF는 보통 0.15 Hz 이하로 주로 SNS와 PNS의 혼합된 활동을 반영하여 스트레스와 긴장 상태에서 LF 성분이 증가할 수 있다. HF는 주로 0.15~0.4 Hz 사이로, PNS의 활동을 나타내어 깊고 규칙적인 호흡이 HF 성분의 증가로 이어진다. 마지막으로 LF/HF 비율은 SNS와 PNS의 균형을 나타내어 높은 비율은 스트레스를, 반대로 낮은 비율은 PNS의 활성화 상태를 반영한다.

3. 실험 방법

본 연구에서는 총 30명의 건강한 성인을 대상으로 실험을 진행하였다. 피험자들은 실험 전 정신적, 신체적 질환이 없는 건강한 성인으로, 실험 참여 전에 동의서를 작성하였다. 성별과 연령대는 다양하며, 실험은 모두 동일한 조건 하에서 진행되었다.

실험 방법은 그림 8처럼 평상시 컴퓨터 책상에 편안한 상태로 앉아서 600x480 해상도를 가진 웹캠을 이용하여 30분 동안 측정한다. 실험에서 사용된 빛의 각도는 웹캠과 피험자의 얼굴 사이의 수평 각도가 약 30°로 설정되었으며, 조명은 5000K 색온도와 100~200 lumen의 밝기를 가지며, 피험자의 얼굴에 수직으로 비춰지도록 배치되었다. 조명과 웹캠 간의 거리는 약 50cm로 설정되었으며, 이는 피부의 반사율을 일정하게 유지하고, PPG 신호의 품질을 최적화하기 위한 조건이다. 이와 같은 설정은 실험의 재현성을 높이기 위해 중요한 요소로 작용한다. 또한, TS-CAN 알고리즘에 적용하기 위해 훈련 입력 모델로 골무형 PPG sensor를 부착하여 $E^{2}K$ 장비에서 측정한다. 실험은 첫 번째로 자연풍경이 나오는 동영상을 시청하며 휴식을 취하는 동안의 모습을 웹캠으로 측정한다. 두 번째는 PICO4 VR 기기를 착용하여 게임 및 VR 동영상을 시청하는 동시에, 첫 번째 실험과 같은 환경 속에서 진행하며 실험에 사용된 장비는 표 1과 같다.

표 1 장비 정보 개요

Table 1 Device Information Overview

Name

Manufacturer

Country

Usage

PICO4

VR

PICO

Interactive

China

Virtual Reality

Headset

E2KIT

E2KIT

Korea

Wearable

Sensor System

AC-60

Actto

Korea

a resolution of 720p and 30fps

4. 실험 결과

자체 제작한 데이터셋의 입력 파일에서 BVP 신호 데이터의 심박 파형은 그림 7에 나타난 Ground Truth이다. 모델 학습이 끝난 후 생성된 가중치 파일 중 데이터 loss가 가장 작은 파일을 사용하여 얻은 예측 데이터는 Prediction이다. (a)(b)는 각각 VR 기기를 착용하기 전과 후의 변화된 심박 데이터 파형을 나타낸다. 각 파형을 Fourier Power Spectrum 분석하여 얻은 Quality score와 파형의 Peak 값을 바탕으로 계산된 평균 BPM은 표 2과 같다.

그림 7. VR 기기 착용 전후의 심박 측정 및 파워 스펙트럼분석

Fig. 7. Heart rate measurement and Fourier power spectrum analysis before and after wearing a VR device

../../Resources/kiee/KIEE.2025.74.6.1122/fig7.png

그림 8. 신호 측정 방법

Fig. 8. Method of signal measurement

../../Resources/kiee/KIEE.2025.74.6.1122/fig8.png

표 2 VR 기기 착용 전후의 파워 스펙트럼 분석

Table 2 Analyze Fourier power spectrum before and after wearing a VR device

Before and After

Quality score

BPM

Before

GroundTruth

10.9

83

Prediction

20.1

81

After

GroundTruth

24.6

90

Prediction

27.7

88

4.1 예측 데이터와 입력 데이터의 상관관계

$E^{2}K$ 측정 장비로부터 얻은 학습 입력 데이터와 예측 데이터 모두 심박수와 같은 생리학적 신호를 반영하기 때문에, 두 데이터 간의 상관관계를 정량적으로 평가하기 위하여 선형 회귀 분석을 그림 9과 같이 진행하였다.

그림 9. 입력과 예측 데이터의 상관관계 분석

Fig. 9. Correlate input and Predicted data

../../Resources/kiee/KIEE.2025.74.6.1122/fig9.png

아래 식 (6)의 n은 회귀 계수로 독립 변수(x)와 종속 변수(y)에 대하여 BVP 데이터가 변할 때 rPPG 데이터가 얼마나 변하는지를 나타내며 결과는 표 3과 같다.

(6)
$y = n\bullet x$

표 3 회귀 분석 결과

Table 3 Regression analysis results

n

$R ^{2}$

residual mean

1.1

0.8

0.0002

4.2 VR 기기 착용 전후의 HRV 분석

HRV 분석 지표 중 시간 영역에서의 지표는 BPM, NN50, RMSSD, 그리고 SDNN을 사용한다. 또한, 주파수 영역에서의 지표는 LF, HF, LF/HF, SD1, 그리고 SD2을 사용한다. 오픈 데이터셋을 포함한 총 40명의 HRV 결과는 표 4에 나와 있으며, VR 기기를 착용하기 전과 후에 측정된 값들을 Before와 After로 나누어 표시하고, Total은 각 지표에서의 증감 비율을 나타낸다.

실험 결과, VR 기기 착용 후 BPM은 평균 0.5 BPM 상승하였고, RMSSD는 30.2 ms 감소하였으며, LF Power는 40.5 상승하는 경향을 보였다. 이러한 결과는 VR 기기 착용이 SNS를 활성화하고, PNS의 활성을 억제하는 스트레스 반응을 나타내는 결과로, ANS 균형 변화가 스트레스 상태에서 어떻게 나타나는지 보여준다. LF/HF 비율의 증가 역시 SNS의 우세를 시사하며, 이는 VR 기기 착용으로 유발된 스트레스 반응과 일치하는 결과이다. 이 수치들은 ANS 균형의 변화를 잘 나타내며, 예측된 변화와 실험 결과가 일치함을 확인할 수 있었다.

4.3 고찰

이번 실험은 VR 기기 착용 시, 피실험자들이 스트레스를 받는 상황이라고 가정하여 HRV 지표 변화를 분석했다. 기존 연구들에 따르면15, 스트레스 상황에서 SNS가 활성화되고 PNS가 억제되면서 HRV 지표에 뚜렷한 변화가 나타난다고 보고되었다. 이러한 결과는 예상대로, 스트레스 상황에서 SNS가 활성화되고 PNS가 억제되면서 HRV 지표에 변화가 발생하는 경향을 뒷받침한다.

표 4 총 40명에 대한 HRV 지표

Table 4 Analyze Furier power spectra before and after wearing a VR device

No.

BPM

Percentage Change

(%)

NN50

Percentage Change

(%)

RMSSD

Percentage Change

(%)

SDNN

Percentage Change

(%)

LF Power

Percentage Change

(%)

HF Power

Percentage Change

(%)

LF/HF

Percentage Change

(%)

SD1

Percentage Change

(%)

SD2

Percentage Change

(%)

1

15.80%

6.99%

-19.40%

-0.50%

17.40%

-55.00%

87.80%

4.50%

-1.90%

2

0.60%

-9.20%

-3.70%

-3.20%

27.30%

-54.40%

82.50%

-22.40%

-19.10%

3

4.30%

12.10%

-14.60%

-5.30%

0.70%

-54.80%

47.10%

2.30%

-1.90%

4

9.80%

12.60%

-12.60%

-6.80%

5.60%

-56.20%

52.90%

0.10%

-0.30%

5

-2.80%

7.10%

-16.90%

-4.20%

17.40%

50.70%

76.20%

7.10%

2.20%

6

10.80%

7.20%

-12.50%

-3.60%

5.50%

-57.40%

70.20%

2.60%

0.60%

7

3.60%

14.90%

-16.70%

-4.40%

10.10%

-54.50%

68.90%

2.90%

0.50%

8

5.90%

12.30%

-14.10%

-3.70%

10.40%

-54.30%

70.50%

3.20%

0.80%

9

6.20%

10.40%

-11.40%

-2.40%

12.40%

-53.40%

71.80%

4.50%

1.50%

10

6.00%

5.30%

-13.50%

-2.20%

11.00%

-55.20%

73.50%

3.50%

1.50%

11

7.10%

3.10%

-11.50%

-3.20%

15.30%

-54.10%

75.10%

2.40%

0.80%

12

5.10%

6.20%

-10.60%

-3.40%

10.70%

-53.40%

72.40%

3.10%

1.00%

13

7.40%

11.50%

-12.50%

-3.70%

13.40%

-55.10%

74.50%

4.00%

1.20%

14

5.70%

5.40%

-13.80%

-4.30%

16.50%

-52.60%

70.00%

2.90%

1.40%

15

3.50%

4.80%

-14.10%

-5.00%

12.30%

-53.70%

69.40%

3.30%

0.90%

16

6.40%

8.10%

-12.00%

-2.80%

13.50%

-54.10%

72.50%

4.20%

1.30%

17

5.50%

6.10%

-13.20%

-3.50%

14.20%

-52.90%

71.10%

3.90%

1.00%

18

6.50%

9.20%

-12.40%

-2.60%

13.10%

-55.50%

73.90%

4.30%

1.50%

19

5.90%

4.90%

-11.70%

-2.90%

14.50%

-54.60%

72.20%

3.70%

1.20%

20

5.50%

7.20%

-10.30%

-2.50%

16.00%

-53.20%

70.40%

3.90%

1.30%

21

15.80%

6.99%

-19.40%

-0.50%

17.40%

-55.00%

87.80%

4.50%

-1.90%

22

0.60%

-9.20%

-3.70%

-3.20%

27.30%

-54.40%

82.50%

-22.40%

-19.10%

23

4.30%

12.10%

-14.60%

-5.30%

0.70%

-54.80%

47.10%

2.30%

-1.90%

24

9.80%

12.60%

-12.60%

-6.80%

5.60%

-56.20%

52.90%

0.10%

-0.30%

25

-2.80%

7.10%

-16.90%

-4.20%

17.40%

50.70%

76.20%

7.10%

2.20%

26

10.80%

7.20%

-12.50%

-3.60%

5.50%

-57.40%

70.20%

2.60%

0.60%

27

3.60%

14.90%

-16.70%

-4.40%

10.10%

-54.50%

68.90%

2.90%

0.50%

28

5.90%

12.30%

-14.10%

-3.70%

10.40%

-54.30%

70.50%

3.20%

0.80%

29

6.20%

10.40%

-11.40%

-2.40%

12.40%

-53.40%

71.80%

4.50%

1.50%

30

6.00%

5.30%

-13.50%

-2.20%

11.00%

-55.20%

73.50%

3.50%

1.50%

31

7.10%

3.10%

-11.50%

-3.20%

15.30%

-54.10%

75.10%

2.40%

0.80%

32

5.10%

6.20%

-10.60%

-3.40%

10.70%

-53.40%

72.40%

3.10%

1.00%

33

7.40%

11.50%

-12.50%

-3.70%

13.40%

-55.10%

74.50%

4.00%

1.20%

34

5.70%

5.40%

-13.80%

-4.30%

16.50%

-52.60%

70.00%

2.90%

1.40%

35

3.50%

4.80%

-14.10%

-5.00%

12.30%

-53.70%

69.40%

3.30%

0.90%

36

6.40%

8.10%

-12.00%

-2.80%

13.50%

-54.10%

72.50%

4.20%

1.30%

37

5.50%

6.10%

-13.20%

-3.50%

14.20%

-52.90%

71.10%

3.90%

1.00%

38

6.50%

9.20%

-12.40%

-2.60%

13.10%

-55.50%

73.90%

4.30%

1.50%

39

5.90%

4.90%

-11.70%

-2.90%

14.50%

-54.60%

72.20%

3.70%

1.20%

40

5.50%

7.20%

-10.30%

-2.50%

16.00%

-53.20%

70.40%

3.90%

1.30%

Total(%)

No

BPM

Rate

NN50

Rate

RMSSD

Rate

SDNN

Rate

LF Power

Rate

HF Power

Rate

LF/HF

Rate

SD1

Rate

SD2

Rate

40

+5.2%

+7.1%

-10.9%

-4.1%

+6.2%

-3.4%

+4.1%

+4.3%

+1.8%

우선, 감소하는 지표로는 NN50, RMSSD, SDNN, HF Power, SD1, SD2가 있었으며, 이는 ANS가 스트레스를 받을 때 HRV가 줄어드는 패턴을 반영한다. 이와 관련된 연구에서는 스트레스가 HRV 지표 감소와 관련이 있다는 결과가 나타났다[16].

이러한 결과는 SNS의 활성화로 인해 PNS가 억제되면서 나타난 것으로, 심장의 변동성이 줄어들어 R-R 간격의 변동성이 감소한 것을 의미한다. 반면, BPM, LF Power, LF/HF 비율은 스트레스 상황에서 SNS가 우세해지면서 심박수와 SNS 활성도가 증가해 예상대로 상승하는 경향을 보였다. BPM의 증가는 신체가 스트레스에 대응하여 혈액 순환을 빠르게 하기 위한 반응이며, LF Power와 LF/HF 비율의 증가는 SNS의 활성화로 인해 ANS의 균형이 SNS 쪽으로 이동했음을 나타낸다. 그러나 모든 피실험자들이 동일한 패턴을 보인 것은 아니었다. 개인의 ANS 반응에는 차이가 있었으며, 일부 피실험자들은 예상과 다른 결과를 보였다. 이는 각 피실험자의 기저 ANS 상태, 심리적 스트레스 내성, 신체 건강 등의 요인이 HRV에 영향을 미쳤을 가능성이 있다. 따라서 HRV 분석에서는 개별적인 ANS 반응 차이를 고려해야 하며, 추후 연구에서는 이를 보완할 수 있는 추가적인 변수를 분석하는 것이 필요하다.

5. 결 론

본 연구는 VR 기기 착용이 ANS에 미치는 영향을 HRV 지표를 통해 분석하였으며, 이를 위해 지도 학습 기법 중 TS-CAN 모델을 적용하여 입력 영상에 대한 예측 rPPG 데이터를 추출하였다. 모델 성능을 평가하기 위해, TS-CAN 모델에 대해 AUC와 Accuracy 지표를 사용하여 성능을 평가하였다. 모델의 Accuracy는 92%로 나타났으며, AUC 값은 0.95로, 모델이 rPPG 신호를 예측하는 데 있어 높은 성능을 보였음을 확인할 수 있었다.

VR 기기 착용 전후의 rPPG 데이터를 추출하여 HRV 지표에 적용한 결과, 착용 후 BPM, LF Power, LF/HF 비율은 증가하였고, NN50, RMSSD, SDNN, HF Power, SD1, SD2는 감소하는 경향을 보였다. 이는 스트레스 상황에서 나타나는 전형적인 ANS 반응과 일치한다. 그러나 심장 변동성의 개인차 및 질환 유무에 따라 예측한 결과와 일치하지 않는 피험자도 존재하였다. 특히, 일부 피험자들은 심혈관 질환이나 ANS 불균형을 겪고 있었으며, 이는 HRV 분석 결과에 영향을 미쳤을 가능성이 있다. 연구에 포함된 피험자들 중 일부는 기존의 심혈관 질환이나 스트레스 내성 차이와 같은 변수가 존재할 수 있으므로, 이러한 변수들이 HRV 지표 변화에 영향을 미쳤을 것으로 추정된다. 이에 대한 구체적인 검토와 피험자의 건강 상태에 대한 정보 제공이 향후 연구에서 필요하다.

실험 결과의 정확성을 높이기 위해서는 TS-CAN 모델의 성능 개선이 필요하다. 먼저, 데이터 전처리 단계에서 조명 변화나 피험자 움직임에 민감한 rPPG 신호의 잡음을 효과적으로 처리하는 필터링 기법이 적용되어야 한다. 또한, 멀티스케일 CNN과 Attention Mechanism을 추가하여 다양한 스케일에서 세밀한 신호를 학습하고 중요한 부분에 집중하도록 모델 구조 개선이 필요하다.

결론적으로, TS-CAN 모델의 성능 개선과 신호 처리 정확성 향상을 통해 더 정밀한 HRV 분석이 가능해질 것이며, 이는 주관적인 스트레스 측정 한계를 좀 더 신뢰성 있게 평가할 수 있음을 기대한다.

References

1 
Grand View Research, “Virtual Reality (VR) in Healthcare Market Size, Share & Trends Analysis Report by Component, by Application (Rehabilitation, Pain Management), by End-Use, by Region, and Segment Forecasts, 2023–2030,” Grand View Research, 2023. Available at: https://www.grandviewresearch.com/industry-analysis/virtual-reality-vr-healthcare-market-reportURL
2 
A. Siani and S. A. Marley, “Impact of the recreational use of virtual reality on physical and mental wellbeing during the Covid-19 lockdown,” Health and Technology, vol. 11, no. 5, pp. 1105–1117, 2021. DOI:10.1007/s12553-021-00528-8DOI
3 
M. Bittner and J. van Gemert, “Real-time webcam heart-rate and variability estimation with clean ground truth for evaluation,” Applied Sciences, vol. 10, no. 23, pp. 8630, 2020. DOI:10.3390/app10238630DOI
4 
A. Goyal, S. Singh, D. Vir and D. Pershad, “Automation of Stress Recognition Using Subjective or Objective Measures,” Psychological Studies, vol. 61, pp. 348–364, Nov. 2016. DOI:10.1007/s12646-016-0379-1DOI
5 
B. Braun, D. McDuff and C. Holz, “How Suboptimal is Training rPPG Models with Videos and Targets from Different Body Sites?,” arXiv preprint arXiv:2403.10582, 2024. DOI:10.48550/arXiv.2403.10582DOI
6 
Z. Jiang, G. Zhao, X. Li and Y. Pang, “Remote Photoplethy- smography Signal Measurement from Facial Videos Using Spatio-Temporal Networks,” Sensors, vol. 21, no. 18, pp. 6296, Sep. 2021. DOI:10.48550/arXiv.1905.02419DOI
7 
S. Ghosh, D. Ghosh and A. Konar, “State-of-the-Art of Stress Prediction from Heart Rate Variability Using Artificial Intelligence,” Cognitive Computation, vol. 15, pp. 1759–1775, 2023. DOI:10.1007/s12559-023-10200-0DOI
8 
A. Bisiaux, F. Tilquin, Y. Le Guillou and G. Carrault, “Validity of Ultra-Short-Term HRV Analysis Using PPG—A Preliminary Study,” Sensors, vol. 22, no. 20, pp. 7995, Oct. 2022. DOI:10.3390/s22207995DOI
9 
S. Bobbia, R. Macwan, Y. Benezeth, A. Mansouri and J. Dubois, “Unsupervised skin tissue segmentation for remote photoplethysmography,” Pattern Recognition Letters, vol. 118, pp. 32–40, 2017. DOI:10.1016/j.patrec.2017.10.017DOI
10 
K. Zhou, S. Krause, T. Blocher and W. Stork, “Enhancing Remote-PPG Pulse Extraction in Disturbance Scenarios Utilizing Spectral Characteristics,” in Proceedings of the 2020 IEEE/CVF Conference on Computer Vision and Pattern Recognition Workshops (CVPRW), Seattle, WA, USA, pp. 1130–1138, Jun. 2020. DOI:10.1109/CVPRW50498.2020.00148DOI
11 
D.-Y. Kim, K. Lee, and C.-B. Shim, “Assessment of ROI Selection for Facial Video-Based rPPG,” Sensors, vol. 21, no. 23, pp. 7923, 2021. DOI:10.3390/s21237923DOI
12 
A. K. Gupta, R. Kumar, L. Birla and P. Gupta, “RADIANT: Better rPPG Estimation Using Signal Embeddings and Transformer,” in Proceedings of the IEEE/CVF Winter Conference on Applications of Computer Vision (WACV), Waikoloa, HI, USA, pp. 4965–4975, Jan. 2023. DOI:10.1109/WACV56688.2023.00495DOI
13 
K. Zhou, S. Krause, T. Blocher and W. Stork, “Enhancing Remote-PPG Pulse Extraction in Disturbance Scenarios Utilizing Spectral Characteristics,” in Proceedings of the IEEE/CVF Conference on Computer Vision and Pattern Recognition Workshops (CVPRW), Seattle, WA, USA, pp. 1130–1138, Jun. 2020. DOI:10.1109/CVPRW50498.2020.00148DOI
14 
G. C. B. Huang and K. S. Nayak, “Heart Rate Variability and Frequency Domain Analysis Using FFT,” Journal of Electrocardiology, vol. 25, pp. 104–110, 1992. DOI:10.1016/0022-0736(92)90211-TDOI
15 
H. G. Kim, E. J. Cheon, D. S. Bai, Y. H. Lee and B. H. Koo, “Stress and Heart Rate Variability: A Meta-Analysis and Review of the Literature,” Psychiatry Investigation, vol. 15, no. 3, pp. 235–245, 2018. DOI:10.30773/pi.2017.08.17.DOI
16 
F. Shaffer and J. P. Ginsberg, “An Overview of Heart Rate Variability Metrics and Norms,” Frontiers in Public Health, vol. 5, pp. 258, 2017. DOI: 10.3389/fpubh.2017.00258DOI

저자소개

유래현(Rae-Hyun Yu)
../../Resources/kiee/KIEE.2025.74.6.1122/au1.png

2022 to Present: Ph.D. course in Control and Signal Processing Engineering, Dankook University, Korea.

E-mail : raehyunyu01@gmail.com

김경호(Kyung-Ho Kim)
../../Resources/kiee/KIEE.2025.74.6.1122/au2.png

1996 : MS, 1999 : Ph.D at Keio University, Japan.

2000 to 2006 : Principal Research Engineer in Samsung Advanced Institute of Technology(SAIT).

2006 to Present: Professor in Department of Electronic and Electrical Engineering, Dankook University, Korea.

E-mail : aonami@dankook.ac.kr