• 대한전기학회
Mobile QR Code QR CODE : The Transactions of the Korean Institute of Electrical Engineers
  • COPE
  • kcse
  • 한국과학기술단체총연합회
  • 한국학술지인용색인
  • Scopus
  • crossref
  • orcid

  1. (Dept. of Interdisciplinary Graduate Program for BIT Medical Convergence, Kangwon National University, Republic of Korea.)



Canine Dermatology, Deep Learning, Data Augmentation, Transformer Model, Medical Image Analysis

1. 서 론

반려동물은 전 세계적으로 일상생활에서 흔히 볼 수 있을 만큼 인간에게 친숙한 존재이다. 반려동물을 양육하는 가구는 지속적으로 증가하는 추세이며 그중 반려견을 양육하는 가구가 대부분을 차지한다. 포브스의 ‘Pet Ownership Statistics 2024’에 따르면 미국 가구의 66%에 해당하는 8,690만 가구가 반려동물을 양육하고 있으며 그중 74.9%에 해당하는 6,510만 가구가 반려견을 양육하고 있다[1]. 또한, KB금융그룹의 ‘2023년 한국 반려동물 보고서’에 따르면 2022년 말 기준, 한국의 반려동물을 양육하는 가구는 552만 가구로 2020년 말 대비 2.8%가 증가했다[2].

그림 1은 통계청 인구주택총조사와 설문조사 기반 추정 결과로 반려동물 종류별 양육 비율을 보여준다. 1위는 반려견으로, 2년 새에 3.2% 감소하였으나 2위인 고양이의 두 배 이상으로 높은 비율을 차지한다. 기타 반려동물에는 금붕어, 거북이 등 다양한 동물이 포함된다.

이러한 통계를 통해 반려동물 양육 가구 수가 지속적으로 증가하는 추세이며, 그중 반려견을 양육하는 가구의 비율이 압도적으로 높은 것을 알 수 있다.

그림 1. 반려동물 종류별 양육 비율

Fig. 1. Distribution of Pet Ownership by Species

../../Resources/kiee/KIEE.2025.74.1.142/fig1.png

그러나 양육자들이 부담해야 하는 반려견의 치료비가 증가하고 있다. 한국 반려동물 보고서에 따르면, 반려견의 치료비는 2021년 50.5만 원에서 2023년 78.2만 원으로 상승하였다. 주요 치료비 지출 항목으로는 정기 검진을 제외하고 피부 질환이 39.6%로 가장 높았다. 자세한 통계는 그림 2에 나타내었다.

그림 2. 반려동물 치료비 항목

Fig. 2. Categories of Pet Medical Expenses

../../Resources/kiee/KIEE.2025.74.1.142/fig2.png

이처럼 반려견에게 가장 흔히 발생하는 질병은 피부 질환이며, 이는 양육자에게 치료비로 인한 경제적인 부담을 줄 수 있다. 또한, 양육자가 이러한 질환의 심각성을 인식하지 못하여 병원에 내원하는 기간을 놓칠 경우, 증상을 악화시킬 수 있다[3]. 반려견의 피부 질환을 조기에 발견하여 치료하면 질환의 악화를 막고 치료 비용을 절감할 수 있으며 반려 가구의 삶의 질을 향상시킬 수 있다. 이러한 이유로 최근 머신러닝과 딥러닝 기술을 활용한 반려견 피부 질환 진단 연구가 활발히 진행되고 있다. 다양한 접근법을 통해 높은 성능을 보이는 모델들이 개발되고 있으며, 이는 반려동물의 건강 관리에 큰 도움을 줄 수 있다.

반려견의 발바닥 이미지를 통해 질병을 탐지하기 위한 컴퓨터 비전 모델 연구가 진행되었다[4]. Tiny YOLOv7 모델을 활용하여 발바닥 이미지에서 정상, 피부염, 종양을 탐지한 결과 mAP 97.3%의 성능을 얻었다. 또한, 데이터 증대를 활용하여 반려견 피부 질환을 진단하는 모델도 개발되었다[5]. 반려견의 박테리아성 피부 질환과 진균 감염, 과민 알레르기성 피부 질환 이미지를 다중 스펙트럼 영상 장치를 통해 수집하였으며, 회전 및 이동을 적용하여 1,000배 증대하였다. DenseNet과 InceptionNet 모델로 학습시킨 결과 89%의 Accuracy를 얻었다. 추가적으로, 데이터 전처리를 적용한 딥러닝 모델 학습을 통해 개 피부의 원형 세포 종양을 분류하는 알고리즘도 개발되었다[6]. 색상 조정 및 핵 세포 분할을 포함한 데이터 전처리 후 AlexNet으로 학습한 결과 Accuracy 기준 91.66%의 성능을 얻었다. 머신러닝을 기반으로 하여 개의 피부 및 피하 종양을 진단하는 알고리즘도 개발되었다[7]. 45마리의 개로부터 수집된 69개의 종양을 Vista 시스템을 통해 가열하여 열 데이터를 수집하였다. 수집된 데이터를 머신러닝 모델인 SVM(Support Vector Machine) 분류기를 통해 학습하여 90%의 Accuracy를 얻었다. 추가적으로, 사람의 피부를 휴대전화로 촬영한 컬러 이미지를 통해 실시간으로 피부 질환을 진단하는 연구도 진행되었다[8]. MobileNet을 기반으로 하여 지루성 피부염, 로사세아, 혈관종, 건선, 여드름에 대해 학습한 결과 94.76%의 성능을 얻었다.

위와 같은 연구들은 다양한 피부 질환에 대해 높은 성능을 보이는 진단 모델을 제안하고 있으며, 이는 반려견의 건강 관리와 치료에 중요한 기여를 하고 있다. 기존 연구들은 주로 전문적인 장비를 사용하여 데이터를 수집해왔지만 최근에는 휴대전화 카메라로 피부 질환을 진단하는 연구도 진행되고 있다. 본 연구는 이러한 접근법을 반려견의 피부 질환 진단에 적용하여 휴대전화 카메라로 촬영한 반려견의 피부 질환 이미지를 사용해 가정에서도 쉽게 접근할 수 있는 방법을 제안한다. 이는 반려견의 피부 질환을 빠르고 편리하게 진단할 수 있도록 하여 널리 활용될 수 있는 가능성을 제공한다. 이러한 배경에서 본 연구는 딥러닝을 기반으로 한 피부 질환 진단 모델 개발을 목표로 한다. 본 연구에서는 ViT(Vision Transformer) 모델을 기반으로 RandAugment와 Patterned-GridMask(PG) 기법을 적용하여 데이터의 다양성과 일반화 성능을 향상시키고, AdamW를 사용하여 모델 학습을 최적화하였다.

2. 데이터 수집

AI-HUB의 공개 데이터셋인 “반려동물 피부 질환 데이터”를 학습에 활용하였다[9]. AI-HUB는 국내 인공지능 데이터 활용 플랫폼으로, 한국정보화진흥원(NIA)에서 운영하며 다양한 산업 분야에서의 AI 기술 개발을 촉진하기 위해 설립되었다. 다양한 분야의 데이터셋을 제공하며, 이를 통해 인공지능 모델을 개발하고 연구할 수 있도록 지원한다.

2.1 데이터셋 구성

해당 데이터셋은 반려견과 반려묘의 이미지를 포함한 것으로, 본 연구에서는 반려견 이미지만을 사용하여 학습을 진행하였다. 데이터는 총 50종의 반려견 피부를 해상도 1920×1080의 휴대전화 카메라로 촬영한 이미지 데이터와 반려견의 정보 및 피부 질환의 위치 정보가 포함된 라벨링 데이터로 구성되었다. 학습 데이터로는 전체 데이터셋 중 질환이 없는 정상 이미지와 염증성 질환에 해당하는 비정상 이미지를 선별하여 재구성하였으며, 이 과정에서 수의학 전문의의 검증을 통해 데이터셋의 신뢰성을 확보하였다.

구성된 데이터셋을 학습하기 위해 Train, Validation, Test 비율을 6:2:2로 분배하여 Train 데이터를 통해 업데이트된 모델을 Validation 데이터로 검증한 손실값이 충분히 수렴하였을 때 학습이 종료되는 방식을 채택하였다. 이러한 과정으로 학습된 모델을 Test 데이터를 활용하여 성능을 평가할 수 있도록 하였다. 라벨링 데이터를 참고하여 동일한 개체가 함께 포함되지 않도록 반려견의 종, 나이, 성별이 같은 데이터를 분리하였으며, 교차검증(k=3)을 적용하여 성능의 평균을 계산함으로써 모델의 신뢰성을 향상하였다. 교차검증은 학습에 사용되는 데이터셋과 검증에 사용되는 데이터셋이 중복되지 않도록 추가 구성하여 각 조합의 평균 성능을 도출하는 검증 방식을 의미한다. 교차검증을 위한 분배 과정에서 동일한 개체로 판단되는 데이터의 수가 일정하지 않아 각 K 이미지 분포의 차이가 발생하였다. 데이터셋의 자세한 구성은 표 1에 나타내었다. ABN(Abnormal)과 NOR(Normal)은 각각 염증성 질환과 정상 이미지를 의미하며, Validation은 Valid로 표기하였다.

표 1 데이터 구성

Table 1 Data Composition

Class

Train

Valid

Test

Total

K=1

ABN

4,524

1,566

1,654

7,744

NOR

4,729

1,470

1,545

7,744

Total

9,253

3,036

3,199

15,488

K=2

ABN

4,646

1,548

1,550

7,744

NOR

4,646

1,548

1,550

7,744

Total

9,292

3,096

3,100

15,488

K=3

ABN

4,646

1,548

1,550

7,744

NOR

4,646

1,548

1,550

7,744

Total

9,292

3,096

3,100

15,488

2.2 데이터 증대

본 연구에서 사용된 반려동물 피부 질환 데이터는 일정한 환경에서 촬영된 이미지로 구성되어 있다. 데이터의 일관된 조건 때문에 모델이 다양한 환경과 상황에서 발생할 수 있는 새로운 데이터를 효과적으로 분류하는 데 한계가 있을 수 있다. 이러한 문제를 해결하고 모델의 학습 능력을 향상시키기 위해, 데이터의 다양성을 높여 일반화 성능을 강화하는 기법이 중요하다. 본 연구에서는 RandAugment를 적용하여 데이터의 다양성을 증가시킴으로써, 모델이 다양한 이미지를 학습하고 더 나은 성능을 발휘할 수 있도록 하였다.

또한, 반려견 피부 질환 이미지 중 크기가 작거나 명확하게 드러나지 않아서 질환으로 판단하기 모호한 병변은 일반적인 병변에 대해 학습한 모델이 명확하게 분류하기 어려울 수 있다. 따라서, GridMask를 기반으로 한 Patterned-GridMask 기법을 적용하여 병변이 확연히 드러나지 않은 이미지에 대해서도 명확한 분류가 가능하도록 모델의 강건성을 강화하였다.

본 연구에서 활용된 이러한 증대 기법들은 각 정책별로 배치마다 확률을 부여하여 데이터를 변형하는 방식으로, 원본 데이터 또한 학습할 수 있도록 하였으며 데이터 장수의 변화가 없어 적은 연산량으로도 데이터의 다양성을 향상시킬 수 있다.

또한, 본 연구를 통해 개발된 모델이 진단할 실제 데이터는 증대가 적용되지 않기 때문에 원활한 성능 검증을 위해 학습 데이터에만 증대를 적용하여 증대가 적용되지 않은 검증 데이터 및 테스트 데이터를 통해 성능 평가를 진행하였다.

2.2.1 RandAugment

RandAugment는 Google Brain에서 발표한 증대 기법으로, 증대의 수와 증대 강도만을 최적화한다[10]. 이는 증대의 적용 확률, 강도, 비율 등 다수의 파라미터를 최적화해야 하는 기존 증대 정책에 비해 낮은 복잡성을 가지며, 적은 연산량으로도 유사한 성능을 보인다.

본 연구에서는 색 반전, CutOut, 자동 대비 조정 등을 포함한 15가지의 이미지 변환 작업을 활용하였다. 증대 의 수는 2로 설정하였으며 증대 강도는 에폭마다 0~10의 수치 중 하나를 무작위로 지정하여 다양하게 변환된 이미지에 대해서도 모델이 강건하게 학습할 수 있도록 하였다. 이와 같은 증대 기법을 통해 다양한 조건에서의 모델 성능을 평가하고, 실제 환경에서의 적용 가능성을 향상하였다. 그림 3은 RandAugment의 적용 예시를 보여준다. (a)는 원본 이미지, (b)는 회전과 자동 대비 조정이 적용된 이미지, (c)는 픽셀 임계값 반전, 선명도 조정이 적용된 이미지를 나타낸다.

그림 3. RandAugment 적용 예시(a: 원본, b: 회전 및 자동 대비 조정 적용, c: 픽셀 임계값 반전 및 선명도 조정 적용)

Fig. 3. Example of RandAugment Application(a: Original, b: Rotation and Auto Contrast Adjustment Applied, c: Pixel Threshold Inversion and Sharpness Adjustment Applied)

../../Resources/kiee/KIEE.2025.74.1.142/fig3.png

2.2.2 Patterned-GridMask

기존 GridMask는 사각형 마스크를 균일하게 분포하여 이미지 내 특정 영역을 삭제한다[11]. 마스크란 이미지의 정보를 제거하기 위해 특정 픽셀을 0으로 처리한 영역을 의미한다. 이러한 마스크 기법을 통해 모델이 객체의 일부가 가려진 이미지에 대해 학습하여 모호한 특징이 포함된 이미지에 대해서도 원활한 분류가 가능하다. GridMask 적용 예시를 그림 4에 나타내었다.

그림 4. GridMask 적용 예시

Fig. 4. Example of GridMask Application

../../Resources/kiee/KIEE.2025.74.1.142/fig4.png

그러나 이러한 삭제 기법을 반려견 피부 질환 데이터에 적용할 경우, 마스크에 의해 작은 병변이 가려질 수 있다. 이와 같은 문제를 보완하기 위해 개발된 Patterned-GridMask는 균일하게 배치된 사각형 마스크의 픽셀을 1픽셀 단위로 0과 1을 번갈아 적용한다. 이러한 방식을 통해 마스크에 의해 작은 병변이 가려지더라도 최소한의 정보를 보존할 수 있다[12].

사각형 마스크 영역의 크기는 d1, d2, ratio에 의해 정해지며 마스킹 되는 데이터의 비율은 확률(probability)에 의해 결정된다. 큰 사각형의 한 변의 길이가 d1과 d2 사이 범위 내 무작위로 정해지고 ratio를 통해 그 변에서 마스킹이 되지 않는 부분의 비율을 설정한다. 본 연구에서는 d1, d2, ratio를 48, 96, 0.5로 지정하여 마스크의 크기를 결정하였으며, 전체 데이터에 마스킹을 적용하지 않도록 확률 파라미터를 0.7로 설정하여 데이터당 70%의 확률로 마스킹이 적용되도록 하였다. 그림 5를 통해 Patterned-GridMask 적용 예시를 나타내었다.

그림 5. Patterned-GridMask 적용 예시

Fig. 5. Example of Patterned-GridMask Application

../../Resources/kiee/KIEE.2025.74.1.142/fig5.png

3. 학습 모델 및 최적화 알고리즘 선정

3.1 딥러닝 학습 모델

딥러닝은 인공 신경망을 사용해 데이터를 기반으로 모델을 학습하는 기술이다. 학습된 모델을 통해 자동으로 복잡한 패턴을 인식하고 문제를 해결할 수 있다. 이 기술은 이미지 인식, 자연어처리, 음성 인식 등 다양한 분야에서 활용되고 있으며, 딥러닝 모델을 통해 대규모 데이터를 처리할 수 있어 기존 머신러닝 기법들에 비해 더욱 정교한 예측과 분석이 가능하다.

3.1.1 ViT(Vision Transformer)

ViT(Vision Transformer)는 Google Brain이 2021 ICLR에 발표한 트랜스포머(Transformer) 기반 학습 모델이다[13]. 트랜스포머 구조를 2D 이미지 학습 시퀀스에 직접 적용하여 딥러닝 이미지 처리 분야에서 우수한 성능을 보였다.

ViT는 2D 이미지를 트랜스포머 구조의 입력으로 활용하기 위해 이미지를 작은 패치로 분할한 후, 각 패치를 벡터화하고 위치 임베딩 벡터를 추가한다. 이를 통해 모델은 각 패치의 위치 정보를 인식할 수 있다. 각 패치에 학습을 위한 분류 토큰을 추가하여 최종 시퀀스를 생성하고, 이 시퀀스를 트랜스포머 인코더(Transformer Encoder)의 입력으로 사용한다.

트랜스포머 인코더는 셀프-어텐션(Self-Attention)과 Feed Forward 신경망(FFN)을 통해 입력 시퀀스를 처리한다. 셀프-어텐션은 입력 시퀀스의 각 요소가 다른 모든 요소와의 관계를 학습하는 과정이며, FFN은 입력 데이터에 비선형 활성화 함수와 잔차 연결을 적용하여 모델의 표현력을 높이고 안정적인 학습을 가능하게 한다. 이 과정을 거친 출력을 다음 인코더 레이어로 전달한다.

인코더 레이어를 통과한 최종 출력은 트랜스포머 인코더의 마지막 출력이 된다. 마지막으로 분류 토큰을 입력으로 받아 최종 분류를 수행하는 다층 퍼셉트론 헤드를 추가하여 학습 및 예측을 진행한다. ViT의 세부 구조는 그림 6에 나타내었다. 본 연구에서는 학습 속도 및 파라미터 수를 고려하여 ImageNet21k로 사전 학습된 ViT 16 모델 중 기본 모델인 Base 모델을 사용하였다.

그림 6. ViT 세부 구조

Fig. 6. Detailed Structure of ViT

../../Resources/kiee/KIEE.2025.74.1.142/fig6.png

3.2 Optimizer

최적화 기법(Optimizer)이란 머신러닝 및 딥러닝에서 모델의 파라미터를 업데이트하여 손실함수를 최소화하는 데 사용되는 알고리즘으로, 학습 과정의 안정성을 유지하고 비용함수의 원활한 수렴을 돕는다.

3.2.1 AdamW

본 연구에서 사용한 AdamW는 가중치의 크기를 줄여 과적합을 방지하는 가중치 감쇠(Weight Decay)를 Adam에 적용한 최적화 기법이다[14]. Adam은 딥러닝에서 주로 사용되는 최적화 알고리즘으로, 각 파라미터에 적응적인 학습률을 사용하여 학습이 안정적으로 진행될 수 있도록 한다[15]. 기존 Adam에 가중치 감쇠를 적용하려면 손실함수의 가중치 파라미터에 L2 norm의 제곱을 추가하여 가중치의 크기를 줄이는 L2 정규화를 활용해야한다. 이 경우에 식 (1)과 같이 가중치 감쇠 항이 학습률 $\alpha$와 결합되어 종속적으로 작용하기 때문에 감쇠 효과가 미비할 수 있다. 식 (2)와 같이 AdamW는 기존 Adam의 파라미터 업데이트 수식에 가중치 감쇠 항인 $\lambda\theta_{t-1}$를 명시적으로 추가하여 이러한 문제를 해결한다. 이는 학습률과 독립적으로 적용되기 때문에 더 일관된 정규화 효과를 제공한다.

(1)
$\theta_{t}=\theta_{t-1}-\alpha\dfrac{\hat{m}_{t}}{\sqrt{\hat{v_{t}}}+\epsilon}$
(2)
$\theta_{t}=\theta_{t-1}-\alpha\left(\dfrac{\hat{m}_{t}}{\sqrt{\hat{v_{t}}}+\epsilon}+\lambda\theta_{t-1}\right)$
$\theta_{t}$는 t번째 단계에서의 파라미터 벡터를 의미하며 $\hat{m}_{t}$는 기울기의 이동 평균, $\hat{v}_{t}$는 기울기 제곱의 이동 평균을 의미한다. $\epsilon$는 분모가 0이 되는 것을 방지하기 위한 작은 값으로, 일반적으로 $10^{-8}$을 사용한다.

4. 연구 결과

반려견 피부 질환 진단 모델 성능 평가에는 평균 3,130장의 Test 데이터가 사용되었다. 원활한 성능 평가를 위해 Train, Validation, Test 데이터셋에 중복되지 않도록 3-fold 교차검증 방식을 진행하였으며, Precision, Recall, F1-Score, Accuracy를 성능지표로 사용하여 평가를 수행하였다. Precision은 정밀도로, 모델이 정상이나 질환으로 판단한 샘플들 중 예측에 성공한 샘플의 비율을 나타내며 Recall은 재현율로, 실제 정답 샘플들 중 모델이 예측에 성공한 샘플의 비율을 나타낸다. F1-Score는 Precision과 Recall 간의 조화평균을 의미하며, Accuracy는 전체 샘플 중 모델이 예측에 성공한 샘플의 비율을 의미한다. 일반적으로 클래스 불균형이 존재할 때는 Recall이 중요한 성능지표로 고려되지만, 본 연구에서 구성한 2-Class 데이터셋에서는 정상과 비정상 샘플의 분포가 동일하므로 최종 성능 평가에서 Accuracy를 중점적으로 고려하였다. 각 성능지표를 구하는 식은 다음과 같다.

(3)
$Precision =\dfrac{TP}{TP +FP}$
(4)
$Recall =\dfrac{TP}{TP +FN}$
(5)
$F1 =\dfrac{2\times Precision\times Recall}{Precision + Recall}$
(6)
$Accuracy =\dfrac{TP +TN}{TP +TN +FP +FN}$
AdamW가 적용된 ViT/Base-16 모델을 통해 원본 데이터를 학습한 결과 Accuracy 기준 78.65%의 결과를 얻었으며 RandAugment를 적용하였을 때, Accuracy 기준 83.32%로 원본 대비 4.67% 향상된 결과를 얻었다. 원본과 RandAugment를 적용했을 경우의 성능 비교를 표 2에 나타내었다.

표 2 원본과 RandAugment 평균 성능 비교 (단위: %)

Table 2 Comparison of Average Performance Between Original and RandAugment (Unit: %)

Original

RandAugment

Precision

78.98

83.34

Recall

78.70

83.32

F1-Score

78.61

83.31

Accuracy

78.65

83.32

추가로, Patterned-GridMask를 단독으로 적용했을 때 와 RandAugment를 함께 적용했을 때의 성능을 비교하였다. 두 기법을 함께 적용했을 때 Precision, Recall, F1-Score, Accuracy 각각 84.52%, 84.37%, 84.31%, 84.33%의 결과를 얻었다. 이는 Accuracy 기준 RandAugment를 단독으로 적용했을 때보다 1.01% 향상된 결과이며, Patterned-GridMask를 단독으로 적용했을 때보다 1.87% 향상된 결과이다. 표 3은 Patterned-GriMask가 적용된 상세 성능을 나타낸다.

표 3 Patterned-GridMask 적용 성능 (단위: %)

Table 3 Performance with Patterned-GridMask Applied (Unit: %)

PG

RandAugment + PG

Precision

82.59

84.52

Recall

82.48

84.37

F1-Score

82.45

84.31

Accuracy

82.46

84.33

5. 결 론

본 연구는 반려견 피부 질환 진단을 위한 AI 질환 분류 모델 개발을 목표로 하였다. AI HUB의 공개 데이터셋인 반려동물 피부 질환 데이터를 사용하여 반려견 50종의 염증성 병변 데이터와 정상 데이터를 2-Class로 구성하였다. 원본 데이터 학습을 위해 Transformer 구조 기반의 ViT/Base-16 모델을 사용하였으며, AdamW 최적화 기법을 적용하여 학습한 결과 Accuracy 78.65%의 성능을 얻었다. 해당 데이터셋은 특정한 환경에서 촬영되었으며, 하나의 장비에 의해 수집되었다. 따라서 실제 환경에서 다양한 조명이나 각도에서의 데이터에 대한 성능 저하 가능성이 존재한다.

이를 해결하고자 Google Brain이 개발한 RandAugment 증대 기법을 적용하여 데이터의 다양성을 향상하였다. RandAugment는 이미지의 색상, 대비, 회전 등을 무작위로 변환하여 모델이 다양한 조건에서의 데이터를 학습할 수 있도록 도와준다. 또한, 병변이 작거나 흐릿하여 분류하기 어려운 이미지를 보완하기 위해 Patterned-GridMask 기법을 적용하여 모호한 병변 이미지에서도 모델이 명확하게 분류할 수 있는 강건성을 강화하였다. 그 결과, Accuracy 기준 84.33%의 성능을 얻었다. 이는 RandAugment와 Patterned-GridMask를 단독으로 적용했을 때보다 각각 1.01%, 1.87% 향상된 결과이며, 원본 성능 대비 5.68% 향상된 결과이다. 이러한 결과는 본 연구에서 활용한 데이터 증대 기법이 모델의 일반화 성능을 높이는 데 결정적 역할을 했음을 시사하며, 본 연구의 모델이 다양한 조건의 실제 환경에서도 활용 가능성을 가질 수 있음을 보여준다.

반려견의 피부 질환은 매우 다양한 원인과 증상을 가지고 있다. 본 연구에서는 염증성 피부 질환에 집중하여 더 다양한 질환에 대해 학습하지 못했기 때문에 모델의 실용성을 높이기 위해 더 많은 종류의 피부 질환을 포함하도록 데이터셋을 확장하고 중복 증상이나 복합 질환을 고려한 모델 학습을 진행할 필요가 있다. 추가적으로, RandAugment와 같은 기법은 다양성을 향상하였으나, 색조 변환으로 인해 특정 피부 질환의 특징을 과도하게 강조하거나 왜곡하여 일부 이미지에 대해 분류하였을 때 정확도가 떨어질 수 있다. 따라서 향후 연구에서는 RandAugment 외에도 반려견 피부 질환에 특화된 데이터 증대 기법을 연구할 계획이다. 특히, 피부 질환의 세부적인 특징을 강조하면서도 원래의 패턴을 왜곡하지 않도록 하는 새로운 증대 기법을 개발할 예정이다.

Acknowledgements

This research was supported by the Basic Science Research Program through the National Research Foundation of Korea (NRF) funded by the Ministry of Education (No. 2022R1I1A3053872) and this research was supported by the “Regional Innovation Strategy (RIS)” through the National Research Foundation of Korea (NRF) funded by the Ministry of Education (MOE) (2022RIS-005) and this work was supported by the National Research Foundation of Korea(NRF) grant funded by the Koreaa government(MSIT) (RS-2023-00242528).

References

1 
Forbes, “Pet Ownership Statistics 2024,” https://www.forbes.com/advisor/pet-insurance/pet-ownership-statisticsURL
2 
KB Management Research Institute, “2023 Korea Pet Report,” https://www.kbfg.com/kbresearch/report/reportView.do?reportId=2000396URL
3 
D. G. O'Neill, D. B. Church, P. D. McGreevy, P. C. Thomson, and D. C. Brodbelt, “Prevalence of disorders recorded in dogs attending primary-care veterinary practices in England,” PloS One, vol. 9, no. 3, article no. e90501, 2014. DOI:10.1371/journal.pone.0090501DOI
4 
A. Smith, P. W. Carroll, S. Aravamuthan, E. Walleser, H. Lin, K. Anklam, ... and N. Apostolopoulos, “Computer vision model for the detection of canine pododermatitis and neoplasia of the paw,” Veterinary Dermatology, vol. 35, no. 2, pp. 138-147, 2024. DOI:10.1111/vde.13221DOI
5 
S. Hwang, H. K. Shin, J. M. Park, B. Kwon, and M. G. Kang, “Classification of dog skin diseases using deep learning with images captured from multispectral imaging device,” Molecular & Cellular Toxicology, vol. 18, no. 3, pp. 299-309, 2022. DOI:10.1007/s13273-022-00249-7DOI
6 
M. Salvi, F. Molinari, S. Iussich, L. V. Muscatello, L. Pazzini, S. Benali, ... and L. Aresu, “Histopathological classification of canine cutaneous round cell tumors using deep learning: a multi-center study,” Frontiers in Veterinary Science, vol. 8, article no. 640944, 2021. DOI:10.3389/fvets.2021.640944DOI
7 
G. Dank, T. Buber, G. Polliack, G. Aviram, A. Rice, A. Yehudayoff, and M. S. Kent, “A pilot study for a non-invasive system for detection of malignancy in canine subcutaneous and cutaneous masses using machine learning,” Frontiers in Veterinary Science, vol. 10, article no. 1109188, 2023. DOI:10.3389/fvets.2023.1109188DOI
8 
E. Goceri, “Diagnosis of skin diseases in the era of deep learning and mobile technology,” Computers in Biology and Medicine, vol. 134, no. 104458, 2021. DOI:10.1016/j.compbiomed.2021.104458DOI
9 
AI HUB, “Pet skin disease data,” https://www.aihub.or.kr/aihubdata/dataURL
10 
E. D. Cubuk, B. Zoph, J. Shlens and Q. V. Le, “Randaugment: Practical automated data augmentation with a reduced search space,” in Proceedings of the IEEE/CVF Conference on Computer Vision and Pattern Recognition Workshops, pp. 702-703, 2020.URL
11 
P. Chen, S. Liu, H. Zhao, and J. Jia, “Gridmask data augmentation,” arXiv preprint arXiv:2001.04086, 2020. DOI:10.48550/arXiv.2001.04086URL
12 
J. H. Lee, J. W. Chae, and H. C. Cho, “Improved classification of different brain tumors in MRI scans using Patterned-GridMask,” IEEE Access, 2024. DOI:10.1109/ACCESS.2024.3377105DOI
13 
A. Dosovitskiy, L. Beyer, A. Kolesnikov, D. Weissenborn, X. Zhai, T. Unterthiner, ... and N. Houlsby, “An image is worth 16x16 words: Transformers for image recognition at scale,” arXiv preprint arXiv:2010.11929, 2020.URL
14 
I. Loshchilov, and F. Hutter, “Decoupled weight decay regularization,” arXiv preprint arXiv:1711.05101, 2017. DOI:10.48550/arXiv.1711.05101URL
15 
D. P. Kingma, and J. Ba, “Adam: A method for stochastic optimization,” arXiv preprint arXiv:1412.6980, 2014. DOI:10.48550/arXiv.1412.6980URL

저자소개

김민준(Min-jun Kim)
../../Resources/kiee/KIEE.2025.74.1.142/au1.png

Min-jun Kim currently working toward B.S and M.S. degree in Interdisciplinary Graduate Program for BIT Medical Convergence from Kangwon National University, South Korea.

박재범(Jae-beom Park)
../../Resources/kiee/KIEE.2025.74.1.142/au2.png

Jae-beom Park currently working toward B.S and M.S. degree in Interdisciplinary Graduate Program for BIT Medical Convergence from Kangwon National University, South Korea.

조현종(Hyun-chong Cho)
../../Resources/kiee/KIEE.2025.74.1.142/au3.png

Hyun-chong Cho received his M.S. and Ph.D. degrees in electrical and computer engineering from the University of Florida, USA, in 2009. During 2010–2011, he was a Research Fellow at the University of Michigan, Ann Arbor, USA. From 2012 to 2013, he was a Chief Research Engineer at LG Electronics, South Korea. He is currently a Professor at the Department of Electronics Engineering, the Department of Data Science, and Interdisciplinary Graduate Program for BIT Medical, Kangwon National University, South Korea.