원형식
(Hyeong-sik Won)
1iD
박재범
(Jae-beom Park)
1
조현종
(Hyun-chong Cho)
†iD
-
(Dept. of Interdisciplinary Graduate Program for BIT Medical Convergence, Kangwon National
University, Republic of Korea.)
Copyright © The Korea Institute for Structural Maintenance and Inspection
Key words
Cat skin disease, CADx, Mixup, Augmentation, Deep learning, Inflammatory lesion
1. 서 론
현대 사회에서 반려동물을 기르는 양육 가구가 증가하는 추세이다. 이러한 변화는 도시화와 단독 주거의 증가와 맞물려 반려동물 소유율의 증가로 이어지며
사람들의 관심을 끌고 있다. 다음 그림 1은 2018년부터 2023년까지 국내 반려동물 양육 가구 비율을 나타낸다. 농림축산식품부의 보고서에 따르면, 2023년 20~64세의 5,000명을
대상으로 한 조사에서 1,410명이 반려동물을 양육하고 있다[1]. 이는 전체 반려동물 소유 비율이 28.2%에 달하며, 반려동물 양육의 지속적인 증가 추세를 보여주고 가장 높은 수치를 기록하였다. 반려동물을 기르는
가구가 늘어나면서 반려묘를 기르는 가구의 치료비 지출 또한 증가하고 있다. KB경영연구소의 ‘2023 한국 반려동물 보고서’에 따르면, 2023년
반려묘 가구의 치료비 지출이 지난 2년간 약 57.4% 증가해 724,000원에 도달하였다[2]. 이처럼 많은 가정에서 반려묘를 위한 치료비를 지출하고 있으며 치료비 중에서도 피부질환 치료비가 높은 비중을 차지하고 있는 것으로 나타났다. 위와
동일한 보고서에 따르면 피부질환 치료비 지출 비율은 23.6%로, 반려묘 치료비 지출 중 건강 검진에 이어 두 번째로 높은 비율을 차지하였다.
그림 1. 국내 반려동물 양육 가구 비율
Fig. 1. Pet Ownership Rate in South Korea
이처럼 피부질환은 반려동물에게서 흔히 나타나는 질병 중 하나이다. 피부질환은 크게 염증성 질환과 비염증성 질환으로 구분된다. 염증성 질환은 주로 감염,
알레르기, 자가면역 반응으로 인해 발생하며 만약 오래 방치할 경우, 만성 염증으로 발전하여 피부 괴사나 전신 질환으로 이어질 수 있다. 반면 비염증성
질환은 기생충, 호르몬 불균형, 종양 등 다양한 원인에 의해 발생하며 적절히 관리되지 않으면 만성적인 피부 손상이 일어나게 되고, 일부는 양성 종양이
악성 종양으로 변할 위험이 있어 추가적인 검사가 필요하다. 결국 두 가지 유형의 피부질환은 초기에 발견하여 치료하지 못하였을 경우, 심각한 합병증으로
이어질 수 있다[3]. 하지만 초기 질환은 일반적으로 뚜렷한 특징이 없어 수의사가 질환을 놓칠 가능성이 있다. 따라서 조기 발견을 하지 못하였을 때 반려동물의 상태가
악화하거나 사망으로 이어질 수 있다. 이를 해결하고자 수의사에게 2차 의견을 제공하는 딥러닝 기반 컴퓨터 보조 진단 시스템 개발이 연구되고 있다.
기존 연구의 대부분은 CNN(Convolutional Neural Network) 구조를 활용하여 고양이와 개의 질병을 분류하는 연구가 진행되었다.
그중 앙상블 학습을 적용하여 고양이의 피부질환을 분류하는 연구가 진행되었다[4]. CNN과 Random Forest의 방법을 결합하여 0.8496의 f1-score의 성능을 달성하여 피부질환 식별의 정확성을 자동화하고 개선하였다.
또한 전이 학습 방법을 통해 고양이 귀의 외부 질환을 분류하는 연구도 진행되었다[5]. CNN 모델 구조를 활용하고 전이 학습을 적용하여 모델의 정확도는 88%를 달성하였다. 시간이 지남에 따라 이미지 처리 기술과 이미지 증대기법을
질병 분류에 적용하는 연구가 이루어졌다. 그중 이미지 처리 기술을 사용하여 개의 피부 질병을 분류하고 수의과 병원을 위한 애플리케이션을 개발하는 연구가
진행되었다[6]. 객체와 배경을 분리하기 위해 Otsu 알고리즘을 적용하였으며 CNN기반 모델을 사용하여 모델의 평균 정확도 72.5%를 달성하여 개 피부질환을
진단하는 시스템을 개발하였다. 또한 이미지 처리 기술인 GLCM(Gray Level Co-occurrence Matrix)을 사용하여 고양이의 피부질환
이미지를 분류하는 연구도 진행되었다[7]. GLCM을 사용하여 피부의 질감 특징을 추출하고 SVM을 분류기로 사용하여 질병을 분류하였으며 86.77%의 정확도를 달성하였다. 다른 연구에서는
데이터 부족 문제를 해결하기 위해 데이터 증대를 통해 피부질환을 분류하는 연구 또한 진행되었다[8]. 다중 스펙트럼 영상 장치를 사용하여 피부 이미지를 수집하고, 원본 이미지의 크기 조정, 회전, 변환을 통해 이미지를 1000배 증대하였다. CNN
모델을 사용한 결과, 세균성 피부병의 경우 정확도는 80%, 진균 감염의 경우 70%, 과민성 알레르기 피부병의 경우 83%를 달성하였다. 또 다른
연구에서는 이미지 증대기법을 활용하여 X-ray 이미지를 통해 고양이의 비대성 심근병을 진단하는 연구가 진행되었다[9]. 심장을 제외한 나머지 픽셀은 0으로 마스킹 처리 후 이미지 회전 및 확대 증대를 통해 95%의 정확도를 달성하였다. 최근에는 질환 부위를 탐지
및 분할 하는 연구 또한 수행되었다. 그중 개의 발바닥 이미지를 통해 실시간으로 피부염을 탐지하는 연구가 진행되었으며, 사전 훈련된 Tiny-YOLOv4모델을
적용하여 mAP 0.95와 recall 93%를 달성하였다[10]. 피부병 검출을 위해 반려견 피부질환 부위를 분할하는 연구 또한 진행되었다[11]. U-Net 모델을 활용하여 6종의 피부질환에 대해 평균 Dice 계수 92%를 달성하였다.
이처럼 기존 연구들은 주로 CNN 모델을 활용해 높은 정확도를 목표로 피부질환 진단에 중점을 두었으나, 염증성 질환과 비염증성 질환의 구분 없이 진행되는
한계가 있다. 이는 각 질환 유형에 맞는 치료 방법을 적용하는데 어려움이 존재한다. 이러한 질환들은 서로 다른 치료 방법을 필요로 하기 때문에 본
연구에서는 적합한 치료 방법 구분 및 제시를 위한 염증성 및 비염증성 질환 분류를 목표로 한다. 또한 반려동물의 피부 이미지의 특성상 털로 덮여 있어
피부질환이 가려지는 경우가 존재한다. 이는 질환의 특징을 정확히 추출하지 못하는 경우가 발생한다. 이를 해결하고자 본 연구에서는 Mixup 증대기법을
적용하였으며, Lookahead Optimizer를 적용하여 Mixup의 학습 안정성을 향상하여 정확도 높은 반려묘 피부질환 분류 컴퓨터 보조 진단
시스템을 개발하고자 한다.
2. 본 론
본 연구에서는 반려묘 피부질환 데이터셋을 비염증성 질환, 염증성 질환, 정상 이미지로 나누고 이를 분류하는 것을 목표로 한다. 이미지의 다양성을 늘리고자
원본 데이터셋에 이미지 증대기법인 Mixup을 적용하여 학습을 진행하였다. 그 후 loss 값의 불안정성을 줄이기 위해 Lookahead Optimizer를
적용하여 모델의 성능을 최적화하고 정확도를 향상하였다.
2.1 데이터셋 구성
본 연구에 사용한 데이터셋은 AI-Hub에서 제공한 공용 데이터셋인 “반려동물 피부질환 데이터셋” 중 반려묘의 피부질환 데이터를 사용하였다[12]. 본 데이터셋은 1~17세의 연령을 가진 고양이들로, 성별 비율은 수컷 53%, 암컷 47%로 비슷한 비율로 구성되어 있다. 품종별로는 코리안숏헤어,
러시안블루, 스코티쉬폴드, 노르웨이 숲, 페르시안 총 5종을 포함하고 있으며, 가장 흔한 종은 코리안숏헤어로 총 데이터셋 13,122장의 이미지 중
11,413장이 포함되어 있다. 고양이의 생김새나 털의 색상은 품종에 따라 차이가 있지만 피부질환은 모든 품종에서 유사한 형태와 모양으로 나타나므로
품종 간 불균형은 고려하지 않았다. 피부질환의 종류에는 비듬, 각질, 상피성잔고리, 농포, 여드름, 결절, 종괴가 존재하며 다리, 머리, 몸통, 연접부의
여러 위치에서 촬영되었다.
본 연구에서는 이러한 질환을 수의학 전문가에 의해 염증성 질환과 비염증성 질환을 정의하고 정상 이미지를 포함하여 3개의 클래스로 분배하였다. 총 데이터셋은
13,122장을 사용하였으며, 훈련, 검증, 테스트 데이터셋을 6:2:2 비율로 나누어 학습을 진행하였다. 또한 한 마리의 반려묘로부터 중복되어 수집될
수 있어 각 데이터셋에 객체가 겹치지 않도록 나누었다. 이 과정에서 메타데이터 파일에 포함된 나이, 품종, 성별 정보를 바탕으로 동일한 특성을 가진
객체들이 훈련, 검증, 테스트 데이터셋에 중복되지 않도록 독립적으로 나누었다. 본 연구에서 사용된 구체적인 데이터셋 구성은 표 1에 상세히 나타내었다.
표 1 반려묘 피부질환 데이터셋 구성
Table 1 Construction of Cat Skin Disease Dataset
Type
|
Train
|
Valid
|
Test
|
Non-inflammation
|
Dandruff, Scale
Epithelial Rest
|
2,582
|
870
|
922
|
Nodule, Mass
|
Inflammation
|
Pustule, Acne
|
2,582
|
870
|
922
|
Normal
|
2,582
|
870
|
922
|
2.2 ConvNeXt
CNN(Convolutional Neural Network)은 이미지 분류와 같은 vision 분야에서 오랫동안 활용되었으며 단순성과 효율성 덕분에
많은 연구와 실용적인 응용에서 사용되고 있다. 그러나 2020년에 transformer 기반의 Vision Transformer(ViT)가 등장하면서
vision 분야에 새로운 매커니즘을 제시하여 뛰어난 성능을 보여주었다[13]. 하지만 transformer 구조는 inductive bias가 CNN에 비해 부족하여 소규모 데이터셋에서는 성능이 저하될 수 있다. 본 연구에서는
지역적인 정보를 유지할 수 있는 CNN기반의 ConvNeXt 모델을 채택하였다[14].
ConvNeXt는 기존의 ResNet-50모델을 개선하여 CNN이 지닌 단순성과 효율성을 유지하면서 성능을 향상하고자 하였다[15]. ConvNeXt의 특징 중 하나는 각 stage-block에 depthwise convolution을 적용한 것이다[16]. 일반적인 convolution 필터는 입력의 모든 채널에 영향을 받기 때문에 특정 채널의 공간적 특징을 추출하지 못한다. 반면에 depthwise
convolution은 각 단일 채널에 대해서 독립적으로 필터를 적용하였다. 이는 각 채널별로 독립적으로 작용하여 전체 입력에 대해 더 세밀하고 효율적인
특징 추출을 가능하게 한다. 더 넓은 수용 영역을 확보하기 위해 커널 크기를 7×7로 확장하였고 depthwise convolution layer의
위치를 상위로 이동시켜 초기 단계에서 더 많은 공간적 정보를 획득한다. 7×7 depthwise convolution layer 뒤에는 두 개의 1×1
layer가 포함되어 있다. 첫 번째 1×1 layer는 채널 수를 늘려 더 많은 특성을 추출하고 두 번째 1×1 layer는 채널 수를 줄여 필요한
정보만을 유지하여 불필요한 연산을 줄여준다. 그림 2는 ConvNeXt-Base 모델의 세부 구조를 나타낸다.
그림 2. ConvNeXt-Base 모델의 세부 구조
Fig. 2. Detailed model Structure of ConvNeXt-Base
transformer와 ResNet 블록의 차이점 중 하나는 더 적은 활성화 함수를 사용하는 것이다. Transformer는 특히 Self-Attention
메커니즘에서 활성화 함수를 사용하지 않는 경우가 많고, Feed-forward Network에서도 layer 수가 상대적으로 적을 수 있다. ConvNeXt는
transformer의 접근 방식을 사용하여 두 개의 1×1 layer 중 하나를 제외한 모든 GELU 층을 제거하여 모델을 경량화하였고 BatchNorm
대신 각 채널별로 정규화를 수행하는 LayerNorm을 사용하였다. 또한 Swin-Transformer의 원칙을 따라 각 stage-block 비율을
1:1:3:1, 큰 모델의 경우에는 1:1:9:1로 조정하였다[17]. Stem 부분에서는 4x4 커널 크기와 4 stride를 통해 초기 특징을 추출하는 방식으로 설계되어 있다. 본 연구에서는 ImageNet21k
데이터셋을 활용해 사전 훈련된 ConvNeXt-Base 모델을 사용하여 전이 학습을 진행하였다.
2.3 모델 성능 향상을 위한 기법
2.3.1 Mixup
최근 딥러닝 모델의 성능을 향상하기 위해 데이터 증대기법이 활발히 연구되고 있다. 데이터 증대는 모델이 더 많은 양의 데이터로 학습하는 효과를 제공하며
이는 모델의 일반화 능력을 향상하고 과적합을 방지하는 데 중요한 역할을 한다. 본 데이터셋의 경우, 작은 수의 데이터로 구성되어 있어 다양한 조명,
각도, 배경 등의 조건에서 촬영된 이미지가 충분하지 않다. 따라서 모델이 새로운 환경에서 촬영된 이미지를 학습할 때 일반화 성능이 저하될 수 있다.
이러한 문제를 해결하기 위해 본 연구에서는 Mixup기법을 적용하여 학습을 진행하였다[18].
Mixup은 학습을 진행할 때 두 개의 훈련 샘플 데이터를 선형적으로 결합하여 새로운 샘플 데이터를 생성하는 데이터 증대기법이다. 이는 다양한 상황과
조건에서의 변화를 학습하고 새로운 데이터에 대해 보다 더 일반화할 수 있게 한다. 또한 모델이 훈련 데이터의 중간 영역에서도 적절한 예측을 할 수
있도록 도와준다. Mixup의 자세한 수식은 식 (1)에 나타내었다.
무작위의 샘플인 $(x_{i},\: y_{i})$와 $(x_{j},\: y_{j})$을 선택하여 $\lambda$값을 통해 새로운 샘플 $(\widetilde{x},\:
\widetilde{y})$을 생성한다. 여기서 $x_{i}$와 $x_{j}$는 입력 데이터를 나타내며 $y_{i}$와 $y_{j}$는 해당 입력
데이터의 레이블을 나타낸다. 또한 두 샘플의 가중치를 결정하는 $\lambda$값은 [0, 1] 사이의 값이며, 베타 분포 Beta$(\alpha
,\: \alpha)$로부터 샘플링된 값이다. $\alpha$값이 높을수록 혼합비율이 균등한 반면에 $\alpha$값이 낮을수록 한 이미지의 특성이
더 많이 반영된다. 본 연구에서는 $\alpha$값을 각각 0.3, 0.5, 1로 실험적으로 조정하였다. 그림 3은 Mixup 기법을 통해 증대된 이미지의 예시이다.
그림 3. Mixup을 활용한 이미지 증대 예시
Fig. 3. Example of Image Augmentation Using Mixup
2.3.2 Lookahead Optimizer
기존의 확률적 경사 하강법(SGD, Stochastic Gradient Descent) 및 Adam과 같은 최적화 알고리즘들은 종종 학습 과정에서
불안정한 수렴 경로를 보이고, 학습이 진행되는 동안 불필요한 local minima에 빠지기 쉽다[19,20]. 결국 안정적인 학습을 위해 일일이 hyperparameter를 직접 조정해야 한다. 이러한 과정은 많은 시간과 노력이 요구되는 작업이다. Lookahead
Optimizer는 안정적인 학습을 도와주는 기존 Optimizer에 적용 가능한 추가적인 알고리즘이다[21].
Lookahead Optimizer는 두 개의 가중치 세트인 Fast weight와 Slow weight를 사용한다. 먼저 Fast weight를
k번 업데이트하고, 업데이트된 Fast weight와 기존의 k번 전의 weight 사이의 가중 평균으로 최종 weight를 결정한다. 이 과정에서
먼저 초기화 단계에서 $\theta_{t,\: 0}$는 현재 Slow weight $\phi_{t}$로 설정된다. 즉 Fast weight와 Slow
weight는 동일한 값으로 시작된다. 내부 optimizer $A$는 손실 함수 $L$, 이전 단계의 Fast weight인 $\theta_{t,\:
i-1}$ 그리고 추가적인 매개변수 d를 사용하여 Fast weight인 $\theta_{t,\: i+1}$를 업데이트한다. 수식으로 표현하면 다음
식 (2)와 같다.
이러한 과정을 k번 반복되어 최종의 Fast weight $\theta_{t,\: k}$를 결정한다. Fast weight 업데이트가 완료된 후 Slow
update는 다음과 같은 수식 (3)으로 업데이트된다.
기존 Slow update인 $\phi_{t}$와 최종 Fast weight인 $\theta_{t,\: k}$간의 차이에 스텝 크기인 $\beta$를
곱하여 새로운 Slow weight인 $\phi_{t+1}$를 계산한다. 이는 새로운 Slow weight가 기존의 Slow weight와 최종 Fast
weight의 적절한 위치에 위치하도록 하여 두 값 간의 변동성을 줄이고 학습을 안정화하는 역할을 한다. 본 연구에서는 스텝 크기 $\beta$를
0.5로 설정하여 Fast weight와 Slow weight가 균등하게 반영하였다.
3. 연구 결과
본 연구에서는 혼동 행렬을 사용하여 분류 성능을 평가하였다. 혼동 행렬은 각 클래스에 대해 모델이 예측한 결과와 실제 결과를 비교하여 TP(True
Positive), FP(False Positive), TN(True Negative), FN(False Negative)을 포함한 성능 지표를 제공한다.
이를 통해 precision, recall, f1-score, accuracy를 도출할 수 있다. Precision은 모델이 양성으로 예측한 데이터
중 실제로 양성인 데이터의 비율을 뜻하며, recall은 실제 양성인 데이터 중에서 모델이 양성으로 정확히 예측한 데이터의 비율을 뜻한다. F1-score는
precision과 recall의 조화평균이다. Accuracy는 전체 데이터 중에서 모델이 정확하게 예측한 데이터의 비율을 뜻한다. 자세한 수식은
식 (4), (5), (6), (7)에 나타내었다. 본 연구에서는 각 클래스의 장수가 동일하므로 accuracy의 지표를 중점적으로 평가하였다. 학습을 진행할 때 배치 크기는 8로 설정하였고
optimizer는 AdamW를 사용하였다. 또한 과적합을 방지하기 위해 10 epoch 동안 오차가 개선되지 않을 때 조기 종료하였다. 모든 성능
지표는 3-fold cross validation을 통해 신뢰성을 향상하였다.
다음 표 2는 ConvNeXt 모델에 Mixup을 적용하여 원본 데이터셋과 비교한 성능 결과를 나타낸다. Mixup의 샘플 간 혼합 비율을 결정하는 $\alpha$값을
0.3, 0.5, 1로 실험을 진행하여 각 설정에 따른 모델 성능을 분석하였다. 실험한 결과, 원본 데이터셋을 사용한 모델의 성능 accuracy는
0.8344가 나왔다. 반면 Mixup을 적용한 모든 경우에서 모델의 성능은 원본 데이터셋을 사용한 경우보다 높게 나타났다. $\alpha$값 0.3을
적용한 경우의 성능은 0.8591, $\alpha$값 0.5를 적용한 경우의 성능은 0.8605, $\alpha$값 1을 적용한 경우의 성능은 0.8679를
달성하였다. 따라서 Mixup기법이 ConvNeXt 모델의 성능을 향상하는 데 효과적임을 알 수 있다. 또한 $\alpha$값에 따라 성능이 달라질
수 있으며 그 중 $\alpha$값을 1로 설정하였을 때 우수한 성능을 나타내었다.
표 2 $\alpha$값에 따른 Mixup의 성능 지표 결과
Table 2 Performance Metrics Results of Mixup according to Alpha value
Method
|
Precision
|
Recall
|
F1-score
|
Accuracy
|
Original
|
0.8342
|
0.8344
|
0.8316
|
0.8344
|
Mixup($\alpha$= 0.3)
|
0.8591
|
0.8591
|
0.8570
|
0.8591
|
Mixup($\alpha$= 0.5)
|
0.8612
|
0.8605
|
0.8587
|
0.8605
|
Mixup($\alpha$= 1)
|
0.8680
|
0.8679
|
0.8666
|
0.8679
|
다음 표 3은 Lookahead Optimizer를 적용하여 원본 데이터셋과의 성능을 비교하고 Mixup기법과 결합하여 얻은 최종적인 성능 지표이다. 실험한
결과, Lookahead Optimizer만 사용하였을 경우 모델의 성능 accuracy는 0.8531을 달성하여 원본 데이터셋보다 높은 성능을 달성하였다.
Mixup의 불안정한 학습을 개선하고자 Lookahead Optimizer를 같이 적용하였으며, 두 가지의 방식을 같이 적용한 경우의 성능은 0.8741을
달성하였다. 이러한 결과는 Lookahead Optimizer와 Mixup 기법을 결합한 접근 방식이 모든 평가지표에서 가장 높은 분류 성능임을 알
수 있다.
표 3 Mixup과 Lookahead Optimizer를 결합한 성능 지표 결과
Table 3 Performance Metrics Results combining Mixup and Lookahead Optimizer
Method
|
Precision
|
Recall
|
F1-score
|
Accuracy
|
Original
|
0.8342
|
0.8344
|
0.8316
|
0.8344
|
Mixup($\alpha$= 1)
|
0.8680
|
0.8679
|
0.8666
|
0.8679
|
Lookahead
|
0.8521
|
0.8531
|
0.8521
|
0.8531
|
Mixup+Lookahead
|
0.8742
|
0.8741
|
0.8736
|
0.8741
|
4. 결 론
본 연구에서는 AI-Hub의 공용 데이터셋인 반려동물 피부질환 데이터셋 중 반려묘 데이터만을 사용하여 염증성 질환, 비염증성 질환, 정상 이미지로
나누고 이를 분류하는 딥러닝 기반 컴퓨터 보조 진단 시스템을 개발하였다. 질환의 다양한 패턴을 학습하고자 이미지 증대기법인 Mixup을 적용하였으며,
원본 데이터셋 대비 3.35% 높은 정확도 향상을 보였다. 이는 과적합을 방지하고 모델의 강건성을 향상하는 데 효과적이었지만 여전히 모델 최적화 과정에서
학습 안정성을 저해하는 문제가 발생하였다. 이를 해결하기 위해 Lookahead Optimizer를 활용하여 학습의 안정성을 높였다. 실험 결과,
Lookahead Optimizer만 사용하였을 경우, 원본 데이터셋 대비 1.87% 높은 정확도를 보였고 Mixup과 Lookahead Optimizer를
같이 사용하였을 경우 원본 데이터셋 대비 3.97% 높은 정확도 향상을 보였다. 따라서 Mixup과 Lookahead Optimizer를 함께 사용하면
데이터 증대를 통해 모델의 일반화 성능을 향상하고 다양한 상황에서 강건하게 작동할 수 있게 해준다. 이와 더불어 Mixup의 안정적인 학습을 도와주어
우수한 성능이 나옴을 확인할 수 있다.
하지만 본 연구는 Mixup기법에서 사용된 $\alpha$값이 실험적으로 설정되었다는 점에서 최적의 $\alpha$값을 찾아냈다고 하기에는 어렵다고
볼 수 있다. 향후 연구에서는 Mixup의 $\alpha$값에 대한 체계적인 실험을 통해 최적의 매개변수를 찾는 연구를 진행할 예정이다. 또한 본
연구에서 사용된 base optimizer로 AdamW가 사용되었으나 다른 optimizer를 적용하여 모델 성능을 개선할 계획이다. 또한 본 연구에서는
이미지 분류를 통해 반려묘의 피부질환을 진단하는 연구를 했으나, 이러한 방법은 질병의 정확한 위치와 범위를 파악하는데 한계가 있다. 따라서 이미지
분할 기법을 적용하여 질병이 영향을 미치는 정확한 영역을 분리하는 연구를 진행할 계획이다.
Acknowledgements
This research was supported by Basic Science Research Program through the National
Research Foundation of Korea(NRF) funded by the Ministry of Education (No. 2022R1I1A3053872)
and was supported by "Regional Innovation Strategy (RIS)" through the National Research
Foundation of Korea(NRF) funded by the Ministry of Education(MOE)(2022RIS-005) and
was supported by the National research Foundation of Korea(NRF) grant funded by the
Korea government(MSIT) (RS-2023-00242528).
References
Ministry of Agriculture, Food, and Rural Affairs, “2023 National Survey on Public
Awareness of Animal Protection and Welfare,” 2023.

KB Management Research Institute, “2023 Korea Pet Report,” 2023.

W. Uriawan, A. R. Atmadja, M. Irfan, I. Taufik & N. J. Luhung, “Comparison of Certainty
Factor and Forward Chaining for Early Diagnosis of Cats Skin Diseases,” Proceedings
of the 6th International Conference on Cyber and IT Service Management (CITSM), pp.693-699,
2018. DOI:10.1109/CITSM.2018.8674381

A. Suryavanshi, V. Kukreja, P. Srivastava, A. Bhattacherjee & R. S. Rawat, “Felis
catus disease detection in the digital era: Combining CNN and Random Forest,” Proceedings
of the 2023 International Conference on Artificial Intelligence for Innovations in
Healthcare Industries (ICAIIHI), 2023. DOI:10.1109/ICAIIHI57871.2023.10489457

A. M. Bapi, N. Nabi, S. A. R. Shuvo, P. Chakraborty & S. A. Khushbu, “CatEarMites:
An Approach of Detecting Ear Mites of Cat Using Convolutional Neural Network,” Proceedings
of the 2022 13th International Conference on Computing Communication and Networking
Technologies (ICCCNT), 2022. DOI:10.1109/ICCCNT54827.2022.9984559

B. G. M. Habal, P. E. S. Tiong, J. R. Pasatiempo, M. J. Balen, M. R. Amarga & L. Juco,
“Dog skin disease recognition using image segmentation and GPU enhanced convolutional
neural network,” Proceedings of the 2021 13th International Conference on Humanoid,
Nanotechnology, Information Technology, Communication and Control, Environment, and
Management (HNICEM), 2021. DOI:10.1109/HNICEM54116.2021.9731885

B. J. Andujar, N. J. Ferranco & J. F. Villaverde, “Recognition of Feline Epidermal
Disease using Raspberry-Pi based Gray Level Co-occurrence Matrix and Support Vector
Machine,” Proceedings of the 2021 13th International Conference on Humanoid, Nanotechnology,
Information Technology, Communication and Control, Environment, and Management (HNICEM),
2021. DOI:10.1109/HNICEM54116.2021.9731971

S. Hwang, H. K. Shin, J. M. Park, B. Kwon & M. G. Kang, “Classification of dog skin
diseases using deep learning with images captured from multispectral imaging device,”
Molecular & Cellular Toxicology, pp. 299-309, 2022. DOI:10.1007/s13273-022-00249-7

R. Jinhyung, S. M. Shin, K. Jhang, G. Lee & K. H. Song, “Deep learning-based diagnosis
of feline hypertrophic cardiomyopathy,” Plos one, vol. 18, no. 2, article no. e0280438,
2023. DOI: 10.1371/journal.pone.0280438

A. Smith, P. W. Carroll, S. Aravamuthan, E. Walleser & H. Lin, “Computer vision model
for the detection of canine pododermatitis and neoplasia of the paw,” Veterinary Dermatology,
pp. 138-147, 2024.DOI:10.1111/vde.13221

K. BoKyeong, B. JaeYeon & C. KyungAe, “Mobile App for Detecting Canine Skin Diseases
Using U-Net Image Segmentation,” Korea Society of Industrial Information Systems,
pp. 25-34, 2024. DOI:10.9723/jksiis.2024.29.4.025

AI Open Innovation Hub, “Pet skin disease data,” http://www.aihub.or.kr/

A. Dosovitskiy, L. Beyer, A. Kolesnikov, D. Weissenborn, X. Zhai, T. Unterthiner,
M. Dehghani, M. Minderer, G. Heigold, S. Gelly, J. Uszkoreit & N. Houlsby, “An Image
is Worth 16x16 Words: Transformers for Image Recognition at Scale,” arXiv preprint
arXiv:2010.11929, 2020. DOI:10.48550/arXiv.2010.11929

Z. Liu, H. Mao, C.-Y. Wu, C. Feichtenhofer, T. Darrell & S. Xie, “A ConvNet for the
2020s,” In Proceedings of the IEEE/CVF conference on computer vision and pattern
recognition, pp. 11976-11986, Mar. 2022. DOI:10.48550/arXiv.2201.03545

K. He, X. Zhang, S. Ren & J. Sun, “Deep residual learning for image recognition,”
In Proceedings of the IEEE Conference on Computer Vision and Pattern Recognition,
pp. 770-778, 2016. DOI:10.48550/arXiv.1512.03385

F. Chollet, “Xception: Deep learning with depthwise separable convolutions,” In Proceedings
of the IEEE Conference on Computer Vision and Pattern Recognition, pp. 1251-1258,
2017. DOI:10.48550/arXiv.1610.02357

Z. Liu, Y. Lin, Y. Cao, H. Hu, Y. Wei, Z. Zhang, S. Lin & B. Guo, “Swin transformer:
Hierarchical vision transformer using shifted windows,” In Proceedings of the IEEE
Conference on Computer Vision and Pattern Recognition, pp. 10012-10022, 2021. DOI:10.48550/arXiv.2103.14030

H. Zhang, M. Cisse, Y. N. Dauphin & D. Lopez-Paz, “mixup: Beyond empirical risk minimization,”
arXiv preprint arXiv:1710.09412, 2017. DOI:10.48550/arXiv.1710.09412

S. Ruder, “An overview of gradient descent optimization algorithms,” arXiv preprint
arXiv:1609.04747, 2016. DOI:10.48550/arXiv.1609.04747

D. P. Kingma & J. Ba, “Adam: A Method for Stochastic Optimization,” arXiv preprint
arXiv:1412.6980, 2014. DOI:10.48550/arXiv.1412.6980

M. Zhang, J. Lucas, J. Ba & G. E. Hinton, “Lookahead optimizer: k steps forward, 1
step back,” arXiv preprint arXiv:1907.08610, 2019. DOI:10.48550/arXiv.1907.08610

저자소개
Hyeong-sik Won currently working toward B.S and M.S. degree in Interdisciplinary Graduate
Program for BIT Medical Convergence from Kangwon National University, South Korea.
Jae-beom Park currently working toward B.S and M.S. degree in Interdisciplinary Graduate
Program for BIT Medical Convergence from Kangwon National University, South Korea.
Hyun-chong Cho received his M.S. and Ph.D. degrees in electrical and computer engineering
from the University of Florida, USA, in 2009. During 2010–2011, he was a Research
Fellow at the University of Michigan, Ann Arbor, USA. From 2012 to 2013, he was a
Chief Research Engineer at LG Electronics, South Korea. He is currently a Professor
at the Department of Electronics Engineering, the Department of Data Science, and
Interdisciplinary Graduate Program for BIT Medical, Kangwon National University, South
Korea.