2.1 영상 향상(Image Enhancement)
치아우식 탐지 및 판별에 사용되는 영상은 크게 두 가지로 분류할 수 있다. 구강용 디지털카메라를 사용하여 치아의 외관을 촬영한 영상과 X-선으로 촬영한
방사선 영상이 있다. 부식된 치아의 병변은 매우 작고 그 모양 또한 매우 다양하다. 또한, 영상 획득방법이나 촬영된 장비 등 촬영환경에 따라 영상은
차이를 보인다. 영상 전처리과정은 잡음 제거 및 화질 개선을 통해 분석정확도를 높이고 우식탐지를 위한 최적의 조건을 만든다.
치아 영상에서 대비(Contrast)를 조절하여 진단 정확도를 높일 수 있다. 밝은 부분은 더 밝게, 어두운 부분은 더 어둡게 해줌으로써 대비를 조절하면,
흐릿한 영상을 선명한 영상으로 바꾸면서 물체의 모양이나 윤곽이 더 잘 보이도록 한다[6,7]. 단순히 대비를 조절할 경우 잡음이 발생하는 등 효과가 떨어진다. 히스토그램 평활화(Histogram Equalization)를 적용하여 이 한계를
극복할 수 있다. 히스토그램 평활화를 개선한 대비제한 적응 히스토그램 평활화(Contrast Limited Adaptive Histogram Equalization,
CLAHE)는 지역적 명암대비 향상 기법으로, 영상을 여러 개의 블록으로 나누어 CLAHE를 수행한다. 최근 연구들은 그레이레벨 영상에 CLAHE를
적용함으로써 이후의 이어지는 검출 단계의 성능을 향상했다[8,9,10].
모폴로지 연산을 이용한 Top-hat 변환은 대조비를 향상하는 방법 중 하나이다. Top-hat 필터는 White Top-hat필터와 Black Top-hat
필터로 나뉘는데, White Top-hat 필터는 Top-hat 필터, Black Top-hat 필터는 Bottom-hat 필터라고 한다. Top-hat
필터는 추출하고자 하는 객체보다 주변이 밝을 때 사용되며, Bottom-hat 객체 주변이 추출하고자 하는 객체보다 어두울 경우 주로 사용된다. 이는
부식된 병변을 더 강조하는 역할을 하여 이후에 이어지는 다른 기법에 능력을 향상시킨다. Top-hat은 치아우식 병변인 흰 부분을 더 강조하고 낮은
대조비를 제거한다. Bottom-hat는 특히 배경을 강조함으로써 치아와 치아우식을 돋보이도록 하는 역할을 한다[10,11]
영상의 전처리 방법에 따라 진단 정확도가 달라진다. 전처리에 따라 비교한 연구로, DIGORA Optime의 자동영상보정기술과 Oslo 대학에서 제안한
Oslo 향상법을 비교하였다. DIGORA Optime는 SOREDEX사에서 개발한 의료용 영상출력기로 밝기와 대조비를 조절하는 영상보정기술이 탑재되어있다.
Oslo향상법은 샤프닝(Sharpening), 명암대비 스트레칭, 감마 보정(Gamma correction), 수직영상 왜곡 등을 적용한 향상법이다.
그림. 5는 Oslo 향상법과 DIGORA Optime 를 적용한 예이다. (a)는 원본영상, (b)는 Oslo 향상법을 적용하였고, (c-f)는 DIGORA
Optime을 이용하여 사용자가 직접 영상을 개선 시켰다. 7명의 치아 방사선 전문의가 DIGORA Optime와 Oslo 향상법을 120개의 치아에
적용하여 평가하였다. 영상에 대한 평가는 1부터 5까지 우식의 진행정도에 따라 5개의 단계로 평가 되었다. 그 결과 Oslo 향상법이 더 나음을 보였다[12].
그림. 5. 영상 향상의 예 (a) 원본 영상, (b) Oslo 향상법 (c-f) DIGORA Optime[12]
Fig. 5. Image enhancement example (a) Original Image, (b) Oslo enhancement (c-f) DIGORA
Optime
다양한 질감(Texture) 특성화 기법을 사용하여 치아우식 분류가 가능하다. 공간적인 질감 특성을 분석하는데 GLCM(Gray Level Co-occurrence
Matrix)이 가장 널리 이용되고 있다. GLCM은 현재 픽셀과 그 이웃하는 픽셀의 밝깃값의 관계를 대비(Contrast), 상관관계(Correlation),
에너지(Energy), 동질성(Homogeneity) 등과 같은 질감 특징을 결정하는 통계량으로 계산하여 표현하는 것으로, 밝기를 나타낸 영상에서
정의한 변위 벡터의 거리와 방향이 일치하는 픽셀 쌍의 빈도수를 표시하는 빈도수 행렬이다. 이 행렬로부터 영상의 질감을 대표할 수 있는 다양한 2차
통계치 들을 계산할 수 있다[13].
이외에도 영상의 품질을 개선하기 위하여 잡음을 제거하거나 경계를 강조하는 방법 필터를 사용하는 방법이 있다. 메디안(Median) 필터, 위너(Wiener)
필터, 평균(Average) 필터와 같은 스무딩(Smoothing) 필터를 사용하여 잡음을 제거할 수 있으며 치아우식 병변의 경계를 강조하기 위해
샤프닝(Sharpening) 필터를 사용하기도 한다[7,9,11,14].
2.3 우식 검출 및 분류(Caries Detection & Classification)
다음은 개별적으로 분리된 치아 영상을 분석하여 부식된 병변을 찾고(Caries detection) 치아우식이 맞는지 분류(Classification)를
한다. 치아우식 병변을 검출하는 방법은 원본 영상과 영상처리 알고리즘을 적용한 영상 간에 차이를 이용하거나 알고리즘을 통해 병변이 의심되는 영역을
직접 검출하는 방법이 있다. 이후 병변이라 의심되는 영역으로부터 특징을 추출한 뒤 통계적으로 분석하여 그 결과를 토대로 우식 여부를 판별한다.
FCM(Fuzzy C-means)방법을 적용한 연구는 원본 영상으로부터 배경영역, 치아 법랑질, 상아질, 그리고 치수 등의 4가지 영상을 분리하였다.
이 영상들을 비교하면 병변과 병변의 깊이를 측정할 수 있다. 정상적인 치아의 테두리는 극단적이지 않고 변형이 있더라도 부드러운 곡선을 갖는 특징이
있다. 반면에 우식이 있는 치아는 경계선에 큰 변화를 주기 때문에 경계가 거칠다. 이러한 특성을 이용하여 시스템을 구성하였으며 128개의 데이터로
시스템을 평가하였다. 법랑질 우식에 대해서는 60%, 상아질 우식에 대해서는 97% 진단 정확도를 보였다[17]. 반전(Negative) 영상과 원본 영상을 비교한 연구에서는 원본영상에 대조비를 향상한영상과 반전 영상을 비교함으로써 치아우식, 낭종과 같은 질병들을
유추하였다[6]. 치아 X-선 영상에 침식(Erosion)과 팽창(Dilation) 연산을 적용한 두 영상을 비교하면 영상에 존재하는 우식병변이나 객체의 경계가
추출된다. 이러한 방법은 X-선 영상을 판독할 때 도움을 준다[22]. 부식된 치아만 분할된 X-선 영상에서 법랑질 부식과 인접면 부식병변을 찾을 수 있다. 먼저 법랑질 부식은 X-선 영상에서 흰색으로 보이는데 이를
이용해 에나멜 충치의 히스토그램 강도 범위를 결정한다. 두 개의 치아 사이에 발견된 충치는 인접면 부식이라 한다. 침식, 팽창과 같은 기법들은 부식된
영역이 돋보일 수 있게 한다. 25개의 방사선 영상으로 히스토그램 강도의 범위를 결정하고 10개의 다른 영상으로 평가하였다[23].
우식 의심 병변 검출 후, 우식임을 판별하기 위해 전처리와 이진화를 거친 영상의 부식된 영역으로부터 Entropy, Standard Derivation,
Mean, Area 4가지 특징을 통해 통계적 매개 변수를 추출하였다. 특징들의 정량적 분석을 통해 우식 진행도에 따라 낮음(Low), 중간(Medium),
높음(High) 3개 등급으로 나누어 평가하였다[11]. 이렇게 특징값만을 이용하여 단순히 분류하는 것이 아니라 SVM(Support Vector Machine), 결정 트리(Decision tree),
랜덤 포레스트(Random forest), 신경망(Neural network)과 같은 머신러닝 기법을 통해 우식인지 아닌지 판별한 연구들이 있다.
먼저 결정 트리를 이용하여 판별한 연구에서는 조기 우식증 진단에 중요한 치아 탈회를 확인하기 위해 치과 전문의 진단의 기준이 되는 Cavitation,
질감(Texture), 거칠기(Roughness), 치아 표면의 변색 및 불투명도를 이용하였다. 분할된 치아 영역 내의 7x7 서브 영상 히스토그램에서
Average intensity level, Average contrast, Mean of smoothness, Third moment, Measure
of uniformity, Entropy, Magnitude of gradient와 같은 7가지 특징을 추출한 뒤 C4.5 결정 트리로 분류하였다.
C4.5는 ID3 결정 트리 알고리즘의 확장으로써 가장 높은 정규화된 정보 이득을 갖는 속성을 사용하여 데이터를 클래스들로 분할하는 결정 트리를 생성한다.
치아 표면에 있는 모든 부식된 영역은 연결되지 않을 수 있으므로, 다른 충치 영역을 식별하기 위해 색상 세분화를 적용한다. 이후 각 픽셀에 대해 7가지로
이루어진 특징 벡터를 C4.5 결정 트리로 분류하여 우식과 비우식을 구별하였다. 이때 6개의 영상으로부터 얻은 40,037개의 픽셀에 대해 훈련 및
테스트를 하였다. 전체 샘플 중 38,505개 샘플은 정상, 1,532개 우식영역으로 이루어져 있다. 많은 계산량을 줄이기 위해 몇 가지 주요 특징만으로
계산하는 PCA(Principal Component Analysis)를 적용하였다. PCA를 적용하기 전 96.86%의 정확도를 보이고 PCA를 적용하면
96.62%의 정확도를 보였다[15].
HOG(Histogram of Oriented Gradient)는 영상의 지역적인 기울기(Gradient)를 해당 영상의 특징으로 사용하는 방식으로
이 특징과 SVM을 이용하여 우식병변을 분류하였다. SVM의 최적화 기법으로는 개체 군집 최적화(Particle swarm optimization)를
적용하였다. 60개의 X-선 영상으로 훈련하고 15개로 검증(Validation)을 진행하였다. 25개의 영상으로 평가하였다. 테스트 결과 92.4%의
정밀도를 가졌다[24]. 다른 연구에서는 그레이레벨 영상에 대해 Watershed 알고리즘을 적용하여 분할한 영상들이 SVM의 입력이 된다. X-선 영상은 1000x800픽셀로
6~8개의 치아를 촬영한다. 이 연구에서는 원본 영상에서 관심 영역(Region of Interest, ROI)을 60x90 크기의 직사각형 형태로
구성하여 부식된 병변 이외에 불필요한 다른 치아들을 포함하는 문제를 해결하였다. Contrast, Relativity, Mean of sum, Sum
entropy, Variance of sum, Difference entropy 등 6가지를 특징으로 하여 SVM으로 분류하였다. 총 170개의 X-선
영상은 부식된 치아와 정상 치아가 같은 비율로 구성되어있다. 총 170장의 영상 중 학습에는 100장, 70장은 테스트로 사용되었다. RBF(Radial
Basis Function)커널을 적용하지 않은 SVM 분류기에 대해 65.71%의 정확도를 얻었다. RBF커널을 적용하면 서포터 벡터와 반복횟수를
조절할 수 있는데 74.29%의 더 높은 정확도를 얻었다. 이는 역전파 신경망일 때 정확도 68.57%, 15년 이상 경험이 있는 치과 전문의 정확도
73.4%, 5년 정도 경험이 있는 치과 전문의의 정확도는 62.3%로 제안한 알고리즘이 더 높은 정확도를 보였다[14]. 신경망을 적용한 연구는 64x64 픽셀의 X-선 영상을 사용하고 입력층과 3개의 은닉층, 그리고 소프트맥스 분류기로 구성하였다. 전체 데이터의
1/3은 각각 우식과 비우식의 학습데이터로 사용되었으며, 나머지는 테스트에 사용되었다. 그 결과 97%의 정확도를 보였다[25]. 지도학습 벡터 양자화(Learning vector quantization)를 이용한 연구는 구강 디지털 영상과 X-선 영상 두 종류의 영상에 대해
추출한 특징들을 이용하여 신경망을 구성하였다. 지도학습 벡터 양자화를 적용하기 전 정규화한 그레이레벨의 영상으로 특징 벡터를 구성하였다. 관심 영역을
통해 우식이 의심이 되는 영역에 선을 그어 얻은 라인 데이터를 벡터 형태로 신경망의 학습에 사용하였다. 구강 디지털 영상은 30개, 방사선 영상은
90개의 벡터 데이터가 신경망의 입력에 사용되었다. 26개의 구강 디지털 영상, 23개의 방사선 영상이 학습에 사용되었으며, 160개의 구강 디지털
영상과 162개의 방사선 영상으로 테스트하였다. 그 결과 구강 디지털 영상에 대해서는 0.77의 민감도를 보였고, 방사선 영상에서는 0.81의 민감도를
보였다[26]. 다른 신경망을 이용한 연구에서는 GLCM으로부터 변형된 각각의 입력 영상에 대하여 Energy, Entropy, Contrast, Correlation,
Homogeneity, Angular Second Moment, Mean, Median, Variance, Standard deviation을 추출하고
LA-PSO(Linearly Adaptive Particle Swarm Optimization)방법으로 최적화된 신경망의 입력으로 사용되었다. 제안된
알고리즘의 정확도는 99%로 다른 알고리즘인 SVM 분류기보다 역전파 신경망이 더 높은 정확도를 보였다. 역전파 알고리즘보다 손실도 더 낮고, 소요시간
또한 덜 걸리는 장점을 보였다[13].
동일한 특징이지만 머신 러닝 기법에 따라 분류 결과가 다르다. 라돈변환과 이산 코사인 변환으로 주파수 영역에서 얻은 특징들로 여러 가지 분류기를 적용하여
비교한 연구가 있다. 라돈변환은 X-선 영상의 각도에 대해 저주파 영역을 좀 더 세부적으로 나타낸다. 라돈변환을 거친 영상에 대해 이산 코사인 변환을
하여 주파수 성분으로 변환한 영상에서 PCA를 적용하였다. 이후 영상을 구성하는 주요 특징을 나이브 베이즈 분류기, 결정 트리, 랜덤 포레스트, 신경망,
RBF(Radial Basis Function)망, Adaboost, SMO(Sequential Minimal Optimization), Decision
Stump와 같은 8가지의 분류기로 분류하였다. 그 중 랜덤 포레스트가 86%로 가장 높은 정확도를 보였고, 나이브 베이즈 분류기와 신경망이 80%로
비교적 낮은 정확도를 보였다[8]. 다른 연구에서는 분할한 치아 영역에 대해서 Entropy, Mean, Gradient를 이용하여 76개의 특징을 추출하였다. 추출한 76개의 중
상위 12개의 특징으로 ICDAS 0, ICDAS 1~2, ICDAS 3~6 세 가지 그룹으로 나누어 평가하였다. 분류기는 결정 트리, SVM, 랜덤
포레스트, 신경망으로 분류하였으며 86.3%로 랜덤 포레스트가 가장 높은 정확도를 보였다[9]. 다른 연구에서는 관심이 있는 조기 부식 병변(pre-cavitated lesions)과 부식된 교합 병변(cavitated occlusal lesions)으로부터
k-means 알고리즘으로 검출하여 Contrast, Correlation, Energy, Homogeneity, LBP(Local Binary Patterns),
Entropy, Mean intensity 등의 특징으로 총 36개의 특징을 추출하였다. 추출한 특징으로 J48, 랜덤 트리, 랜덤 포레스트, SVM,
나이브 베이즈 분류기와 같은 분류기로 분류하였다. 103개의 치아 영상 중 425개의 병변에 대해 분류한 결과 랜덤 포레스트에서 86% 정밀도, 86%
재현율의 가장 좋은 결과를 보였다[20].
추론을 통한 치아우식을 예측하는 연구에서는 퍼지 추론을 적용하여 5가지의 질병으로 나누는데, 입력은 Entropy Edge-value Intensity(EEI),
Local Binary Pattern(LBP), RGB, Gradient, Patch level과 같은 특징들을 포함한다. 이 특징들을 높음, 중간,
낮음 3단계로 나누었다. 각 영상의 특징값에 따라 Cracked, Hidden, Cavities, Missing, Periodontitis 5가지
질병으로 나누었다. MSE(Mean Squared Error), MAE(Mean Absolute Error), 정확도로 다른 알고리즘과 비교하였다.
제안된 알고리즘은 MSE가 0.087, MAE, 0.087, 정확도가 91.3%로 다른 알고리즘인 PST (Prim Spaning Tree), APC(Affinity
Propagation Clustering), FIS(Fuzzy Inference System), FKNN(Fuzzy K-Nearest Neighbor)
보다 더 나은 성능을 보였다[18].
최근 치아우식 진단에도 딥러닝을 적용하는 연구가 진행되고 있다. CNN(Convolution Neural Network)은 기존의 신경망에 영상을
효과적으로 학습할 수 있도록 변형된 신경망 구조이다. 대표적으로 AlexNet, GoogLeNet, VGGNet 등의 CNN 분류기가 기존의 설계된
특징 벡터를 이용하는 분류기보다 훨씬 뛰어난 성능을 보여주며 분류 및 검출 능력을 검증하였다. 딥러닝을 이용한 [27][27]에서는 100개 이상의 Fully Convolutional Neural Network 층으로 이루어진 신경망으로 학습하였다. 이때 학습하는 X-선
영상 3000장 중 5%는 검증 집합(validation set)으로 사용되었다. 시스템 성능을 평가하는 방법으로 정밀도(Precision)와 재현율(Recall)이
있는데, 어느 지표가 더 중요하다고 할 수 없다. 그래서 모두 고려한 지표로 F-Score가 있다. 제안한 시스템은 F1- Score 0.7로 다른
의사들에 비해 0.14~0.2 정도 높은 것을 확인할 수가 있다[27]. 다른 연구에서는 모든 영상을 치아가 위를 향하도록 회전을 한 뒤 다양한 크기를 가진 총 493장의 영상 중 436장은 학습에 사용하고, 57장은
제안한 시스템을 검증하는 데 사용하였다. 부족한 데이터를 늘이기 위해 원본 영상을[–10, -5, 0, 5, 10]로 회전시킨 후 회전된 영상을 좌우
반전시켜 한 장의 원본 영상에서 열 장으로 증가시켰다. 네트워크는 컨볼루션 층 3개 풀링층 3개 소프트맥스 2개 층과 활성화 함수층으로 이루어져 총
9개의 층으로 구성되어있다. 소프트 맥스의 역할은 회귀 분석기로 각 패치의 중심 픽셀이 우식일 확률과 비우식일 확률을 계산한다. 연구에서는 소프트맥스
결과에 임계값을 할당하여 임계값에 따라 우식과 비우식을 구별하였다. 임계값이 0.80일 때 F1-Score는 0.76, 0.96일 땐 0.81의 성능을
보인다[28].
네트워크를 직접 구성할 수 있지만 GoogLeNet이나 VGGNet과 같이 이미 훈련이 잘되어 검증된 모델을 적용할 수 있다. VGGNet을 이용한
연구에서는 X-선 1740장 중 1044장은 학습에 348장은 검증에 348장은 테스트에 사용되었다. 학습을 위해 사용된 1044장은 회전, 이동,
Shearing을 무작위로 변화를 주어 원본 영상을 100배 증가시켜 총 104400장으로 학습을 진행하였다. 모든 영상은 원본 영상을 224x224
픽셀 크기로 변환하여 신경망에 입력으로 사용되었다. 그림. 8은 논문에서 사용한 네트워크 구조를 나타낸다. 학습에 사용된 신경망 구조는 VGG-19 모델로 16개의 컨볼루션층과 3개의 Fully connected
layer로 이루어져 있으며 마지막 단에 소프트 맥스를 적용함으로써 심한 정도에 따라 건강함(Healthy tooth), 약간 손상된 치아(Moderate
Periodontally Compromised Teeth), 심하게 손상된 치아(Severe Periodontally Compromised Teeth)
3단계로 나누었다. 층이 깊어짐에 따라 과적합이 발생할 수 있으므로 Dropout을 적용하였다. 적용결과 전체적인 정확도는 81%, 심각한 병변에
대해서는 82.8%로 가장 높은 정확도를 보였고, 약간 손상된 병변에 대해서는 77.3%로 가장 낮았다[29]. GoogLeNet Inception V3을 적용한 연구는 법랑질, 상아질 손상을 포함한 치아 1500장, 정상치아 1500장으로 이루어진 총 3000장의
X-선 영상을 사용하였다. 학습데이터와 검증(validation) 데이터는 2400장, 테스트는 600장으로 진행되었다. 학습에 사용된 영상은 무작위로
회전, 이동, 확대, Shearing, 상하반전으로 10배로 증가시켰다. 모든 영상은 299x299 픽셀 크기로 변환하고 치아는 모두 치근이 아래로
향하도록 회전을 시켜 동일하게 하였다. 적용결과 전체적으로 82%가 정확도를 보였고, 소구치의 경우 89% 대구치는 88%의 정확도를 보였다[30].
그림. 8. 딥러닝을 이용한 치아우식 탐지 과정[29]
Fig. 8. Process of dental caries detection using deep learning[29]
표 1. 치아우식 탐지방법 비교
Table 1. Comparison of Dental Caries Detection
번호
|
데이터수 / 타입
|
방법, 특징
|
결과
|
[6][6]
|
10장/X-ray
|
원본 영상과 반전 영상을 비교한 뒤 4가지 특징 추출
|
정확도 70%
|
[8][8]
|
54장/X-ray
|
라돈변환과 이산 코사인 변환적용. 이후 결정 트리, 랜덤 포레스트, 신경망, 나이브 베이즈 등 여러 분류기를 이용하여 분류함
|
정확도 86%
(랜덤 포레스트)
|
[9][9]
|
88장/디지털 영상
|
분할한 치아 영역으로부터 76개의 특징 중 상위 12개 특징만 추출하여 결정 트리, 랜덤 포레스트, 신경망 등 여러 분류기를 이용하여 분류함
|
민감도 86%
특이도 86%
(랜덤포레스트)
|
[11][11]
|
5장/X-ray
|
전처리를 통해 얻은 이미지에 4가지 특징 추출 한 뒤 3가지 등급으로 나눔
|
$\cdot $
|
[13][13]
|
120장/X-ray
|
GLCM으로부터 영상의 특징들을 추출하여 신경망의 입력으로 사용. LA-PSO로 최적화함
|
정확도 99.16%
|
[14][14]
|
170장/X-ray
|
관심 영역으로부터 6가지 특징 추출하여 SVM으로 분류함. 이후 파라미터를 수정함.
|
정확도 74.29%
|
[15][15]
|
6장/디지털 영상
|
임계값으로 분할한 영상에 대해 7가지 특징 추출. 결정 트리로 분류함
|
정확도 96.86%
(PCA 적용 후 96.62%)
|
[17][17]
|
128장/X-ray
|
FCM으로 얻은 영상들을 서로 비교하여 병변획득
|
정확도
법랑질 60%
상아질 97%
|
[18][18]
|
56장/X-ray
|
FCM을 이용하여 이미지를 분할한 뒤 5가지 특징들을 추출함. 이후 퍼지추론을 이용하여 5가지 질병을 예측함
|
정확도 91.3%
|
[20][20]
|
103장/X-ray
|
k-means 알고리즘으로 분할한 영역에 대해 36개 특징을 추출하여 여러 분류기로 분류함
|
정확도 86.3%
(랜덤 포레스트)
|
[23][23
|
35장/X-ray
|
모폴로지 기법을 적용하여 얻은 영상에 대해 임계값을 결정하여 병변획득
|
$\cdot $
|
[24][24]
|
100장/X-ray
|
HOG을 특징으로 하여 모델 SVM으로 분류함. PSO를 적용하여 최적화함
|
정밀도 92.4%
|
[25][25]
|
6장/X-ray
|
신경망으로 학습하여 정상/비정상을 분류함
|
정확도 97%
|
[26][26]
|
26장/디지털 영상
|
지도학습 벡터 양자화를 통해 영상을 벡터 형태로 신경망의 입력으로 사용함
|
민감도 77%
특이도 85%
|
23장/X-ray
|
민감도 81%
특이도 93%
|
[27][27]
|
3000장/X-ray
|
100층 이상의 깊은 FCNN으로 이미지를 학습함. 사각형 형태로 병변을 표시함
|
F1-Score 0.7
|
[28][28]
|
493장/X-ray
|
8층의 FCNN으로 정상/비정상 이미지를 학습함
|
F1-Score 0.81
|
[29][29]
|
1740장/X-ray
|
VGGNet으로 학습함. 심한 정도에 따라 3단계로 등급을 나눔
|
정확도 81%
|
[30][30]
|
3000장/X-ray
|
GoogLeNet으로 학습함
|
정확도 82%
|