• 대한전기학회
Mobile QR Code QR CODE : The Transactions of the Korean Institute of Electrical Engineers
  • COPE
  • kcse
  • 한국과학기술단체총연합회
  • 한국학술지인용색인
  • Scopus
  • crossref
  • orcid

  1. (Dept. of Interdisciplinary Graduate Program for BIT Medical Convergence, Kangwon National University, Korea.)
  2. (Gangwon-do Livestock Research Institute, Korea.)



Image segmentation mask, Korean cattle, Weight correlation factor, Weight estimation

1. 서 론

국내 축산업은 한국 농촌경제연구원에 따르면 현재 농림업 전체 생산액의 40% 이상을 차지하고 있고, 2030년에는 50%로 확대될 전망으로 보이는, 고가치의 산업이다(1). 현대의 축산업은 본래 가지고 있던 문제의 해결과 체계적인 사양관리를 위해 과학적인 접근 방식의 필요성이 요구되고 있다. 한국 최초의 FTA(Free Trade Agreement)인 칠레와의 FTA가 발효된 지 17년이 지났으며, 농산물 수입 관세의 대부분이 이미 사라졌다. 한국 농촌경제연구원에 따르면, 미국산 쇠고기는 2026년부터, 호주산 쇠고기는 2028년부터 관세가 철폐되고, 국내 축산업은 세계 각국의 축산 선진국들과의 경쟁 시대에 들어서게 되어 경쟁력 제고가 필요한 시점이다.

현대의 축산업에는 고소득화, 고령화, 대규모화의 3가지 특징을 볼 수 있다. 통계청에 따르면, 인구증가와 육류선호도 증가로 국내 육류의 소비는 지속해서 증가해왔다. 연간 1인당 육류 소비량은 1980년부터 2018년까지 평균 4.2%씩 증가하였으며 그 중 쇠고기는 연평균 4.3%씩 증가하여 돼지 소비량보다 큰 폭으로 상승하여 쇠고기 선호도가 늘어나고 있음을 보여주고 있다(2). 그에 따라 축산 농가의 소득은 연평균 4.4%씩 증가하여 현재는 경종작물 농가의 2배 이상의 소득이 발생하여 고소득화가 진행되고 있다. 그리고 축산 농가의 전체 경영주 중 65세 이상 경영주의 비율은 2005년 25.2%에서 2019년 43.6%로 증가하여 절반에 가까운 농가가 이미 고령화가 진행되었다. 그리고 2005년 이후, 100마리 이상 사육 농가 수는 연평균 12.7%, 사육 마릿수는 11.3% 증가하고 소규모 20마리 미만 사육 농가 수는 7.7%씩 감소하는 수치를 보여, 국내 축산업이 대규모화되고 있음을 알 수 있다. 고소득화는 축산업이 높은 가치를 지닌 시장임을 보여주고, 고령화와 대규모화는 자료화 및 자동화를 통해 많은 마릿수의 동물을 체계적으로 관리하며, 동시에 고령의 경영주를 위한 필요노동력을 감소시킬 수 있는 IT 기술 기반의 새로운 접근 방식의 필요성을 보여준다.

소의 체중 정보는 농가의 수익과 직결되는 대상의 성장률을 측정 및 출하를 위한 목표 수치의 확인, 소의 원활한 성장을 위해 국립축산과학원에서 제시하는 일일 사료급여량을 산출하는 데 사용되며, 간접적으로는 건강상태의 파악도 가능한, 축산 농가 입자에서 꼭 필요한 정보이다. 그러나 실제 축산 현장에서는 체중 정보가 동물의 사육관리에 적극적으로 사용되지 못하고 있으며, 소수의 농가를 제외하고는 우형기를 가진 농가조차도 많지 않은 상황이다(3). 2020년 이후 한우의 무게는 평균 700kg을 넘어섰다. 인간이 사육하는 가축 중 가장 크고 무거운 소를 우형기로 유도하는 과정은 많은 인력이 필요한 작업이며, 앞서 언급했던 대규모화를 고려한다면 더욱 해결책이 필요한 문제이다. 이러한 상황을 해결하기 위해, 농촌진흥청에서는 가슴둘레와 회귀 식을 사용해 체중을 산출하는 ‘한우 체중 산정용 줄자’와 사육방법, 성별 및 월령으로 표준적인 체중을 추정하는 ‘한우 표준 체중 계산기’을 개발했으나, ‘한우 체중 산정용 줄자’는 여전히 인력이 필요하며, 정확도가 약 10%로 700kg의 평균 무게에 대해서 70kg의 오차가 발생한다. ‘한우 표준 체중 계산기’는 엑셀 표를 활용한 프로그램으로, 인력을 소모하지 않는 점에서는 큰 개선이 되었지만, ‘한우 체중 산정용 줄자’보다 큰 오차범위를 갖는 점에서 우형기를 대체할 완전한 방법이 되지 못했다(4,5).

그림 1 축산업 관련 통계 (a) 년도 별 고령화율, (b) 년도 별 소득, (c) 20마리 미만 사육 농가 수 및 100마리 이상 사육 농가 수

Fig. 1 Statistics related to livestock industry (a) Aging rate by year, (b) Income by year, (c) Number of farms raising less than 20 and more than 100 animals

../../Resources/kiee/KIEE.2022.71.1.246/fig1.png

영상기기의 보급과 디지털 영상 처리 기술의 고도화, 영상 관련 인공지능 기술의 등장, 깊이를 측정하는 3D 카메라의 등장으로 하드웨어적, 소프트웨어적으로 영상 처리 분야가 크게 발전하였다. 영상 처리 기술을 축산분야에 적용한 사례 또한 늘어나고 있고 성과도 나타나고 있다. 3D 카메라 영상 데이터를 사용하는 관련 연구는 돼지의 몸통 너비, 엉덩이 너비 및 체고를 각각 10.3%, 5.87%, 7.01%의 오차 성능에 도달하였다(6). 모형 소의 탑뷰와 사이드뷰를 촬영한 영상을 기반으로 진행된 연구는 실제 소에 적용해 가슴 너비, 엉덩이 너비, 골반 너비에 각각 1.1~16.7%의 오차 성능을 나타냈다(7). 이러한 기존 연구들은 영상 처리 기술을 기반으로 하는 연구가 축산분야에서 좋은 성과를 얻을 수 있음을 보여주고 있는데, 그보다 더욱 기대되는 기술은 인공지능을 활용하는 기술들이다. LeCun의 Lenet-5에서 CNN(Convolution Neural Network)가 적용되면서 영상 분야의 딥러닝 기술이 적극적으로 연구되기 시작했다(8), 딥러닝 기반의 알고리즘을 사용한 기존의 연구들로는 소의 머리, 몸통, 네 다리를 탐지한 연구는 99.18%의 성능을 보여주었고(9), 앞다리와 뒷다리를 탐지하여 스텝의 크기로 절름발이 소를 탐지한 연구는 98.57%의 정확도를 나타내었으며(10), 돼지의 탑뷰 영상 데이터에서 탑뷰의 면적을 사람이 측정하여 신경망을 사용해 체중을 추정한 연구는 체중을 오차 4%의 성능으로 예측하였다(11). 이러한 연구들은 축산분야에 딥러닝 기술이 적용되어 유의미한 성과를 나타낼 수 있으며, 기존 방법을 대체할 수도 있음을 보였다.

축산분야에 대해 영상기반의 접근 방식에서는 각 개체의 정보를 추출하기 위해서 영상 분할이 필수적이다. 분할을 통해 얻어지는 결과는 대상의 형태적 특징을 제공하기 때문이다. 딥러닝 기반의 영상 분할은 수많은 영상을 학습하여 공통적인 경향을 근거를 학습하여 추정이 이루어지기 때문에, 특정한 임계점을 기준으로 판단하는 영상 처리 기술인 GrabCut이나 Selective Search 및 ACM(Active Contour Model)보다 환경변화에 비교적 강인하고, 정확성도 높아 객체의 정보를 추출함에 적절하다(12). 획득한 분할 마스크에서 어떤 정보를 추출하는지 또한 중요하다. 소의 체중과 신체 특정 부위의 상관성을 조사한 기존 연구는 소의 체고와 가슴 너비 및 몸 깊이가 체중에 대해서 각각 0.65, 0.73, 0.49의 상관관계가 있음을 조사한 연구가 있고(13), 소의 월령에 따라서 성장기에는 체고와 상관관계가 크고, 성숙기에는 너비와 상관관계가 크다고 파악한 연구도 있다(14).

본 논문은 상기 작성한 내용을 근거로 새로운 방식의 한우 체중 추정 방법을 제안한다. 영상기반의 방법을 사용함으로써 필요노동력을 줄이고 항시 동작으로 체중 변화량을 기록할 수 있게 하면서도 우형기를 대체할 수 있을 만큼 높은 정확성을 갖추는 것을 목표로 연구가 수행되었다. 딥러닝 기반의 영상 분할 알고리즘으로 동물과 배경을 분할하여 분할 마스크를 획득하고, 획득한 분할 마스크는 대상의 형태적 특징을 담고 있어서 면적과 체장 및 몸 너비의 체중과 상관성이 높은 요소를 추정 및 추출하였고, 회귀신경망으로 체중을 추정하였다. 기존 연구에서 체중과 높은 상관성을 보인다고 앞서 언급한 체고와 몸 깊이 정보를 수집할 수 있는 사이드뷰 영상을 사용하지 않고 탑뷰 영상만을 사용하여 높은 정확도를 획득하였다. 사이드뷰는 다른 동물이나 울타리 및 사물에 가려질 수 있어 실제 우사에서 사용되기 어려우나, 탑뷰는 그런 상황을 최대한 배제할 수 있어 다양한 구조의 실제 우사 환경에 좀 더 쉽게 활용될 수 있어서 탑뷰 영상만을 사용하였다.

2장에서는 활용한 기술과 개발한 기술을 소개하며, 기존 연구를 근거로 추정한 체중 상관요소와 성능을 향상하기 위해 고안한 격자 상관요소를 설명한다. 3장에서는 영상 분할의 성능을 평가하여 분할 마스크가 대상의 형태학적 특징을 잘 나타낼 수 있음을 확인하고, 체중 상관요소 구성에 따른 추정 체중과 실측의 오차를 평가하여 개발한 알고리즘의 정확성을 파악한다. 4장에서는 결론과 함께 향후 연구를 설명한다.

2. 본 론

2.1 연구 데이터

강원도 횡성에 위치한 강원도 축산기술연구소에서 데이터수집을 진행하였다. 강원도 축산기술연구소는 수익성이 필요한 실제 축산 농가와 달리, 연구를 위한 기관으로 약 3개월 혹은 6개월마다 체중 및 체위측정을 수행한다. 그 때문에 체중 및 체위측정을 위한 유도로, 장비 및 인력이 준비되어 있고, 카메라를 우형기 위 천장에 설치하여 측정 진행 시의 개체의 탑뷰 영상과 실측 체중량을 동시에 수집하였다.

수집한 데이터는 총 45마리에 대한 1280x720(HD) 해상도의 영상 데이터며, 주로 10시 ~ 2시 사이에 수집이 진행되어 조도가 충분히 밝은 상황이었다. 실측 무게는 최저 158kg ~ 최고 651kg의 무게를 가지며, 평균은 334.47kg, 표준편차는 148.34이다. 연구를 진행하면서 45마리 중 23마리의 데이터 2,629장은 학습에 사용하고, 22마리의 2,392장을 테스트에 사용하였다. 테스트 데이터의 22마리는 총 45마리를 무게순으로 2그룹으로 나눈 후, 각 그룹에서 절반에 해당하는 숫자만큼 무작위로 추출하여 임의로 데이터 세트를 구성하면서도 학습데이터와 테스트 데이터 사이에 특정 범위의 무게가 편중되지 않도록 구성했다.

2.2 장비 및 환경

연구에 사용한 컴퓨터 자원은 Intel Xeon 프로세서, NVIDIA TITAN RTX 24GB이며, 환경은 Window 10 운영체제, CUDA 11.0이다. 데이터수집에 사용된 카메라는 모델명 GB-CDX로 최고 해상도는 1920x1080(FHD), 30FPS이지만, 저장공간을 고려해 1280x720(HD)로 낮추어 사용하였다.

2.3 효과적인 학습데이터 선별

(1)
$w_{\neq w}=w_{\text {old }}+\alpha e x$

본 연구에서는 영상 분할을 위한 Mask R-CNN과 추출된 체중 상관요소를 입력으로 체중을 추정하는 인공신경망의 2개의 딥러닝 네트워크가 사용되는데, 두 모델은 다른 구조로 되어 있으나, 모두 지도학습 알고리즘이다(15). 지도학습은 Ground Truth와 모델의 출력을 비교하여 그 차이를 통해 가중치를 갱신한다. 지도학습의 기본적인 가중치 갱신 수식은 (1)과 같다. $w_{new}$는 갱신된 가중치를, $w_{old}$는 갱신 전 가중치 혹은 초깃값을, $a$는 학습률, $x$는 입력을 의미한다. 가중치 갱신은 이러한 과정으로 이루어지기 때문에, 다양한 종류의 데이터가 많을수록 공통이 되는 경향을 올바르게 학습할 수 있고, 편중되어 반복되는 데이터는 오히려 많을수록 학습에 방해가 되며 과적합을 발생시킬 수 있다. 수집된 데이터는 초당 30프레임의 동영상인데, 연속되는 프레임은 그 차이가 너무 작아서 같은 데이터의 반복이라고 볼 수 있다. 그 때문에 동물의 움직임이 많을 때는 더 많은 프레임을 선택하고, 움직임이 적거나 없을 때는 최초 1장의 프레임만 선택할 수 있도록, 히스토그램 변환을 활용하여 변화량이 50,000을 넘는 프레임을 선택하는 방법을 사용했다. 이 방법을 사용하면 약 200,000개의 프레임을 10,081개의 프레임으로 추출할 수 있다. 그림 2는 그 결과를 표현하였다.

그림 2 데이터 선별 결과

Fig. 2 Data screening results

../../Resources/kiee/KIEE.2022.71.1.246/fig2.png

그림 3 영상 분할 결과

Fig. 3 Image segmentation result

../../Resources/kiee/KIEE.2022.71.1.246/fig3.png

2.4 딥러닝 기반 영상 분할 알고리즘

영상 분할은 체중 상관요소를 추정하고 추출하기 위한 필수적인 작업이다. 체중 상관요소는 영상 데이터의 색감이나 질감이 아닌, 형태에 대한 길이나 면적 따위의 것들이기 때문이다. 본 연구에서는 대상과 배경을 나누어 대상의 분할 마스크를 획득하기 위해 Mask R-CNN 알고리즘을 사용하였다. Mask R-CNN은 객체탐지 알고리즘인 Faster R-CNN과 영상 분할 알고리즘인 FCN(Fully Convolutional Network)를 합친 구조를 가지는 모델이다(16,17). Faster R-CNN이 예측하는 RoI(Region of Interest)에 FCN이 적용되는 구조로 합쳐지면서, Faster R-CNN이 객체를 탐지하며 어떤 객체인지 클래스를 분류하는 기능을 하므로, 픽셀 단위로 영역을 분할하는 FCN은 객체를 분류할 필요가 없어졌다. 그래서 활성 함수로 사용되던 기존의 Softmax 대신 해당 픽셀이 마스크인지 아닌지 두 개의 클래스로 분류하는데 유리한 Sigmoid를 사용하면서 성능이 향상되었다. 이것은 모델이 분류할 클래스를 2개로 줄어드는 것을 의미하며, 확률 기댓값이 증가하여 자연스레 성능이 향상된다. Mask R-CNN은 앞서 언급했듯이, 지도학습의 가중치 갱신방식을 따르므로, 학습을 위해서는 Ground Truth 마스크가 필요하다. VIA(VGG Image Annotator) 라벨링 툴을 사용해 5,021장의 영상을 라벨링 작업했다.

Mask R-CNN은 체중 상관요소를 추정하기 위한 전처리 기법으로 사용되기에 충분히 정확한 성능을 보였으며, 영상 분할 성능에 대한 평가는 3절에서 진행하였다. 그림 3은 영상 분할 결과를 시각화하여 나타낸다.

2.5 체중 상관요소의 추정 1 (면적, 체장, 몸 너비)

동물의 생체 특징과 체중의 상관관계를 조사했던 기존의 생물학 분야의 연구들과 돼지 및 물고기의 체중을 추정했던 영상 처리 분야의 연구들에서 면적과 체장 및 몸 너비를 주된 체중 상관요소로 추정 및 사용하였다(18,19). 이 요소들은 직관적인 판단으로도 동물의 성장과 관계있는 것들이며 실제로 상관관계를 조사하여도 높은 수치를 가지고 있다.

첫 번째 상관요소인 면적은 분할 마스크의 크기를 구하면 쉽게 얻을 수 있지만, 체장과 몸 너비는 동물이 움직이기 때문에 방향이 계속 바뀌어 분할 마스크의 너비와 높이를 계산하여 쉽게 얻을 수 없다. 이러한 부분을 고려하여, 소가 카메라와 평행한 자세를 취하지 않고 어떤 방향을 향해 있더라도 일관적인 값을 추출하기 위해 최적 타원을 활용하였다. 분할 마스크에 대하여 최적 타원을 그린 후, 최적 타원의 장축과 단축을 추출하면 대상의 자세 변화에 강인하고 일정한 수치를 획득할 수 있다. 이러한 과정은 구하고자 하는 것이 소의 정밀한 체장과 몸 너비가 아니라, 체중과 상관관계가 높은 요소이기 때문에 적용 가능한 과정이라고 할 수 있다. 그림 4는 분할 마스크에 최적 타원을 시각화한 것을 보여준다.

그림 4 최적 타원의 장축과 단축

Fig. 4 Major axis length and Minor axis length of the optimal ellipse

../../Resources/kiee/KIEE.2022.71.1.246/fig4.png

표 1은 본 연구에서 산출한 피어슨 상관 계수이다. 피어슨 상관 계수는 변수 사이의 선형 상관관계를 계량화한 수치로써, +1과 –1 사이의 값으로 나타나며 +1은 완벽한 양의 상관관계를, -1은 완벽한 음의 상관관계를, 0은 아무 관계가 없음을 의미한다.

표 1 면적과 장축 및 단축의 체중 상관 계수

Table 1 Area and weight correlation coefficient of major and minor axes

Pearson Correlation Coefficient

Score

Major axis length

0.557

Minor axis length

0.350

Area

0.88

2.6 체중 상관요소의 추정 2 (격자, 이심률)

앞서 기술한 면적, 체장 및 몸 너비가 관련 연구들을 근거로 설정한 요소였다면, 앞으로 설명하고자 하는 격자 상관요소는 기존에 체중과의 상관성이 연구된 근거는 없지만, 직관적으로 생각해 볼 때 동물 몸의 크기와 연관이 있는 요소이며, 여러 시도 후 경험적 판단으로 체중 추정에 유리한 요소이다. 3장의 평가에서 이 격자요소의 유무에 따른 성능의 개선을 서술한다.

격자 상관요소는 다음과 같은 과정으로 추출하였다. 2.5절에서 설명했던 최적 타원의 장축과 단축을 획득하는 것이 선행된 후, 장축과 x축이 이루는 각도를 계산하여 장축이 x축과 평행하도록 영상을 조정하여 동물이 카메라와 수평 하도록 만든다. 수평 하게 놓인 분할 마스크의 가로 길이를 같은 비율로 10개로 나누어 해당하는 x 좌표 위치에서 분할 마스크의 너비를 측정한다. 세로 방향에서도 이 과정을 5개로 나눈다는 것 외에 같게 수행하여, 수직선 8개 및 수평선 5개에 해당하는 길이 13개를 획득한다. 획득한 격자 상관요소를 그림으로 나타내면 그림 5와 같다. 그리고 동물의 웅크리는 동작에 대한 영향도 반영하기 위해 최적 타원의 이심률도 상관요소에 포함했다.

그림 5 격자 상관요소

Fig. 5 Lattice Correlation Factor

../../Resources/kiee/KIEE.2022.71.1.246/fig5.png

3. 성능평가

3.1 영상 분할 성능평가

영상 분할은 픽셀 단위로 분류를 수행해 객체와 배경을 나누는 것이므로, 얼마나 정밀하게 분할되었는지 파악하기 위해 Ground Truth와 겹치는 정도를 수치로 표현하는 IoU(Intersec- tion Over Union)가 중요한 역할을 한다. 평가 지표는 Preci- sion-Recall 곡선 아래 면적으로 Precision과 Recall을 상호보완하는 Average Precision을 사용하는데, 이때 기준 IoU를 넘지 못하는 참은 거짓으로 판단하도록 함으로써 객체의 분류가 올바르게 되었는지와 동시에 객체의 영역분할이 잘 수행되었는지 나타낼 수 있게 한다.

Precision과 Recall은 모두 참에 대한 평가 지표이지만, Preci- sion은 False Negative가 고려되지 않고, Recall은 False Positive가 고려되지 않는다. 이상적인 모델이라면 두 지표가 모두 높게 평가되지만, 간단한 예측 문제이거나 데이터를 충분히 많은 양을 사용하는 경우가 아니라면 두 지표가 서로 반비례 경향을 가질 수 있어서 Average Precision을 사용하여 모델을 평가하였다. IoU 기준을 0.50, 0.75, 0.85의 3가지 경우로 설정하여 예측 분할 마스크와 Ground Truth 마스크의 IoU가 적어도 0.50 이상인 예측만 참이 되도록 평가했다. 표 2에 수치를 나타내었다. 0.85 IoU 기준에서도 0.892의 높은 성능을 보여 분할 마스크가 객체의 특징을 잘 표현할 수 있음을 알 수 있다.

표 2 영상 분할 성능평가

Table 2 Image segmentation performance evaluation

Evaluation Metrics

(Confidence)

Mask R-CNN Score

Precision (0.50)

0.999

Precision (0.75)

0.996

Precision (0.85)

0.889

Recall (0.50)

0.999

Recall (0.75)

0.999

Recall (0.85)

0.999

AP (0.50)

0.997

AP (0.75)

0.992

AP (0.85)

0.892

3.2 체중 추정 성능평가

Ground Truth 마스크에서 추출한 체중 상관요소를 학습데이터로, 영상 분할을 통해 획득한 분할 마스크에서 추출한 체중 상관요소를 테스트 데이터로 사용하고 실측 무게를 정답으로 학습하여 체중을 추정하였다. 사용한 모델은 입력층과 은닉층 두 개 및 출력층의 완전연결층으로 구성하였다. RMSprop를 옵티마이저로 사용하고, 손실함수로는 MSE(Mean Squared Error)를 사용하여 큰 오차에 더 큰 반응을 하도록 하였다. 20 EPOCH 동안 검증 결과에 개선이 없다면 학습을 멈추도록 하여서 과적합을 방지했다. 평가는 일반적인 오차로 쓰이는 MAE(Mean Average Error)를 사용하였다. 체중과 상관성이 검증된 요소 면적, 체장, 몸 너비의 3가지 요소를 사용한 경우와 경험적 근거로 선택한 격자요소와 이심률을 추가한 경우를 비교하여 표 3에 검증된 요소와 추가 요소로 나타내었다. 검증된 요소 기반의 체중 추정은 MAE 28.02kg으로 테스트 데이터 22마리의 평균 무게 341.45kg에 대해 오차율 8.2%이며, 경험적 근거의 요소를 추가한 체중 추정은 MAE 25.75kg으로 오차율 7.5%이었다. 이 결과로 보아, 0.85 IoU 기준 AP 0.99의 성능을 보인 영상 분할 마스크는 충분히 동물의 형태적 특징을 나타낼 수 있었으며, 추가된 체중 상관요소로 체중 추정 성능이 개선되었음을 알 수 있다.

동물의 체중을 추정한 기존 연구들에는, 서론에서 언급한 돼지 체중을 추정한 연구는 등 면적과 신경망으로 체중을 추정하여 오차율 약 4%에 도달하여, 제안하는 연구의 성과 7.5%의 오차보다 낮은 오차 성능을 보였지만, 등 면적을 알고리즘이 아닌 사람이 직접 판단 및 측정하여 수행되어서 무인화를 이루지 못하며, 사이드뷰 데이터와 EfficientNet 모델을 사용해 체중을 추정한 연구는 정확도 0.89를 보였다(20). 때문에, 본 연구의 성과가 목표로 하는 무인화 및 높은 정확성에 근접했음을 알 수 있다. 추가로 본문에서 언급한 물고기 체중 추정 연구는 나일 틸라피아의 체중을 히스토그램 분포와 이진화의 영상처리 기법과 인코더와 디코더 구조의 영상 분할 딥러닝 모델을 사용하여 체중을 오차율 약 5%의 성능을 나타내었다. 이러한 성능은 물고기는 소와 달리 몸의 형태가 비교적 단순하며, 길이로 무게를 구하는 관계식이 성립할 만큼 선형에 근사한 비례관계에 있기 때문이다.

표 3 검증된 상관요소와 추가된 상관요소의 성능평가

Table 3 Performance evaluation of verified and added correlation factors

Method

Error Rate

Verified factor

0.082

Added factor

0.075

4. 결 론

국내 축산업은 고가치의 산업이며, 관세 철폐로 인한 축산 선진국과의 경쟁을 위해 IT 기술 기반의 새로운 접근 방식이 필요한 시점이다. 현대의 축산업은 소비 증가로 인한 고소득화, 고용주의 고령화, 많은 개체를 사육하는 대규모화의 특징을 보인다. 고소득은 축산분야에 관한 기술개발 투자를 가능케 하고, 고령화과 대규모화는 노동력을 줄이는 새로운 기술의 필요성을 나타낸다. 인공지능 기술은 자동화 및 자료화의 특성이 있어 축산분야에 적용되기 적절함과 동시에 과거엔 시도할 수 없었던 시도를 가능하게 한다.

축산업에서 체중 정보는 농가의 경쟁력과 직결되는 동물의 성장을 파악하고, 적절한 일일 사료급여량을 산출할 수 있는 정보이지만, 우형기로 체중을 재는 방법이 효율적이지 못하여 동물 사육에 적극적으로 활용되지 못하고 있다. 영상 처리 기술과 인공지능 기술이 함께 체중 추정에 사용되면, 부착형 센서와 달리 동물에게 스트레스를 유발하지 않으면서 몇 분 단위의 체중 추정이 가능하고, 그로 인한 세밀한 성장률 및 예상 무게를 파악할 수 있으며 영상을 기반으로 하므로 무인화 및 24시간 관찰을 가능하게 한다.

본 논문에서는 실제 우사에 적용하기 쉬운 탑뷰 데이터를 사용하여, 영상기반의 한우 체중 추정 시스템을 연구했다. 영상에서 객체의 영역만을 추출하는 분할 마스크를 생성하고, 분할 마스크에서 검증된 체중 상관요소와 추가하는 체중 상관요소의 총 19개의 요소를 추정 및 추출하여 인공신경망으로 7.5%의 오차 성능을 획득했다. 이 성능은 농촌진흥청의 ‘한우 체중 산정용 줄자’와 ‘한우 표준 체중 계산기’의 약 10%의 오차보다 낮은 수치로, 영상기반의 접근 방법이 체중 추정에 활용되어 우형기의 대안으로 사용될 수 있음을 보였다.

성능을 향상하기 위해 추가된 격자 체중 상관요소는 시작과 끝의 순서가 있는, 연속적인 특징을 가지는 요소였으나 본 연구에서는 그 특징을 활용하지 못했다. 따라서 향후 연구에서는 완전연결층과 합성곱층을 병렬 구조로 사용하여, 면적, 장축, 단축 요소는 완전연결층의 입력에, 연속적 특징을 가지는 격자요소는 합성곱층의 입력에 연결하여 성능을 더욱 향상하는 연구를 수행할 것이다.

Acknowledgements

Foundation of Korea(NRF) grant funded by the Korea government (MSIT)(No. 2017R1E1A1A03070297). This research was supported by the MSIT(Ministry of Science and ICT), Korea, under the ITRC (Information Technology Research Center) support program (IITP- 2021-2018-0-01433) supervised by the IITP(Institute for Infor- mation & communications Technology Promotion. This study was conducted with data support from the Gangwon-do Livestock Research Institute.

References

1 
Korea Rural Economic Institute, Agricultural Outlook 2021Google Search
2 
Korean Statistical Information Service, Changes in the structure of the livestock industry through statistics.Google Search
3 
National Institute of Animal Science, Enhancement of economic feasibility through proper management of bree- ding cattle using standard Korean cattle.Google Search
4 
Rural Development Administration, A tape measure that calculates the weight of Korean cattle without a scale.Google Search
5 
Rural Development Administration, Korean cattle standard weight calculator.Google Search
6 
K. Wang, H. Guo, Q. Ma, W. Su, L. Chen, D. Zhu, 2018, A portable and automatic Xtion-based measurement system for pig body size, Computers and Electronics in Agriculture 148, pp. 291-298DOI
7 
K. W. Seo, D. W. Lee, E. G. Choi, C. H. Kim, H. T. Kim, 2012, Algorithm for Measurement of the Dairy Cow’s Body Parameters by Using Image Processing, Journal of Biosystems Engineering 37.2, pp. 122-129DOI
8 
Y. LeCun, L. Bottou, Y. Bengio, P. Haffner, 1998, Gradient-based learning applied to document recognition, Proceedings of the IEEE 86.11, pp. 2278-2324DOI
9 
B. Jiang, Q. Wu, X. Yin, D. Wu, H. Song, D. He, 2019, FLYOLOv3 deep learning for key parts of dairy cow body detection, Computers and Electronics in Agriculture 166 104982DOI
10 
D. Wu, Q. Wu, X. Yin, B. Jiang, H. Wang, D. He, H. Song, 2020, Lameness detection of dairy cows based on the YOLOv3 deep learning algorithm and a relative step size characteristic vector, Biosystems Engineering 189, pp. 150-163DOI
11 
Apirachai Wongsriworaphon, Banchar Arnonkijpanich, Supachai Pathumnakul, 2015, An approach based on digital image analysis to estimate the live weights of pigs in farm environments, Computers and Electronics in Agriculture 115, pp. 26-33DOI
12 
Carsten Rother, Vladimir Kolmogorov, Andrew Blake, 2004, GrabCut interactive foreground extraction using iterated graph cuts, ACM transactions on graphics (TOG) 23.3, pp. 309-314DOI
13 
Georgios Banos, M. P. Coffey, 2012, Prediction of live- weight from linear conformation traits in dairy cattle, Journal of dairy science 95.4, pp. 2170-2175DOI
14 
X. Song, E. A. M. Bokkers, P. P. J. van der Tol, P. G. Koer- kamp, S. Van Mourik, 2018, Automated body weight prediction of dairy cows using 3-dimensional vision, Journal of dairy science, Vol. 101, No. 5, pp. 4448-4459DOI
15 
K. He, G. Gkioxari, P. Dollár, R. Girshick, 2017, Mask r-cnn, Proceedings of the IEEE international conference on computer vision, pp. 2961-2969Google Search
16 
S. Ren, K. He, R. Girshick, J. Sun, 2016, Faster R-CNN: towards real-time object detection with region proposal networks, IEEE transactions on pattern analysis and machine intelligence 39.6, pp. 1137-1149DOI
17 
Jonathan Long, Evan Shelhamer, 2015, Fully convolutional networks for semantic segmentation, Procee- dings of the IEEE conference on computer vision and pattern recognition, pp. 3431-3440Google Search
18 
G. Banos, M. P. Coffey, 2012, Prediction of liveweight from linear conformation traits in dairy cattle, Journal of dairy science, Vol. 95, No. 4, pp. 2170-2175DOI
19 
A. F. Fernandes, E. M. Turra, É. R. de Alvarenga, T. L. Passafaro, F. B. Lopes, G. F. Alves, G. J. Rosa, “Deep Learning image segmentation for extraction of fish body measurements and prediction of body weight and carcass traits in Nile tilapia, Computers and electronics in agriculture, 170, 105274Google Search
20 
A. H. Zhain, M. D. Guitara, B. U. Hidayahtuloh, R. A. Wibowo, H. F. Muttaqin, 2021, Digital Image Processing to Determine Weight and Classification of Cow Weight with Deep Learning, Psychology and Education Journal 58.1, pp. 6066-6082Google Search

저자소개

이창복 (Chang-bok Lee)
../../Resources/kiee/KIEE.2022.71.1.246/au1.png

He received the B.S. degree in Electrical and Electronic Engineering from Kangwon National University, South Korea in 2020.

He is curren- tly working toward the M.S. degree in Department of Interdisciplinary Graduate Program for BIT Medical Convergence, Kangwon National University, South Korea.

박연수 (Yeon-Soo Park)
../../Resources/kiee/KIEE.2022.71.1.246/au2.png

He received the MS and PhD degrees in Department of Livestock from Kangwon National University, South Korea in 1990 and 2006.

He has been conducting livestock research at Gangwon-do Livestock Research Institute since 1990, and is responsible for the overall live- stock industry.

조현종 (Hyun-chong Cho)
../../Resources/kiee/KIEE.2022.71.1.246/au3.png

He received his MS and PhD degrees in Elec- trical and Computer Engineering from the University of Florida, USA in 2009.

During 2010-2011, he was a Research Fellow at the University of Michigan, Ann Arbor, USA.

From 2012 to 2013, he was a Chief Research Engi- neer in LG Electronics, South Korea.

He is currently a professor with the Department of Electronics Engineering and Interdisciplinary Graduate Program for BIT Medical Convergence, Kangwon National University, South Korea.