• 대한전기학회
Mobile QR Code QR CODE : The Transactions of the Korean Institute of Electrical Engineers
  • COPE
  • kcse
  • 한국과학기술단체총연합회
  • 한국학술지인용색인
  • Scopus
  • crossref
  • orcid

  1. (Howard Lab Co., Ltd. , Republic of Korea. E-mail : ardorsky@naver.com)



Object Recognition, Automatic Enumerator, Deep Learning, YOLOv8, Machine Vision, Edge Computing, Smart Factory, Image Processing

1. 서 론

현대 제조 산업의 다품종 소량 생산 체제에서 미세 부품의 정확한 수량 계수는 재고 관리의 신뢰성과 직결되는 핵심 공정이다.[1]. 반도체 공정 및 전자부품 조립 공정에서는 수 mm단위의 미세한 부품들이 대량으로 관리되고 있으며, 부품들에 대한 정확한 수량 계수는 재고 및 Lot 관리의 신뢰성을 높이고 불량률을 최소화하는 핵심적인 단계이다. 기존 제조 현장에서는 주로 작업자의 육안 검사나 중량 기반 계수 방식, 또는 고정형 2D 비전 시스템이 활용 되어 왔다. 그러나 중량 방식은 부품의 공차나 환경 변화에 취약하며, 기존 비전 시스템은 부품이 겹치거나 쌓여 있는 폐색(Occlusion) 문제 발생 시 인식률이 급격히 저하되는 한계가 있다[2]. 이러한 단점을 보완하기 위해 중량 기반의 계수 방식이나 고정형 카메라를 이용한 2D 비전 검사 시스템이 도입되어 왔다[3]. 그러나 중량 기반 방식의 경우 부품 무게에 대한 공차나 주변 환경 변화에 정확도가 떨어지는 단점이 있고, 고정형 비전 시스템은 계수 대상의 부품이 겹쳐져 있거나 특정 각도에 의해 가려진 경우 객체를 분리하여 인식하는 데 단점이 있다[4] [5]. 비정형적으로 쌓여 있는 소형 전자부품의 경우, 단일 평면에서 촬영된 영상만으로 각 객체의 경계선을 명확히 구분하기 어렵다는 폐색 문제가 중요한 기술적 문제로 남아 있다[6]. 딥러닝 기술의 발전으로 객체 인식(Object Detection) 모델의 성능이 향상되면서 이를 제조 현장에서 구현하려는 시도가 이루어지고 있다. 특히 YOLO(You Only Look Once) 계열의 알고리즘은 실시간 처리 속도와 높은 정확도를 가지고 있어 제조 산업 현장 전반에서 활용도가 매우 높은 장점을 가지고 있다[7] [8].

본 연구에서는 이러한 선행 연구 및 기존 시스템의 기술적 한계를 극복하기 위해 딥러닝 기반 비전 기술과 물리적 분산 메커니즘을 결합한 능동형 자동 계수 시스템을 제안한다. 제안 시스템의 차별성은 다음과 같다. 첫째, 엣지 노드(Raspberry Pi)와 중앙 서버(GPU Server)를 이원화한 분산 컴퓨팅 아키텍처를 통해 저사양 임베디드 환경에서도 고해상도 실시간 추론이 가능하도록 설계하였다. 둘째, 단순 영상 분석에 그치지 않고 중앙 서버의 판단에 따라 진동 제어 및 조명 밝기를 능동적으로 조절하여 객체 간 중첩 문제를 물리적으로 해결하는 폐루프(Closed-loop) 제어 시스템을 구축하였다. 또한, 최신 객체 인식 알고리즘을 최적화하여 복잡한 배경 속에서도 다수의 부품을 실시간으로 식별하고 계수할 수 있는 서버-클라이언트 기반의 소프트웨어 아키텍처를 구축하여 부품 계수시 정확도를 높이는 방법을 제안한다[9] [10].

2. 시스템 구성 및 설계

2.1 분산처리 아키텍처

본 시스템은 실시간 데이터 수집 및 액추에이터 제어를 담당하는 엣지 노드와 고성능 분석을 수행하는 중앙 서버로 구성된다. 엣지 노드는 MJPG 인코딩을 통해 데이터 패킷 손실을 최소화하며, Web Socket 프로토콜을 이용해 서버와 전이중(Full-duplex) 통신 채널을 유지한다. 본 논문에서 제안하는 이원화 아키텍처는 제조 현장의 하드웨어 설계 및 제작에 대한 한계를 해소하고 실시간 계수를 위한 고해상도 영상을 지연 없이 실현하기 위해 효율성을 고려한 이원화 아키텍처를 설계하였다. 전체적인 프로세스 절차는 영상 획득, 인코딩 및 전송, AI 분석, 구동부 피드백 제어로 이어지는 유기적인 폐루프 아키텍처를 구성하였다. 엣지 컴퓨팅 노드는 고해상도 비디오 스트림 데이터 수집과 더불어 진동자(Vibrator) 및 LED 조명 장치를 실시간으로 조정하는 하드웨어 인터페이스의 기능을 수행한다. 데이터 전송 단계에서는 무선 환경의 패킷 손실을 최소화하고 억제하기 위해 Raw 데이터를 최적화된 형식으로 압축하는 비디오 인코딩 공정을 수행하며, 저지연 특성을 가지고 있는 Web Socket 프로토콜을 통해 서버와 전이중 통신 채널을 보장한다.

중앙 서버에서는 GPU 가속 기반 딥러닝 모델을 활용하여 객체 분류 및 수량을 판별하는 역할을 담당하며, 관리자 전용 GUI를 통해 시각화하여 실시간 모니터링 체계를 구성하였다. 따라서 객체 중첩이 발생하여 인식률 저하가 감지되는 경우에 최적 상태의 수량 계수 환경 조성을 위한 능동적 제어 명령을 실행 하는 장점을 가지고 있다. 생성된 능동적 제어 명령은 현장 제어 모듈로 역으로 송신되어 진동 강도나 조명 밝기를 실시간으로 조절할 수 있는 장점이 있어, 외부 환경이 변화할 때 강건한 지능형 자동 제어 루프를 구성하여 최적의 계수 환경을 제공 할 수 있다.

2.2 물리적 분산 및 광학 메커니즘

객체 인식의 장애 요인인 부품 밀착 문제를 해결하기 위해 적재 트레이 하단에 고주파 진동자(Vibrator)를 배치하였다. 서버에서 객체 중첩이 감지되면 능동적 제어 명령을 송신하여 미세 진동을 인가함으로써 개별 객체를 독립적으로 분리한다. 또한, 난반사를 차단하고 배경과의 명암 대비를 극대화하기 위해 LED 백라이트 시스템을 적용하여 선명한 실루엣 이미지를 확보하였다.

수 mm 단위의 초소형 전자부품들이 공급 장치로부터 비정상으로 투입될 때 발생하는 객체 간의 밀착 및 중첩 문제가 발생할 때는 이미지 세그먼테이션의 성능을 저하시키는 장애요인으로 작용한다. 이러한 단점을 해결하기 위해 부품 적재용 트레이 하단에 정밀 제어가 가능한 고주파 진동자(Vibrator)를 배치하여 단점을 보완할 수 있다. 진동 제어 기구는 중앙 서버에서 전송되는 산출된 최적의 제어 파라미터 값을 기반으로 구동되며, 비 정상적으로 쌓인 전자 부품들에 미세한 진동을 인가하여 전자 부품 간의 물리적 접촉을 최소화하고 개별 객체를 독립적으로 분리함으로써 비전 인식률을 향상 시킬 수 있다. 그리고 동시에 전자 부품의 미세한 외곽선과 복잡한 기하학적 형상을 정밀하게 추출하기 위하여 고균일 LED 백라이트 시스템과 특수 제작된 반투명 아크릴 트레이를 구성하였다. 이러한 백라이트 시스템 조명 방식은 전자 부품 표면의 난반사나 재질에 따른 광학적 간섭을 원천적으로 차단할 수 있고, 배경과 객체 사이의 명암 대비를 극대화한 선명한 실루엣 이미지를 생성할 수 있다.

2.3 AI 비전 처리 알고리즘 및 사용자 인터페이스

서버부의 핵심인 영상 분석 알고리즘은 실시간 객체 탐지 성능이 검증된 YOLOv8s 아키텍처를 기반으로 설계하였다. 엣지 노드로부터 전송된 입력 비디오 스트림은 서버 내 GPU를 활용하여 병렬 추론 과정을 거쳐 실시간으로 처리되며, 프레임 내 소형 부품에 대하여 바운딩 박스(Bounding Box)를 생성하고 고유 ID를 할당한다. 본 논문에서 제안된시스템은 약 2만 장 이상의 고해상도 학습 데이터를 활용하여 모델의 강인성(Robustness)과 범용성을 확보할 수 있으며, 5종 이상의 개별 부품 라벨에 대하여 실시간 계수 및 데이터의 정량적 분석을 수행할 수 있다.

그림 1. 전체 시스템 구성

Fig. 1. The overall system configuration

../../Resources/kiee/KIEE.2026.75.3.690/fig1.png

그림 1은 본 논문에서 제안하는 시스템의 통합 구성을 도식화한 것이다. 본 논문에서 선택한 YOLOv8 모델은 단일 단계 검출 방식을 통하여 이미지 내 객체의 종류와 위치를 동시에 예측하고 수행 하기 때문에 실시간성을 보장 할 수 있다.

그림 2는 본 시스템에 적용된 머신러닝 기반 비전 인식 알고리즘을 적용하여 특정 환경 내 전자부품의 계수를 판별하는 시스템을 보여준다. 입력 영상에서 배경과 타겟 객체를 억제하고 분리하여, 학습된 파라미터를 바탕으로 객체의 클래스를 식별하는 일련의 과정은 본 논문에서 제안하는 소형 전자부품 인식 메커니즘과 동일한 기술적 아키텍처를 기반으로 수행한다.

그림 2. 머신러닝을 통한 객체인식 계수 시스템

Fig. 2. Object Recognition Counting System Using Machine Learning

../../Resources/kiee/KIEE.2026.75.3.690/fig2.png

3. 시스템 구현 및 평가 기준

3.1 통계적 검증 모델

본 연구에서 제안한 AI 비전 기반 객체 인식 및 자동 계수 시스템의 성능을 객관적으로 검증하기 위해, 반도체 후공정 및 전자부품 제조 현장과 유사한 실험 환경을 구축하였다. 실험은 1920x1080 해상도의 고해상도 머신비전 카메라를 활용하여 수행되었으며, 학습 데이터셋은 소형 부품의 다양한 회전 상태와 조도 변화를 포함한 약 2만 장의 이미지를 활용하여 YOLOv8s 모델의 인식 강건성을 최적화하였다. 주요 평가 지표는 산업 현장에서 요구되는 실시간성과 정확성을 확보하기 위해 계수 정확도(Accuracy)와 계수 처리 속도(Processing Speed)로 설정하였다.

3.2 계수 정확도 분석 및 통계적 검증

계수 정확도 실험은 수 mm 단위의 소형 부품 100세트를 대상으로 반복 수행하였다. 계수 정확도 산출을 위해 시스템이 도출한 개별 실험의 계수값 $x_i$ 에 대하여 n회 반복 측정 후의 평균 계수값 $E(X, n)$을 식 (1)과 같이 정의된 통계식을 통하여 도출할 수 있다.

(1)
$E(X, n) = \frac{1}{n} \sum_{i=1}^{n} x_i, X = \{x_1, x_2, ..., x_n\}$

실제 부품 수($\tau$)와 시스템의 평균 예측값 간의 오차를 분석하여 정확도 $Acc(E(X), r)$를 계산하였으며, 정의된 산출식은 식 (2)과 같다.

(2)
$Acc(E(X), r) = 100 - \frac{|E(X) - r|}{r} \times 100$

그림 3은 실제 시스템 구동 시 GUI에 구현된 객체 인식 및 자동 계수 화면을 보여주고 있다. 화면 내의 각 부품은 딥러닝 모델에 의해 실시간과 개별적으로 탐지되어 바운딩 박스로 식별되며, 실시간으로 분석된 최종 결과값이 화면 우측에 'Total number'로 제시되어 작업자에게 시각적 피드백을 즉각적으로 수량을 확인할 수 있도록 제공함으로써, 수동 검수과정의 단점을 보완하고 공정 관리의 정확성과 편의성을 동시에 제공할 수 있다.

그림 3. 객체 인식 기반 자동 계수 프로그램

Fig. 3. Object recognition-based automatic counting program

../../Resources/kiee/KIEE.2026.75.3.690/fig3.png

3.3 실시간 처리 속도 및 시스템 신뢰성

시스템의 공정 적용 가능성을 판단하기 위한 계수 처리 속도 실험은 10개의 부품을 하나의 단위로 설정하여 수행되었다. 평균 소요 시간 $E(T, n)$의 산출을 위하여 각 실험 세트 별 소요 시간 $t_i$를 측정하고 평균 소요 시간에 대한 정의 식 (3)과 같다.

(3)
$E(T, n) = \frac{1}{n} \sum_{j=1}^{n} t_i, T = \{t_1, t_2, ..., t_n\}$

4. 실험 및 결과

4.1 실험 환경 및 시스템 구축

본 논문에서 제안한 계수 시스템의 실효성을 검증하기 위하여 하드웨어 테스트 베드와 서버-클라이언트 통합 관제 환경을 구축하고 클라이언트인 라즈베리파이 4B 모델에 FHD (1920×1080) 해상도의 카메라 모듈을 장착하여 데이터를 수집하고, 중앙 서버는 NVIDIA GeForce RTX 30-series GPU기반 워크스테이션을 활용하여 YOLOv8s 기반의 실시간 객체 탐지를 수행하였다. 특히, 제조 현장에서의 불규칙한 조명 변화와 부품 적측에 대한 문제를 해결하기 위하여 LED 백라이트와 고주파 진동 구동부를 연동하여 객체 인식의 정확도를 위한 최적의 영상 수집 환경 구성하였다.

4.2 영상 스트리밍 및 네트워크 전송 성능 분석

본 논문에서 제안하는 계수 시스템의 핵심인 서버-클라이언트 간 데이터 전송 안정성을 보장하기 위하여 100Mbps 대역폭 환경에서 네트워크 부하 및 지연 시간을 측정하였다. 실험 결과, MJPG 인코딩 메커니즘은 평균 13.2ms의 낮은 연산 시간으로 FHD 영상을 압축하여 서버로 전송하였다. 여기서 실제 전송 속도는 평균 30.1~30.4 FPS를 유지하였으며, 기존 라즈베리파이 기반 시스템들이 고해상도 처리 시 겪는 프레임 드랍(Frame Drop) 현상을 효과적으로 억제하였다. 네트워크 점유율은 약 40.71Mbps로 측정되었으며, TCP 기반의 안정적인 패킷 전송을 통해 영상의 끊김 없는 실시간 분석 환경을 구현하였다.

그림 4. 라즈베리파이 스트리밍 성능 로그

Fig. 4. Raspberry Pi Streaming Performance Log

../../Resources/kiee/KIEE.2026.75.3.690/fig4.png

표 1. 서버-클라이언트 기반 영상 스트리밍 성능 측정 결과

Table 1. Server-Client Based Video Streaming Performance Measurement Results

평가항목 단위 측정값 (평균) 비고
초당프레임수 (Actual FPS) fps 30.2 Target FPS(30) 대비 100% 달성
프레임 읽기 시간 (Read Time) ms 18.2 카메라 모듈 데이터 수집 시간
JPEG 인코딩 지연 시간 ms 13.2 엣지 노드 내 압축 처리 시간
네트워크 전송 지연(Latency) ms 0.2 TCP/WebSocket 기반 전송 시간
데이터 전송 대역폭 Mbps 40.71 FHD(1080p) 기준 대역폭 점유

4.3 AI 객체 인식 및 부품 계수 성능 평가

실험 결과, YOLOv8s 모델은 90% 이상의 높은 신뢰도로 객체를 탐지하였으며, 특히 진동 제어 메커니즘 적용 시 계수 정확도는 92.4%로 측정되어 초기 목표치(80%)를 상회하였다. 네트워크 성능 측면에서는 평균 30.2 FPS의 전송 속도를 유지하며 FHD 영상의 실시간 분석 환경을 구현하였다.

그림 5. PC 프로그램 AI 객체 인식 화면

Fig. 5. PC program AI object recognition screen

../../Resources/kiee/KIEE.2026.75.3.690/fig5.png

표 2. AI 비전 기반 부품 계수 성능 및 성과 지표

Table 2. AI Vision-Based Parts Counting Performance and Metrics

성과지표명 단위 목표치 실측 결과 평가방법
계수 정확도 % 80 92.4 샘플 100세트 반복 계수 후 비교
계수 처리 속도 개/초 10 12.5 시스템 로그 분석

본 연구에서는 제안한 물리적 분산 메커니즘의 성능을 검증하기 위해, 고주파 진동 구동 여부에 따른 계수 정확도 비교 실험을 수행하였다. 실험 결과, 미세 부품이 비정형적으로 투입되어 객체 간 폐색(Occlusion)이 심하게 발생한 경우(그림 6a, 7a), 단일 비전 알고리즘만으로는 중첩된 경계선을 완벽히 식별하는 데 한계가 있었다.

반면, 중앙 서버의 능동 제어 명령을 통해 고주파 진동을 인가한 경우(그림 6b, 7b), 부품 간의 물리적 접촉이 최소화되고 개별 객체가 독립적으로 분리됨을 확인하였다. 이를 통해 객체 인식 모델의 바운딩 박스 생성 정확도가 향상되었으며, 전체적인 계수 신뢰도가 유의미하게 개선되었다.

그림 6a 진동 적용 전, 그림 6b 진동 적용 후

Fig. 6a Without vibration, Fig. 6b With vibration

../../Resources/kiee/KIEE.2026.75.3.690/fig6.png

그림 7a 진동 적용 전, 그림 7b 진동 적용 후

Fig. 7a Without vibration, Fig. 7b With vibration

../../Resources/kiee/KIEE.2026.75.3.690/fig7.png

5. 결 론

본 연구에서는 분산 처리 환경과 물리적 능동 제어를 결합한 지능형 자동 계수 시스템을 개발하였다. 실험을 통해 기존 시스템의 고질적 문제인 객체 중첩 및 임베디드 자원 제약 문제를 효과적으로 해결하였음을 검증하였다. 최적화된 YOLOv8s 모델이 달성한 92.4%의 정확도는 자동화 공정에서 요구되는 높은 정밀도를 만족하고, 하드웨어 차원의 진동 및 LED 백라이트 시스템 과 결합되어 외부 환경에 강인한(Robust) 테스트베드를 구축하였다.

실험을 통하여 30.2 FPS의 데이터 처리량은 제안 계수 시스템이 실제 제조 현장 라인에서 적용될 수 있는 충분한 성능을 보유할 수 있는 장점을 가지고 있다. 향후 연구에서는 엣지 노드 단의 추론 가속 기법 도입을 통해 시스템의 독립성을 제고하고, 다양한 비정형 부품으로의 범용적 확장을 도모함으로써 스마트 팩토리 솔루션으로서의 완성도를 높일 예정이다.

Acknowledgements

This research was supported by the Regional Innovation System & Education (RISE) program through the Chungbuk Regional Innovation System & Education Center, funded by the Ministry of Education (MOE) and the Chungcheongbuk-do, Republic of Korea (2025-RISE-11-013-03).

References

1 
D. Y. Jang, 2021, Economic Analysis of Vision-based Automatic Counting System for Improving Productivity in Manufacturing Industry, Journal of Society of Korea Industrial and Systems Engineering, Vol. 44, No. 4, pp. 88-96Google Search
2 
2024, Technical Specifications for Part Counting System through AI Vision Processing and Object Recognition in VideoGoogle Search
3 
C. S. Kim, 2022, A Study on the Application of Deep Learning-based Object Detection Technology in Industrial Fields, The Transactions of the Korean Institute of Electrical Engineers, Vol. 71, No. 12, pp. 1820-1827Google Search
4 
Y. H. Lee, J. H. Park, 2022, Object Recognition Enhancement Technique Using Multi-angle Visual Information of Industrial Robot Manipulators, Journal of Institute of Control, Robotics and Systems, Vol. 28, No. 5, pp. 412-420Google Search
5 
Image Processing and Contour Detection AlgorithmsGoogle Search
6 
T. Lin, 2014, Microsoft COCO: Common Objects in ContextGoogle Search
7 
J. Redmon, A. Farhadi, 2023, YOLOv8: Real-Time Deep Learning for Object DetectionGoogle Search
8 
C. Y. Wang, A. Bochkovskiy, H. Y. M. Liao, 2023, YOLOv7: Trainable bag-of-freebies sets new state-of-the-art for real-time object detectorsGoogle Search
9 
M. S. Choi, 2022, Grasping and Sorting Algorithm for Unstructured Parts Using Multi-DOF Collaborative Robots, Journal of Korea Robotics Society, Vol. 17, No. 2, pp. 134-141Google Search
10 
S. J. Park, 2021, Design of IoT-based Real-time Process Monitoring System for Smart Factory Implementation, Transactions of the Korean Society of Mechanical Engineers, Vol. 45, No. 3, pp. 245-252Google Search

저자소개

손규연 (Kyu-Yeon Son)
../../Resources/kiee/KIEE.2026.75.3.690/au1.png

He received his bachelor's degree in Computer Education from Chungbuk National University in 2006. He received his master's degree in Electrical and Electronic Engineering from Chungbuk National University in 2017. He served as the final research director at Howat Co., Ltd. from 2007 to 2018. He established Howard Lab Co., Ltd. as a spin-off research institute in 2018, where he continues to serve. His current main areas of business are artificial intelligence and micro-actuator control.
E-mail: ardorsky@naver.com

정형근 (Houng-Kun Joung)
../../Resources/kiee/KIEE.2026.75.3.690/au2.png

He received the bachelor’ s degree in the Department of Electrical Engineering from the Semyung University in 2022. He received the M.S. degree and the Ph.D. degree in the Department of Electrical Engineering From Hanyang University in 2004 and 2017, respectively. From 2011 to 2017, He was an Assistant professor at Korea Polytechnic College. He has been an Assistant professor in the Department of Electrical & Control Enginnering at Cheongju University since 2019. His current research interests include Control System, Motor Control System, Power Electronics.
E-mail: 21c8545@cju.ac.kr