이 리뷰는 오직 학습과 참고 목적으로 작성되었으며, 해당 논문을 통해 얻은 통찰력과 지식을 공유하고자 하는 의도에서 작성된 것입니다. 본 리뷰를 통해 수익을 창출하는 것이 아니라, 제 학습과 연구를 위한 공부의 일환으로 작성되었음을 미리 알려드립니다.
도메인이 생소한 논문이지만 내용이 궁금하기도 하고 연구에 도움이 될만한 부분이 있어 보여 리뷰하게 되었다.
Sapkota, R., Meng, Z., Churuvija, M., Du, X., Ma, Z., & Karkee, M. (2024). Comprehensive Performance Evaluation of YOLO11, YOLOv10, YOLOv9 and YOLOv8 on Detecting and Counting Fruitlet in Complex Orchard Environments. arXiv. https://arxiv.org/abs/2407.12040
Abstract
이 연구는 다양한 YOLO 모델(YOLOv8, YOLOv9, YOLOv10, YOLO11)의 성능을 과수원에서 과일 새싹을 탐지하는 데 비교 평가한 것입니다. 연구에서는 각 모델의 정밀도, 재현율, mAP@50 (50% 교차영역에서의 평균 정확도), 그리고 처리 속도(전처리, 추론, 후처리)를 분석했습니다.
1.Introduction
서론에서는 상업용 과수원에서의 객체 탐지가 농업 자동화 및 로봇 기술 개발의 기초가 된다고 설명합니다. 특히 사과 과수원에서 과일 새싹 솎아내기 작업은 수확량과 품질 향상에 중요한 역할을 하며, 자동화된 기계 비전 시스템을 통해 이 작업을 효율적으로 수행할 수 있어야 합니다. 과일이 나무당 너무 많을 경우, 과일 간 경쟁으로 인해 품질 저하 및 나무에 부정적인 영향을 미칠 수 있습니다. 사과는 미국에서 세 번째로 많이 소비되는 과일로, 연간 약 460만 톤이 생산되며, 이는 미국을 세계에서 두 번째로 큰 사과 생산국으로 만듭니다. 이 과정에서 많은 농업 노동력이 필요하며, 과일 새싹 솎아내기 작업은 특히 노동 집약적입니다.
이 논문에서는 과일 새싹 솎아내기(fruitlet thinning)의 자동화와 로봇 기술 개발이 미국 및 전 세계 사과 생산의 지속 가능성을 위해 중요하다고 설명합니다. 농업 노동력은 감소하고 있으며, 특히 팬데믹과 도시화로 인해 농업에서의 노동력 부족이 심화될 것입니다. 사과와 같은 특수 작물의 농장에서는 노동 비용이 높아 자동화의 필요성이 커지고 있습니다.
여름철 사과 과수원에서 과일 새싹 솎아내기는 노동 집약적인 작업으로, 이를 자동화하면 노동력 의존도를 줄이고 근로자의 건강과 안전도 개선할 수 있습니다. 또한, 농업에서의 수작업은 근골격계 질환 등 건강 문제를 유발하므로, 이를 해결할 수 있는 로봇 기술이 필요합니다.
사과 새싹 탐지는 객체 탐지 기술을 활용한 비전 시스템을 통해 자동화할 수 있으며, 이는 과수원 환경에서의 자동화 가능성을 높이는 중요한 기술로, 90년대 후반부터 연구가 이루어졌습니다고 합니다.
과일 탐지 기술은 농업 로봇 수확 및 솎아내기 작업에서 중요한 역할을 합니다. 초기에는 전통적인 이미지 처리 기법(RGB, HIS, HSL 색상 공간을 활용한 색 분할 등)이 사용되었으나, 이러한 방법들은 정확도가 낮고, 조명이나 배경 조건에 민감하여 자연 환경에서 적용이 어려웠습니다. 최근에는 기계 학습(ML) 및 딥 러닝(DL) 기술이 과일 탐지에 널리 사용되며, 특히 YOLO 기반의 모델이 높은 정확도와 속도로 주목받고 있습니다.
초기 사과 탐지에는 색상과 빛 반사가 잎과 비슷하여 탐지가 어려운 도전 과제가 존재하며, 과일 겹침, 빛의 변화, 배경 복잡성 등이 추가적인 문제로 작용합니다. YOLOv3, YOLOv5s, YOLOv8 등의 모델들이 과일 새싹 탐지 성능을 개선하는 데 사용되었고, 최근 YOLO-P 모델과 같은 특수 모델들이 복잡한 환경에서 사과와 배와 같은 과일을 정확하게 탐지하는 데 유망한 성과를 보였습니다.
특히, YOLO 기반의 모델들은 과일 새싹 탐지에서 뛰어난 성과를 보이며, 경량화된 모델은 모바일 장치에서 사용 가능한 가능성도 제시합니다. 예를 들어, YOLO-P 모델은 배 탐지에서 복잡한 배경과 다양한 조명 조건에서도 우수한 성능을 발휘하고, 특징 추출 및 환경 적응 능력이 뛰어난 것으로 나타났습니다.
따라서 최근의 딥 러닝 모델들은 과일 새싹 탐지 성능을 크게 향상시켰으며, 특히 YOLO 기반의 최적화된 모델들이 다양한 농업 환경에서 효과적인 탐지를 가능하게 하고 있습니다.
이 연구에서는 YOLO 기반의 객체 탐지 모델들이 상업적 사과 과수원에서 과일 새싹(immature fruitlet) 탐지에 어떻게 사용될 수 있는지를 평가하고 있습니다.
2. YOLO 배경 및 개요
YOLO 모델의 출시부터 최신 버전인 YOLO11까지의 발전 과정을 보여줍니다. YOLO 객체 탐지 알고리즘은 Joseph Redmon et al.에 의해 2015년에 처음 소개되었으며, 영역 제안(region proposal)과 분류(classification)를 단일 신경망으로 결합하여 실시간 객체 탐지를 혁신적으로 변화시켰습니다. 이 접근 방식은 계산 시간을 획기적으로 줄였습니다. YOLO의 통합된 아키텍처는 이미지를 그리드로 나누고, 각 셀에 대해 바운딩 박스와 클래스 확률을 직접 예측하여 엔드-투-엔드 학습을 가능하게 합니다.
YOLO 모델의 아키텍처
(a) YOLOv8 아키텍처
- 백본(Backbone): YOLOv8의 백본은 입력 이미지에서 풍부한 특징 맵을 추출하기 위해 설계된 **컨볼루션 신경망(CNN)**을 통합합니다. 이 백본은 특징 추출의 기초가 됩니다.
- 특징 피라미드 네트워크(FPN): YOLOv8은 FPN을 사용하여 다양한 크기의 객체를 감지하는 능력을 향상시킵니다. FPN은 네트워크의 여러 레벨에서 특징을 추출하여 작은 객체와 큰 객체를 모두 감지할 수 있도록 도와줍니다.
- 주요 장점: 이 아키텍처는 다양한 크기의 객체를 감지할 수 있도록 해 주며, 특히 과수원 환경처럼 과일 크기가 다양한 실세계 시나리오에서 더 나은 성능을 발휘합니다.
(b) YOLOv9 아키텍처
- CSPNet, ELAN, GELAN 모듈: YOLOv9은 CSPNet, ELAN, GELAN 모듈을 통합하여 특징 통합 및 계산 효율성을 최적화합니다. 이 모듈들은 모델의 표현 능력을 강화하고 계산 자원의 효율적인 사용을 지원합니다.
- 주요 장점: 계산 효율성을 높이고 더 나은 성능을 제공하는 동시에, 속도와 정확도 간의 균형을 맞추는 데 초점을 맞췄습니다.
(c) YOLOv10 아키텍처
- 이중 라벨 할당 전략 및 경로 집합 네트워크(Path Aggregation Network): YOLOv10은 이중 라벨 할당 전략과 **경로 집합 네트워크(PAN)**를 도입하여 객체 로컬라이제이션(위치 지정) 및 분류의 정확성을 향상시킵니다.
- 주요 장점: 객체의 위치를 더 정밀하게 파악하고 분류 성능을 높여, 다양한 환경에서의 성능을 최적화합니다.
(d) YOLO11 아키텍처
- 미성숙한 녹색 과일 감지: YOLO11은 미성숙한 녹색 과일 감지에 최적화된 아키텍처로 설계되어, 과일의 초기 성장 단계에서 발생할 수 있는 다양한 도전 과제를 해결합니다. 이를 통해 과일의 크기와 색이 비슷한 환경에서도 효과적으로 감지할 수 있습니다.
YOLO 모델의 성능 비교 및 발전
YOLOv8:
- mAP 범위: 37.3%에서 53.9% 사이
- 레이턴시: 6.16ms에서 16.86ms 사이
- 성능: YOLOv8은 상당한 발전을 이루었지만, 후속 모델들과 비교했을 때 효율성과 정확성에서 다소 뒤처집니다. 특히, 속도와 정확성의 균형을 잘 맞추지 못하는 경향이 있습니다.
YOLOv9:
- mAP 범위: 39.5%에서 54.4% 사이
- 모델 종류: YOLOv9-N, YOLOv9-S, YOLOv9-M, YOLOv9-C, YOLOv9-X
- 성능: YOLOv9은 mAP 점수 면에서 YOLOv10과 비슷한 수준을 기록했으나, 특히 YOLOv9-X 모델의 레이턴시가 높아, 효율성에서 YOLOv10에 비해 떨어진다는 점이 특징입니다. 이는 YOLOv10이 높은 정확도를 유지하면서도 계산 요구 사항을 줄인 점을 강조합니다.
YOLOv10:
- mAP 범위: 38.5%에서 54.4% 사이 (MS-COCO 데이터셋 기준)
- 모델 종류: YOLOv10-N, YOLOv10-S, YOLOv10-M, YOLOv10-B, YOLOv10-L, YOLOv10-X
- 성능: YOLOv10은 다양한 변형 모델을 제공하며, 높은 정확도와 함께 효율적인 처리 성능을 보입니다. 특히, 이전 버전인 YOLOv9에 비해 계산 효율성이 크게 향상되었습니다.
YOLO11 (2024):
- 특징: YOLO11은 YOLO 시리즈의 최신 모델로, 이전 모델들의 강점을 기반으로 혁신적인 기능과 최적화가 이루어졌습니다. 이 모델은 세밀한 이미지 처리 능력을 제공하며, 실시간 객체 감지, 인스턴스 분할, 포즈 추정 등의 다양한 컴퓨터 비전 작업에서 높은 성능을 발휘합니다.
- mAP: YOLO11m은 COCO 데이터셋에서 95.0%의 평균 정밀도 (mAP) 점수를 기록하며, YOLOv8m에 비해 22% 적은 파라미터로 더 높은 효율성을 제공합니다.
- 추론 속도: YOLO11은 YOLOv10보다 2% 빠른 추론 속도를 기록하며, 실시간 애플리케이션에 최적화되어 있습니다.
- 산업 응용: YOLO11은 농업과 감시와 같은 산업에서 정확하고 빠른 이미지 분석이 필요한 분야에서 매우 유용한 도구로 자리 잡을 수 있습니다.
요약:
YOLO 시리즈는 지속적으로 진화하며, 각 버전은 이전 모델들의 한계를 극복하고 더 나은 성능을 제공하고 있습니다. YOLOv10과 YOLO11은 특히 실시간 처리와 높은 정확도를 유지하면서도 효율적인 계산을 가능하게 만들어, 다양한 산업 분야에서 강력한 도구로 활용될 수 있습니다. YOLO11은 이전 모델에 비해 뛰어난 성능과 효율성을 제공하여 AI 및 컴퓨터 비전 애플리케이션에서 중요한 발전을 나타냅니다.
3.Methods
본 연구는 미국 워싱턴 주 Prosser와 Naches에 위치한 상업용 사과 과수원에서 수행되었으며, 사과 품종 Scifresh, Scilate, Cosmic Crisp, Honeycrisp의 과실 솎아내기 전 데이터셋을 평가하는 데 중점을 두었습니다. 이 연구는 Figure 4에 설명된 대로 YOLOv8, YOLOv9, YOLOv10 모델의 다양한 구성에서 사과 과실의 검출 및 개수 세기를 평가하는 것을 목표로 했습니다.
이미지 수집: RGB 이미지는 Intel RealSense 435i 카메라(Intel Corporation, 캘리포니아, 미국)를 사용하여 촬영되었습니다. 이후 이 이미지는 수동으로 라벨링되어 YOLO 모델의 다양한 구성을 위한 일관된 데이터셋이 준비되었습니다. 총 22개의 모델 구성이 조사되었으며, 각 모델은 다음과 같이 나누어졌습니다:
- YOLOv8: 5개 구성
- YOLOv9: 6개 구성
- YOLOv10: 6개 구성
- YOLO11: 5개 구성
각 모델은 동일한 컴퓨터 시스템에서 표준화된 하이퍼파라미터 설정으로 훈련되었으며, 이를 통해 일관성과 비교 가능성을 보장했습니다.
모델 성능 평가: 훈련된 모델들은 준비된 데이터셋을 사용하여 성능을 평가받았습니다. 성능 평가는 Apple iPhone 14 Pro Max 스마트폰(Apple Inc., 캘리포니아, 미국)을 이용해 추가적으로 촬영된 RGB 이미지를 사용한 현장 과실 개수 세기 검증을 포함했습니다. 이 검증 과정의 목적은 각 모델의 과실 개수 세기 정확도를 수동으로 세어진 ground truth와 비교하는 것으로, 이 과정에는 겹쳐 있는 과일도 포함되었습니다.
또한 이 검증 단계는 속도와 정확도 측면에서 가장 우수한 성능을 보인 모델들을 다양한 센서로 촬영된 이미지를 사용하여 철저히 시험하는 것이었습니다. 본 연구의 실험 설정과 데이터 수집 방법은 Figure 4에 시각적으로 제시되어, 연구의 방법론을 이해하는 데 유용한 참고자료를 제공합니다.
3.2 데이터 준비 및 모델 훈련
본 연구에서는 총 1,147장의 이미지를 Roboflow에서 제공하는 온라인 라벨링 플랫폼을 사용하여 수동으로 바운딩 박스로 라벨링했습니다. 이 이미지는 훈련용과 검증용 데이터셋으로 각각 8:2 비율로 나누어졌으며, 이는 Roboflow의 분배 도구를 통해 자동으로 처리되었습니다.
이 연구에서는 이미지 전처리 단계가 수행되지 않았습니다. 그 이유는 특정 모델을 개선하는 것이 아니라, 자연적인 과수원 환경에서 수집된 원본 데이터를 사용하여 여러 모델의 성능을 비교하고 평가하는 것이 목표였기 때문입니다.
3.3 하이퍼파라미터 설정
본 연구에서 사용된 YOLO 모델 훈련을 최적화하기 위한 하이퍼파라미터 설정은 표 1에 상세히 나와 있습니다. 주요 파라미터는 다음과 같습니다:
- 초기 및 최종 학습률(initial and final learning rates): 0.01, 훈련 과정 동안 학습률을 제어하기 위해 설정되었습니다.
- 모멘텀(momentum): 0.937, 각 에폭(epoch)마다 일정한 업데이트를 유지하도록 설정되었습니다.
- 가중치 감소(weight decay): 0.0005, 과적합을 방지하기 위해 최소화되었습니다.
- 훈련 초기 단계의 warmup: 3 epochs, 초기 훈련에서 학습 파라미터를 안정시키기 위해 설정되었습니다.
- 손실 함수(loss function): **박스 손실(box loss)**은 7.5, **클래스 손실(class loss)**은 0.5, **정의 손실(definition loss)**은 1.5로 설정되어 각 손실 요소의 기여도를 균형 있게 맞췄습니다.
3.4 성능 평가
각 YOLOv8, YOLOv9, YOLOv10, YOLO11 모델 설정의 탐지 능력을 평가하기 위해 정확도(Precision), 재현율(Recall), 그리고 **mAP@50 (Intersection over Union, IoU = 0.50)**를 사용하여 평가를 진행했습니다.
4.1 탐지 정확도 평가: 정밀도(Precision) 및 재현율(Recall) 메트릭
다양한 YOLO 모델 설정에 대한 탐지 정확도 비교 분석은 Figure 9에 나타나 있습니다. 특히, 정밀도(Precision) 측면에서 YOLOv10x가 모든 모델 설정 중에서 최고의 성능을 보였으며, 0.891의 가장 높은 정밀도 점수를 기록했습니다. 이는 YOLOv10x가 목표 객체를 정확하게 식별하고 잘못된 양성(거짓 긍정)을 최소화하는 능력이 뛰어나다는 것을 의미합니다. 즉, 이 모델은 정확한 객체 탐지가 필요한 상황에서 우수한 성과를 나타냅니다.
4.2 탐지 일관성 평가: IoU=0.50에서의 평균 정밀도 (mAP@0.50)
**IoU(교집합 비율) 임계값 0.50에서의 평균 정밀도(mAP@0.50)**를 사용한 다양한 YOLO 모델 구성의 탐지 일관성 평가는 Figure 11에 나와 있습니다. 이를 통해 농업 환경에서 과일렛 탐지에 대한 모델들의 효율성에 대한 중요한 통찰을 제공합니다. 아래는 주요 발견 내용입니다:
- YOLOv9 모델:
- YOLOv9 시리즈는 특히 YOLOv9 Gelan-e와 YOLOv9 Gelan-base 모델에서 mAP@0.50 점수 0.935로 가장 높은 성능을 보였습니다.
- 이러한 모델들은 YOLOv8 및 YOLOv10의 모든 구성보다 높은 mAP@0.50 점수를 기록하며, 객체 탐지 작업에서 우수한 정밀도를 보여주었습니다.
- YOLOv9 구성들은 YOLOv8과 YOLOv10보다 높은 성능을 보였으며, 이는 YOLOv9의 모델 아키텍처 및 훈련 방식에서의 향상이 탐지 성능을 크게 개선했음을 나타냅니다.
- YOLO11 시리즈:
- YOLO11 모델은 YOLOv9에 뒤지지 않는 강력한 결과를 보였으며, 여러 구성에서 높은 성능을 보였습니다.
- YOLO11n은 mAP@0.50 = 0.926을 기록했습니다.
- YOLO11s는 0.933.
- YOLO11m은 0.924.
- YOLO11l은 0.932.
- YOLO11x는 0.922를 기록했습니다.
- 이 결과들은 YOLO11 모델이 탐지 성능을 향상시켰음을 나타내며, 특히 작은 객체인 과일렛을 탐지하는 데 있어 강력한 능력을 보였습니다.
- YOLO11 모델은 YOLOv9에 뒤지지 않는 강력한 결과를 보였으며, 여러 구성에서 높은 성능을 보였습니다.
- YOLOv10 시리즈:
- YOLOv10 모델들도 좋은 성능을 보였으며, 그 중 YOLOv10n이 mAP@0.50 = 0.921로 가장 높은 점수를 기록했습니다. YOLOv10b는 0.919, YOLOv10-M은 0.917을 기록했습니다.
- YOLOv10은 전반적으로 강력한 성능을 보였지만, YOLOv9보다는 조금 낮은 mAP@0.50 점수를 기록하였습니다. 이는 YOLOv9에서의 특정 개선이 탐지 성능을 더욱 강화했음을 시사합니다.
- YOLOv8 시리즈:
- YOLOv8 구성들은 다양한 성능을 보여주었으며, 이는 각 모델 아키텍처에 따라 성능 차이가 나타났습니다.
- YOLOv8s는 mAP@0.50 = 0.924로 YOLOv10의 최고 성능 모델들과 거의 동일한 성능을 보였습니다.
- 그러나 YOLOv8l (0.912)과 YOLOv8x (0.914)은 상대적으로 낮은 mAP@0.50 점수를 기록했습니다.
- YOLOv8l과 YOLOv8x의 낮은 성능은 모델의 과도한 파라미터화(over-parameterization) 때문일 수 있습니다. 주어진 데이터셋이 상대적으로 간단하고 COCO 데이터셋처럼 더 복잡한 카테고리가 적기 때문에, 이러한 모델들의 과도한 파라미터가 최적의 성능을 방해했을 가능성이 있습니다.
- YOLOv8 구성들은 다양한 성능을 보여주었으며, 이는 각 모델 아키텍처에 따라 성능 차이가 나타났습니다.
주요 통찰:
- YOLOv9은 정밀도와 mAP@0.50 점수에서 모든 모델 구성 중 가장 뛰어난 성능을 보였으며, 과일렛 탐지에서 가장 효과적인 모델로 평가됩니다.
- YOLO11 시리즈는 새로운 모델로서 강력한 결과를 보였으며, YOLOv9와 비교해도 경쟁력 있는 성능을 보였습니다.
- YOLOv10은 강력한 성능을 보였지만, YOLOv9보다는 조금 낮은 성능을 보였으며, 이는 YOLOv9에서의 구체적인 개선이 성능을 더욱 강화했음을 시사합니다.
- YOLOv8 시리즈는 더 다양한 성능 범위를 보였으며, 일부 모델은 YOLOv10과 비슷한 성능을 보였으나, 다른 모델은 모델의 과도한 파라미터화로 인해 상대적으로 낮은 성능을 보였습니다.
4.3 계산 효율성 분석: 이미지 처리 속도
계산 효율성을 평가하는 과정에서, 특히 이미지 처리 속도 측면에서 YOLO11이 가장 우수한 성과를 보였습니다. YOLO11은 모든 변형에서 단 2.4ms라는 매우 빠른 추론 속도를 기록하며 탁월한 성능을 보여주었습니다. 또한 YOLO11의 전처리 속도는 모든 변형에서 인상적으로 빠르며, YOLO11l을 제외한 모든 변형이 0.1ms의 속도를 보였고, YOLO11l은 여전히 0.2ms로 뛰어난 성능을 보였습니다. 이렇게 빠른 전처리 속도는 이후의 탐지 단계에서 이미지를 더 빨리 준비할 수 있게 해줍니다.
- YOLO11의 전처리 성능:
- YOLO11 모델은 특히 전처리 속도가 매우 빠르며, 이는 전체 성능을 크게 향상시키는 요소로 작용합니다. YOLO11l을 제외한 대부분의 변형이 0.1ms의 속도를 기록하며, YOLO11l은 0.2ms로 여전히 매우 빠릅니다.
- YOLOv8x:
- YOLOv8x는 전처리 속도에서 두각을 나타내었으며, 0.9ms의 빠른 속도를 기록했습니다. 전처리 속도는 대체로 모델 간 일관성이 있어야 하지만, YOLOv8x의 속도 차이는 무작위 변동에 의한 결과로 보이며, 모델 아키텍처에서의 근본적인 차이 때문이라기보다는 랜덤한 요인일 가능성이 큽니다.
- YOLOv8 시리즈의 추론 속도:
- YOLOv8 구성은 추론 속도에서 우수한 성능을 보였습니다. 특히 YOLOv8n은 4.1ms로 YOLOv9와 YOLOv10 시리즈의 가장 빠른 모델들보다 훨씬 빠른 속도를 기록했습니다. 비교적으로 YOLOv9 Gelan-s는 11.5ms의 추론 속도를 보였고, YOLOv10-s는 5.5ms의 속도를 기록했습니다.
- 이 결과는 YOLOv8n이 빠른 이미지 처리에 있어서 매우 뛰어난 성능을 보였음을 입증하며, 고속 정확한 객체 탐지가 요구되는 상황에 적합한 모델임을 보여줍니다.
- 전체 분석:
- YOLO11 시리즈는 저지연(latency) 성능에서 두각을 나타내며, 다른 모델들보다 빠른 추론 속도와 전처리 속도를 보였습니다.
- 그러나 YOLOv8은 여전히 경쟁력 있는 성능을 유지하고 있으며, 특히 빠른 의사결정이 중요한 환경에서는 여전히 우수한 선택지로 평가됩니다. YOLOv8n의 4.1ms의 빠른 추론 속도는 특히 고속 이미지 처리와 빠른 객체 탐지가 필요한 상황에서 매우 중요한 요소입니다.
5. 결론
본 연구에서는 다양한 구성의 최신 YOLO 객체 탐지 모델들(YOLOv8, YOLOv9, YOLOv10, YOLO11)을 평가하여, 복잡한 과수원 환경에서 다양한 센서와 조건을 사용하여 과실 솎기 전에 녹색 사과를 탐지하는 데 있어 모델들의 효과성을 분석했습니다.
YOLOv9 모델은 다른 YOLO 모델들보다 더 높은 평균 정확도(mAP@0.50)를 보였으며, 특히 과수원 환경에서 우수한 과실 탐지 성능을 기록했다고 하였다. YOLO11은 속도와 정확도에서 뛰어난 성능을 보였고, 실시간 과실 탐지에서 각광받을 모델로 평가된다고 하였다. YOLOv8은 빠른 처리 속도를 자랑하지만, 일부 성능은 YOLOv9, YOLOv10보다 떨어졌다고 하였다. 과수원 환경에서 모델들은 Occlusion이나 조명 변화 등에서 성능 차이를 보였고, YOLOv10과 YOLO11이 복잡한 환경에서 우수한 성능을 보였다고 하였다.
향후 연구는 모델 튜닝과 데이터셋 다양화, 연산 효율성 개선, 실시간 탐지와 다양한 농업 상황에서의 적용 확대를 목표로 한다고 하였으며, 고해상도 카메라, LiDAR 등 다양한 센서를 통합해 모델의 정확도와 범위를 확장하는 연구도 필요하다고 하였다.
리뷰 후기
이 논문을 리뷰하면서 YOLO 객체 탐지 모델의 다양한 버전들이 복잡한 농업 환경에서 과일 탐지에 어떻게 적용될 수 있는지를 보여주는 점이 매우 흥미로웠습니다. 특히 YOLOv8, YOLOv9, YOLOv10, YOLO11 모델이 각기 다른 환경과 조건에서 테스트되고, 이를 통해 성능 차이를 비교 분석하는 과정이 인상 깊었습니다. 다양한 모델들의 정확도와 속도를 평가하며, 각 모델이 어떻게 다양한 농업 환경에 최적화될 수 있는지에 대한 통찰을 얻을 수 있었습니다.
출처
Sapkota, R., Meng, Z., Churuvija, M., Du, X., Ma, Z., & Karkee, M. (2024). Comprehensive Performance Evaluation of YOLO11, YOLOv10, YOLOv9 and YOLOv8 on Detecting and Counting Fruitlet in Complex Orchard Environments. arXiv. https://arxiv.org/abs/2407.12040