El modelo de visión lleva la segmentación de cultivos casi sin supervisión al campo


Al aprovechar un modelo de base de visión llamado Depth Anything V2, el método puede segmentar con precisión los cultivos en distintos entornos (campo, laboratorio y aéreo), lo que reduce tanto el tiempo como el costo en la preparación de datos agrícolas.


por la Academia China de Ciencias


La segmentación de cultivos , el proceso de identificar regiones de cultivo en imágenes, es fundamental para tareas de monitoreo agrícola como la predicción del rendimiento, la detección de plagas y la evaluación del crecimiento. Los métodos tradicionales se basaban en señales cromáticas, que presentaban dificultades con la iluminación variable y fondos complejos.

El aprendizaje profundo ha revolucionado este campo, pero requiere grandes conjuntos de datos meticulosamente etiquetados, lo que supone un cuello de botella costoso y laborioso. Los esfuerzos previos para reducir los costes de etiquetado mediante aprendizaje débil o autosupervisado han tenido que afrontar desventajas en el rendimiento o han requerido configuraciones complejas. La aparición de los modelos de base ofrece ahora un nuevo paradigma.

Un estudio publicado en Plant Phenomics por el equipo de Hao Lu, de la Universidad de Ciencia y Tecnología de Huazhong, reduce la mano de obra y los costos en el fenotipado de plantas de alto rendimiento y la agricultura de precisión.

Para evaluar la eficacia de DepthCropSeg, los investigadores implementaron un protocolo experimental integral que incluyó cuatro modelos de segmentación semántica convencionales (U-Net, DeepLabV3+, SegFormer y Mask2Former) como referencia, junto con dos modelos independientes de la categoría: SAM y HQ-SAM. Estos modelos se entrenaron utilizando conjuntos gruesos y finos de imágenes de recorte pseudoetiquetadas generadas por Depth Anything V2, y su rendimiento se comparó con el de modelos totalmente supervisados entrenados con datos anotados manualmente.

La evaluación se realizó mediante la intersección media sobre la unión (mIoU) en diez conjuntos de datos públicos de cultivos. SegFormer, el modelo de mejor rendimiento, se mejoró aún más mediante un proceso de autoentrenamiento en dos etapas y un posprocesamiento con información de profundidad.

Los resultados demostraron que DepthCropSeg, con su pseudoetiquetado personalizado y estrategia de autoentrenamiento, logró un rendimiento de segmentación casi equivalente a los modelos totalmente supervisados (87,23 frente a 87,10 mIoU), superando a los métodos más simples basados en profundidad (por ejemplo, Depth-OTSU, Depth-GHT) en más de 10 mIoU y a los modelos básicos SAM y HQ-SAM en aproximadamente 20 mIoU.

Los estudios de ablación confirmaron las importantes contribuciones del cribado manual, el autoentrenamiento y el filtrado guiado por profundidad, mejorando cada uno la precisión de la segmentación entre 2 y 5 mIoU. El posprocesamiento con filtrado bilateral conjunto guiado por profundidad redujo notablemente el ruido visual, a la vez que se mantuvo robusto ante los cambios de parámetros.

Los resultados cualitativos de las imágenes auto-recolectadas ilustraron aún más la superioridad de DepthCropSeg en la delimitación de límites en comparación con otros modelos. Sin embargo, el método mostró limitaciones en el manejo de imágenes de dosel completo debido a la subrepresentación de estos casos en el conjunto de entrenamiento. El análisis reveló un sesgo en el cribado manual, que favorecía las imágenes de dosel escaso , aunque esto puede corregirse complementando ejemplos con mayor cobertura.

En general, el estudio validó que las pseudomáscaras de alta calidad, cuando se combinan con una selección manual mínima y técnicas basadas en la profundidad, pueden lograr un rendimiento de segmentación de cultivos casi supervisado, presentando una solución escalable y rentable para el análisis de imágenes agrícolas.

DepthCropSeg introduce un paradigma de aprendizaje transformador que elimina la necesidad de un etiquetado manual exhaustivo. Al combinar las capacidades del modelo base con una mínima selección humana, logra una precisión de segmentación que rivaliza con los métodos tradicionales, allanando el camino para aplicaciones de IA agrícola más rápidas, económicas y escalables.

Más información: Songliang Cao et al., La bendición de la profundidad: Un enfoque casi sin supervisión para la segmentación de cultivos con pseudoetiquetado basado en la profundidad, Plant Phenomics (2025). DOI: 10.1016/j.plaphe.2025.100005


Título
Miniatura
Jobe's Organics
Precio
US$10.74
Más información

Mundo Agropecuario
Resumen de privacidad

Esta web utiliza cookies para que podamos ofrecerte la mejor experiencia de usuario posible. La información de las cookies se almacena en tu navegador y realiza funciones tales como reconocerte cuando vuelves a nuestra web o ayudar a nuestro equipo a comprender qué secciones de la web encuentras más interesantes y útiles.