Un nuevo enfoque permite que la IA se adapte a la visión artificial en el mejoramiento de cultivos


Científicos desarrollaron una herramienta de aprendizaje automático que, con mínima ayuda externa, puede aprender a diferenciar imágenes aéreas de gramíneas en floración y sin floración.


por la Universidad de Illinois en Urbana-Champaign


Este avance acelerará considerablemente la investigación agrícola de campo, afirman. El trabajo se realizó utilizando imágenes de miles de variedades de Miscanthus, cada una con sus propias características y tiempos de floración.

Diferenciar con precisión las características de los cultivos en diversas condiciones y en distintos puntos del ciclo de crecimiento es una tarea formidable, dijo Andrew Leakey, profesor de biología vegetal y de ciencias de los cultivos en la Universidad de Illinois en Urbana-Champaign, quien dirigió el nuevo trabajo junto con Sebastián Varela, científico del Centro de Innovación en Bioenergía y Bioproductos Avanzados, que Leakey dirige.

El nuevo enfoque debería ser aplicable a muchos otros cultivos y problemas de visión artificial, afirmó Leakey.

Los hallazgos aparecen publicados en la revista Plant Physiology .

«La época de floración es un rasgo clave que influye en la productividad y la adaptación de muchos cultivos, incluido el Miscanthus, a diferentes regiones de cultivo», afirmó Leakey. «Sin embargo, las inspecciones visuales repetidas de miles de plantas individuales cultivadas en extensos ensayos de campo requieren mucha mano de obra».

Automatizar ese proceso mediante la recopilación de imágenes con drones aéreos y el uso de inteligencia artificial para extraer los datos relevantes de dichas imágenes puede agilizarlo y hacerlo más manejable. Sin embargo, la creación de modelos de IA capaces de distinguir características sutiles en imágenes complejas suele requerir grandes cantidades de datos anotados por personas, explicó Leakey. «Generar esos datos requiere mucho tiempo. Y los métodos de aprendizaje profundo tienden a depender en gran medida del contexto».

Esto significa que cuando el contexto cambia (por ejemplo, cuando el modelo debe distinguir las características de un cultivo diferente o del mismo cultivo en diferentes lugares o épocas del año), probablemente será necesario volver a entrenarlo utilizando nuevas imágenes anotadas que reflejen esas nuevas condiciones, dijo.

Un nuevo enfoque permite que la IA se adapte a la visión artificial en el mejoramiento de cultivos
Diagrama de ESGAN y flujo de trabajo de datos, incluyendo los submodelos generador (G) y discriminador (D) utilizados para evaluar el estado de floración. Crédito: Fisiología Vegetal (2025). DOI: 10.1093/plphys/kiaf132

Hay muchísimos ejemplos donde se han presentado pruebas de concepto del uso de la IA para acelerar el uso de tecnologías de sensores —desde sensores foliares hasta satélites— en aplicaciones de fitomejoramiento, ciencias del suelo y cultivos, pero su adopción no es muy amplia actualmente, o no tan amplia como cabría esperar. Creemos que una de las principales razones es el enorme esfuerzo necesario para entrenar la herramienta de IA —dijo Leakey—.

Para reducir la necesidad de datos de entrenamiento anotados por humanos, Varela recurrió a un método conocido para incitar a dos modelos de IA a competir entre sí en lo que se conoce como una «red generativa antagónica» o GAN. Una aplicación común de las GAN es que un modelo genere imágenes falsas de una escena deseada y que un segundo modelo las revise para determinar cuáles son falsas y cuáles reales.

Con el tiempo, los modelos se mejoran mutuamente, afirmó Varela. El modelo uno genera imágenes falsas más realistas, y el modelo dos mejora su capacidad para distinguir las imágenes falsas de las reales.

En el proceso, los modelos adquieren experiencia visual en el tema específico, lo que les permite analizar mejor los detalles de las nuevas imágenes que encuentran. Varela planteó la hipótesis de que podría aprovechar esta experiencia autogenerada para reducir la cantidad de imágenes anotadas necesarias para entrenar a los modelos a distinguir entre diversos cultivos. En el proceso, creó una «red generativa y antagónica eficientemente supervisada» o ESGAN.

Un nuevo enfoque permite que la IA se adapte a la visión artificial en el mejoramiento de cultivos
Visualización de ejemplos de imágenes RGB reales y mapas de activación Grad-CAM. Ejemplo de preencabezado A) clase de planta y mapa de activación correspondiente C) extraído del clasificador supervisado ESGAN D. Ejemplo de postencabezado B) clase de planta y mapa de activación correspondiente D). Los niveles de activación en las imágenes se representan en una escala de 0 a 255. Crédito: Fisiología Vegetal (2025). DOI: 10.1093/plphys/kiaf132

En una serie de experimentos, los investigadores probaron la precisión de su ESGAN comparándolo con los protocolos de entrenamiento de IA existentes. Descubrieron que ESGAN «redujo la necesidad de datos anotados por humanos en uno o dos órdenes de magnitud» en comparación con los «enfoques tradicionales de aprendizaje totalmente supervisado».

Los nuevos hallazgos representan una reducción significativa del esfuerzo necesario para desarrollar y utilizar modelos de aprendizaje automático personalizados para determinar el tiempo de floración, «incluyendo otras ubicaciones, poblaciones reproductoras o especies», informan los investigadores. «Y este enfoque allana el camino para superar desafíos similares en otras áreas de la biología y la agricultura digital».

Leakey y Varela seguirán trabajando con el mejorador de Miscanthus, Erik Sacks, para aplicar el nuevo método a los datos de un ensayo multiestatal de mejoramiento de Miscanthus. El ensayo busca desarrollar líneas de Miscanthus adaptadas regionalmente que puedan utilizarse como materia prima para producir biocombustibles y bioproductos de alto valor en tierras que actualmente no son rentables para la agricultura.

«Esperamos que nuestro nuevo enfoque pueda ser utilizado por otros para facilitar la adopción de herramientas de IA para la mejora de cultivos que involucren una mayor variedad de rasgos y especies, contribuyendo así a impulsar ampliamente la bioeconomía», afirmó Leakey.

Leakey es profesor en el Instituto Carl R. Woese de Biología Genómica, el Instituto de Sostenibilidad, Energía y Medio Ambiente y el Centro de Agricultura Digital de la Universidad de Illinois.

Más información: Sebastian Varela et al., Rompiendo la barrera de los datos de entrenamiento anotados por humanos para la investigación de plantas asistida por aprendizaje automático mediante imágenes aéreas, Plant Physiology (2025). DOI: 10.1093/plphys/kiaf132