Estudio de la UCA sobre la IA.

Un equipo español de la UCA logra que la IA consuma menos energía y vaya más rápido: de esta forma funciona

La clave para reducir el impacto ambiental de la IA no está en el modelo, sino en su software

·

La Universidad de Cádiz ha dado un paso técnico muy destacado e importante en uno de los debates más silenciosos del desarrollo digital: el coste energético de la inteligencia artificial.

Un equipo de investigadores del centro andaluz ha diseñado una herramienta muy útil y capaz de reducir el consumo y mejorar la velocidad de ejecución de los modelos de lenguaje sin alterar su comportamiento, una línea de trabajo que apunta directamente al núcleo del problema ambiental de estas tecnologías.

El estudio, publicado en la revista Future Generation Computer Systems, plantea una alternativa a las estrategias actuales. En lugar de reducir todo lo que es tamaño de los modelos —lo que suele implicar la inevitable pérdida de calidad—.

Esta propuesta se centra en optimizar el software que los ejecuta, es decir, los motores de inferencia que son los responsables de generar respuestas en sistemas como ChatGPT o Gemini.

Un problema energético en crecimiento con la IA

El avance de los modelos de lenguaje ha transformado sectores como la educación, la investigación o la atención al cliente. Sin embargo, ese progreso tiene un coste elevado. Cada interacción con estos sistemas requiere recursos computacionales intensivos, especialmente en la fase de generación de respuestas.

Las estimaciones actuales sitúan el consumo energético diario de estas tecnologías en niveles comparables al de miles de hogares. A ello se suma el impacto en emisiones: una carga de uso continuado puede equivaler a las emisiones de un vehículo recorriendo cerca de 80.000 kilómetros.

Este escenario ha impulsado una carrera por mejorar la eficiencia sin comprometer la capacidad de los modelos.

Hasta ahora, gran parte de las soluciones pasaban por simplificar los sistemas, reduciendo parámetros o empleando versiones más ligeras. El enfoque del equipo gaditano rompe con esa lógica al intervenir en una capa menos visible, pero determinante: el software que conecta el modelo con el hardware.

UCA: optimización mediante algoritmos evolutivos

La herramienta desarrollada por los investigadores se basa en un algoritmo genético, un método inspirado en los principios de la evolución natural. Este sistema genera múltiples combinaciones de optimización del código y selecciona aquellas que ofrecen mejores resultados en términos de eficiencia.

El proceso no modifica el modelo de inteligencia artificial en sí, sino el modo en que se ejecuta. Esto permite explorar mejoras sin afectar a la calidad de las respuestas.

El algoritmo analiza variables relacionadas con el uso del hardware, reorganiza instrucciones y ajusta parámetros de ejecución para reducir tiempos y consumo.

Las pruebas realizadas con modelos de distintos tamaños reflejan mejoras concretas. Según los resultados del estudio, se ha logrado una reducción superior al 13% en consumo energético y cercana al 20% en tiempo de ejecución. Son cifras que superan las optimizaciones genéricas aplicadas hasta ahora en este tipo de sistemas.

Este enfoque introduce además una ventaja operativa: puede aplicarse a modelos ya existentes sin necesidad de reentrenarlos, lo que reduce costes y facilita su adopción en entornos reales.

Una vía hacia una IA más sostenible con la UCA

El trabajo ha sido desarrollado por los investigadores Javier Jareño, José Miguel Aragón-Jurado, Juan Carlos De La Torre, Patricia Ruiz y Bernabé Dorronsoro, integrantes del grupo GOAL (Graphical Methods, Optimization, and Learning) de la Escuela Superior de Ingeniería de Cádiz. La investigación se enmarca en el proyecto gCODE, financiado por la Consejería de Universidad, Investigación e Innovación de la Junta de Andalucía.

Más allá de los resultados técnicos, el estudio abre una línea de investigación centrada en la eficiencia del software como elemento clave para reducir el impacto ambiental de la inteligencia artificial.

En un contexto de expansión acelerada de estos sistemas, la optimización de los motores de inferencia se perfila como una solución complementaria a las mejoras en hardware o arquitectura de modelos.

El desarrollo de herramientas que permitan reducir consumo sin afectar rendimiento responde a una necesidad creciente en la industria tecnológica. La presión regulatoria y el aumento del coste energético obligan a replantear la sostenibilidad de los sistemas de IA a gran escala.

La propuesta de la Universidad de Cádiz introduce un cambio de enfoque en ese debate: actuar sobre cómo funcionan los modelos, no sobre lo que son. Una diferencia técnica que puede tener impacto directo en la huella energética de la inteligencia artificial en los próximos años.

Ver más de Cádiz