• 05/05/2024 19:24

La inteligencia artificial aprende a pensar en verde

Tiempo estimado de lectura: 5 minutos, 37 segundos

La inteligencia artificial está presente en casi todos los ámbitos de la vida cotidiana, desde los algoritmos que predicen los contenidos que queremos ver en base a nuestras elecciones pasadas hasta los que ayudan a detectar enfermedades a partir de imágenes médicas. Esta rama de las ciencias de la computación que se encarga de que las máquinas tengan las mismas capacidades que las personas, como el aprendizaje o el razonamiento, presenta un sinfín de aplicaciones que mejoran la toma de decisiones, aunque sus beneficios van de la mano de un gran impacto en el medio ambiente. Para hacerse una idea, el uso de soluciones TIC representa hoy entre el 5 y el 9% del consumo de electricidad en todo el mundo, cifra que podría llegar al 20% en 2030, según recoge un informe del Parlamento Europeo publicado en mayo del año pasado.

En el caso de la inteligencia artificial, tanto el entrenamiento de los algoritmos como el procesamiento de los datos generan una factura ecológica difícil de digerir. Un grupo de investigadores de la Universidad de Amherst (Massachusetts, Estados Unidos), por ejemplo, revelaron en un estudio de 2019 que alimentar de información a un ordenador para procesamiento de lenguaje humano implica la emisión de unos 284.000 kg de dióxido de carbono equivalente, cinco veces superior a lo que produce un coche durante su vida útil, incluida la fabricación. Un problema que, dada la acelerada disrupción, se agravará en el futuro a menos que estas fórmulas matemáticas comiencen a considerar directrices de respeto por el planeta.

Es lo que se conoce como algoritmos verdes, un concepto que incluye tanto aquellos que son más eficientes y generan menos consumo energético para llegar al mismo fin como los que con su utilización contribuyen a aumentar la sostenibilidad de otras actividades, como puedan ser los que se emplean en la agricultura para reducir el gasto de agua y fertilizantes. Son las dos vertientes de una misma revolución todavía embrionaria pero que, según los expertos, es ya irreversible.

«Siempre se ha trabajado mucho en lograr que el hardware sea eficiente, con componentes cada vez más pequeños, más rápidos y que ejecutan tareas más complicadas, pero desde hace unos años se ha detectado que en el consumo final también afecta cómo esté hecho el software», explica Coral Calero, directora del área de Algoritmos Verdes de OdiseIA y catedrática de la Universidad de Castilla-La Mancha. Este nuevo paradigma va calando poco a poco en el seno de las tecnológicas. «Las empresas que desarrollan software se están dando cuenta de que los algoritmos verdes tienen que formar parte de su manera de trabajar y están empezando a implantarlos, con lo cual es algo incipiente pero imparable», dice la experta.

Las proyecciones para los próximos años son abrumadoras. Se prevé que en 2025 cada día se crearán 463 exabytes de datos y que los ‘data center’, que proliferan como setas, requerirán, en el peor escenario, casi 8.000 terabytes por hora de datos en 2030 y, en el mejor de los casos, 3.000 terabytes hora, lo que pone de manifiesto la necesidad de tomar medidas para minimizar los recursos energéticos asociados al despliegue tecnológico.

Equilibrio
Pero, ¿cómo se puede conseguir que los algoritmos sean más respetuosos con el medio ambiente? La patronal DigitalEs, en un reciente informe dedicado a este tema, lo deja claro. La clave pasa por alcanzar un equilibrio entre el volumen de datos necesario para entrenar los modelos, la cantidad de tiempo para entrenarlos y el número de interacciones para optimizar sus parámetros. Así planteado parece todo muy abstracto, pero Coral Calero clarifica la cuestión con un ejemplo concreto.

En la parcela del ‘machine learning’ (aprendizaje automático), los optimizadores que consumen más energía son los que mejor precisión ofrecen, por lo que suelen escogerse a pesar de sus consecuencias. «Conseguir un 2% más de precisión en la clasificación del algoritmo supone el doble de consumo, mientras que pasar del 85 al 94% de precisión acarrea 30 veces más de consumo. Si clasificamos objetos que están de moda puede darnos igual que haya 15 que no clasifique bien, pero si hablamos de cosas que hay que tener en cuenta para detectar una enfermedad, ese 94% es muy importante. En inteligencia artificial ahora se va a máximos, pero muchas veces no vale la pena tanta precisión para el problema que estamos resolviendo y, sin embargo, desde el punto de vista del consumo energético, el salto es muy grande», advierte.

Tamer Davut, socio de Governance, Risk and Compliance de PwC y Chief Digital Officer de la división de Assurance de la consultora, pone también el énfasis en esta cuestión. «Para lograr incrementos cada vez menores en la mejora del algoritmo tienes que consumir cada vez más energía, es decir, la mejora marginal cada vez cuesta más desde el punto de vista de energía y de consumo», detalla. Para afrontar esta situación, se están estudiando varias opciones. «Puede ocurrir que el balance entre lo que se quiere mejorar y lo que se está gastando para mejorar, desde el punto de vista de sostenibilidad, no compense. En ese caso, en vez de coger una muestra gigante para conseguir el incremento marginal, se selecciona una muestra pequeña que permita llegar al mismo objetivo optimizando el método de desarrollo del algoritmo», comenta el experto.

Otra alternativa es buscar la eficiencia a través del uso de modelos ya existentes: «En lugar de testear un algoritmo inteligente desde cero, que cuesta mucho desde el punto de vista de curva de aprendizaje y de consumo energético, se pueden aprovechar algoritmos ya existentes». Son avances en la buena dirección, eso sí, aún en proceso de madurez. «En este momento el foco está más en sacar algoritmos que tengan una mayor fiabilidad que en la reducción de la huella de carbono del propio algoritmo, pero la comunidad de desarrolladores está tomando conciencia y los académicos haciendo más estudios», apunta el experto.

Desde la patronal DigitalEs destacan igualmente la importancia de realizar test a pequeña escala para que los algoritmos sean puestos a prueba y validados en equipos sencillos antes de ser desplegados en la nube, donde el volumen de datos y el coste-consumo asociado son de mayor magnitud.

Medir la huella
Para que todas estas propuestas se adopten de forma generalizada, las fuentes consultadas creen que quedan algunos escollos por vencer. «Calcular la huella de carbono de un algoritmo no es fácil porque depende de qué modelo se aplique, del hardware que se esté utilizando para conseguirlo, de las fuentes de energía empleadas… El mismo algoritmo en distintos entornos puede tener un consumo energético muy diferente, por lo tanto, existe una complejidad en el cálculo y en la comparabilidad», subraya Davut. Este es uno de los grandes desafíos a abordar, como coincide Sara Hernández, consultora de regulación y sostenibilidad de DigitalEs: «Es necesario que exista un gran éxito de investigación y que las empresas dediquen medios a medir exactamente cuánto consume no solo el propio algoritmo funcionando, sino su desarrollo. Hace falta que ese proceso de creación y de uso esté medido para conocer el impacto en el consumo de energía».

En esta línea, Coral Calero defiende que igual que los electrodomésticos llevan etiquetas de consumo, los algoritmos deberían contar con una certificación similar. «Hay personas que ya están concienciadas con el medio ambiente y prefieren gastarse un poco más sabiendo que el producto es eficiente. Desde OdiseIA queremos que las empresas de software puedan etiquetar sus productos de manera que el usuario, sea particular o empresa, pueda decidir invertir un poco más en el software que compra sabiendo que va a ser eficiente durante su uso. Ese sería el objetivo final», ahonda. Dentro del ámbito de la inteligencia artificial, no todas las técnicas generan el mismo impacto. Algunas, con el ‘deep learning’ (aprendizaje profundo) a la cabeza, necesitan más capacidad de procesamiento. «Son algoritmos que suelen trabajar con imágenes y vídeos, datos que pesan mucho, de forma que almacenarlos, gestionarlos, etc. conlleva un alto consumo. Y en general, en IA, igual que en otros softwares, cuanto más movimiento tiene el dato, peor es para el medio ambiente», recuerda Calero.

Programa nacional
La creciente preocupación por la huella ecológica de los algoritmos ha llevado a nueve países de la Unión Europea, entre ellos España, a impulsar estrategias que incluyen en sus áreas prioritarias o de interés las aplicaciones de la IA relacionadas con los problemas medioambientales. El Ministerio de Asuntos Económicos y Transformación Digital, a través de la Secretaría de Estado de Digitalización e Inteligencia artificial, trabaja en el Programa Nacional de Algoritmos Verdes, que se presentará próximamente.

Desde DigitalEs comentan que, por ahora, poco se sabe sobre el plan, salvo que se prevé dar ayudas al desarrollo de «mejores prácticas» en IA sostenible (seguramente vía subvenciones), que es una de las sugerencias que hizo la patronal en su informe. Señalan que estas ayudas deberían complementarse con acciones como apoyar la red nacional de supercomputación (para «entrenar» ahí los modelos algorítmicos), formar personal técnico en competencias de sostenibilidad, o incentivar fiscalmente (de manera amplia) los proyectos de innovación dirigidos a la sostenibilidad ambiental. «En España vamos un poco por delante, al igual que Europa, que está mejor posicionada que Estados Unidos o Canadá», indica Coral Calero. Queda camino por recorrer, pero pocos dudan hoy de que el futuro de los algoritmos se escribe en verde.

Rastreador de las emisiones
La inteligencia artificial puede beneficiar a la sociedad de muchas maneras, pero la energía necesaria para respaldar la informática detrás de esta tecnología hace que los beneficios tengan un alto coste ambiental. ¿Cuánto? Esa es la incógnita que trata de resolver CodeCarbon, un paquete de software gratuito que calcula la cantidad de dióxido de carbono producido por la nube o los recursos informáticos personales utilizados para ejecutar el código y que muestra la cantidad de emisiones generadas en magnitudes fáciles de comprender, como kilómetros recorridos en coche. La herramienta ha sido desarrollada por el Mila, el Instituto de Inteligencia Artificial de Quebec; GAMMA, el equipo global de ciencia de datos e IA de BCG; Haverford College y Comet.ml, proveedor de soluciones MLOps.


Artículo de (abc) publicado en https://www.abc.es/economia/abci-inteligencia-artificial-aprende-pensar-verde-202206050312_noticia.html