Escrito por: Erick Ortiz Vega, Opinión, Tech & Trends

Aumento del consumo de energía debido a la Inteligencia Artificial

Inteligencia Artificial

Inteligencia Artificial ¿quiénes serán los encargados de democratizarla en nuestras vidas y cuál será su impacto en la competencia digital

Erick Ortiz Vega
Socio fundador de Sulvolta

“A medida que el consumo energético sea más barato para uso de la tecnología,
más innovación sobre IA sucederá y alrededor de ella”

En ediciones pasadas escribí sobre Inteligencia Artificial (IA) y la abordé desde dos aristas, la primera en cuanto a quiénes serán los encargados de democratizarla en nuestras vidas y la segunda, su impacto en la competencia digital. Para mí no hay duda de que la IA es la disciplina científica que más innovaciones aportará a la humanidad en este siglo, maximizando los beneficios de los desarrollos tecnológicos propios de cada industria.

Esto, debido a que la IA optimizará procesos manuales a través de mecanismos automatizados; permitirá el análisis de volúmenes gigantescos de datos de forma más rápida y exacta matemáticamente hablando y habilitará la toma de decisiones operativas y de negocio de manera eficiente.

Ahora bien, siendo la nube, uno de sus democratizadores, al permitir el alcance al uso de algoritmos de IA, eliminando las barreras de programación nivel experto a las que se pudieran enfrentar las empresas, y habilitando el acceso a GPUs especializados para IA y cómputo cuántico a costos asequibles, es relevante mirar, ¿qué están haciendo los proveedores de nube, más allá de la IA?

TE PUEDE INTERESARNUBE Y DESARROLLADORES DEMOCRATIZARÁN EL USO DE LA IA

Recientemente, Google Cloud anunció sus esfuerzos por ser la nube más verde del planeta. Intuyo que este anuncio va por dos caminos, el primero, porque los retos del Cambio Climático tan innegables no pueden ser atendidos sin considerar a los centros de datos más grandes del mundo como parte del problema, por su aportación en la generación de calor, consumo de electricidad y generación de CO2.

Sumemos a los desafíos actuales de los centros de datos de los proveedores de nube globales, los derivados más allá de la implicación del procesamiento de cómputo tradicional, almacenamiento y réplicas, es decir, los del cómputo requerido para IA y cómputo cuántico.

El cómputo requerido para IA necesita realizar más operaciones de punto flotante por segundo (FLOPS) que el tradicional, y más operaciones FLOPS conllevan más consumo de electricidad.

TE PUEDE INTERESARV2G, ASISTENTE VENTRICULAR EN EL GRID ELÉCTRICO INTELIGENTE

Así que el segundo camino que intuyo con dicho anuncio tiene que ver con los anuncios venideros respecto a innovaciones y alianzas con fabricantes de GPUs. Porque el reto de consumo eléctrico y generación de CO2 actuales más los incurridos por la IA, pueden enfrentarse desde la innovación y uso de tecnologías verdes de generación eléctrica y con la combinación de la innovación de las tecnologías de los GPUS.

Basta con fijar la atención en el anuncio del pasado 25 de agosto por parte del Laboratorio de Cómputo Argonne del Departamento de Energía de Estados Unidos, quien reveló que su supercomputadora Polaris utilizará mil 120 CPUs de AMD y 2 mil 240 GPUs de NVIDIA, con un poder de 44 PetaFLOPS de rendimiento FP64 y 1.4 ExaFLOPS de rendimiento en IA. También reveló que la decisión de la combinación de fabricantes, AMD y NVIDIA obedeció al retraso de entrega de la supercomputadora Aurora de Intel, atribuido a problemas en la producción de sus nuevas CPUs Sapphire Rapids.

Un dato secundario fue que la supercomputadora Polaris consumirá 2 megawatts a diferencia de Aurora que promete consumir 60 megawatts. Lo remarco para sustentar el segundo camino que intuyo de por qué el anuncio de Google Cloud, innovaciones y alianzas con fabricantes de GPUs para enfrentar el reto de consumo eléctrico y generación de CO2.

TE PUEDE INTERESARGD, EL CORAZÓN DE LA ARQUITECTURA DEL GRID ELÉCTRICO INTELIGENTE

El anuncio de Google es uno de muchos que escucharemos en esta década por parte de los proveedores de nube, pues el cumplimiento de los criterios ESG como estándares de operación de las compañías, serán evaluados con mayor ponderación por parte de los inversionistas para realizar sus análisis de identificación de riesgos y crecimiento de oportunidades.

A inicio de año, Larry Fink, CEO de Blackrock, envío una carta a inversionistas, diciendo: “A medida que más y más inversionistas elijan inclinar sus inversiones hacia empresas centradas en la sustentabilidad, el movimiento tectónico que estamos viendo se acelerará aún más. Y debido a que esto tendrá un impacto dramático en cómo se asigna el capital, todos los consejos administrativos y directores deberán considerar cómo afectará esto a las acciones de sus empresas”.

Regresando a la comparativa de consumo de energía por parte de la supercomputadora Polaris vs Aurora, o desde otra perspectiva, AMD+NVIDIA vs Intel, quiero ejemplificar esta última perspectiva en términos unitarios. Un GPU NVIDIA V100 puede consumir entre 250-300 watts. Si asumimos 250 watts y la supercomputadora utiliza 512 GPUs, el consumo es de 128 mil watts o 128 kW. Si la supercomputadora está funcionando por nueve días para entrenar un algoritmo de IA, el costo de dicho entrenamiento es de 27 mil 648 kWh.

TE PUEDE INTERESARURGE A CFE Y PEMEX IMPLEMENTAR CULTURA DEVOPS

Teniendo en cuenta este dato de consumo energético, reflexiono sobre los actores democratizadores del uso de la IA que hablé en julio, y descubro un tercero, el costo energético consumido para el entrenamiento de los algoritmos. Este actor frente a los otros dos, la nube y los desarrolladores de software, es el detonador para la innovación e inversión en tecnologías verdes de generación eléctrica, e innovación en la eficiencia energética.
A medida que sea más barato el consumo energético para uso de la IA, más innovación sobre IA sucederá y alrededor de ella. Un círculo virtuoso que nuestra humanidad agradecerá por los beneficios en la exploración científica, médica, e incluso en la de energías limpias.

Conclusiones

En función de lo planteado, encuentro un loop de mejora continua al que ya entramos. Por un lado, la IA aumentará el consumo de energía de los Centros de Datos, y por el otro, la búsqueda por minimizar los costos energéticos consumidos por la IA impactará su evolución y democratización. Al mismo tiempo que dicha búsqueda potenciará en esta década la inversión y uso de energías limpias para generación eléctrica en los grandes Centros de Datos del planeta.

Finalizo esta trilogía de artículos, en torno a la IA, con una reflexión de Edna Odette González, Directora Editorial de Energía Hoy, “hasta ahora y en gran medida gracias a la ciencia ficción, hemos concebido a la Inteligencia Artificial (IA) como algo apocalíptico y oscuro, una amenaza al orden tal y como lo conocemos, que pone en riesgo la permanencia de la raza humana.” Esto no será así y descubrimientos muy poderosos se avecinan gracias a ella para bienestar de la humanidad.

(Visited 1,335 times, 1 visits today)
Compartir
Close