Las emisiones de carbono de Google aumentaron un 48% en cinco años debido al auge de la inteligencia artificial (IA), informó el martes el gigante estadounidense, evidenciando uno de los principales problemas del fulgurante desarrollo de esta tecnología: su voraz consumo de energía.
¿Por qué consume energía la IA?
Los modelos de lenguaje en los que se basan las IA generativas necesitan una capacidad de cálculo enorme para entrenarse utilizando miles de millones de datos, lo que requiere servidores potentes.
Luego, cada vez que un usuario envía una consulta a ChatGPT o a cualquier otra IA generativa hace funcionar servidores situados en un centro de datos.
Estos servidores consumen electricidad, se calientan y es necesario refrigerarlos con sistemas que a su vez requieren energía.
Según la Agencia Internacional de la Energía (AIE), los centros de datos emplean generalmente alrededor del 40% de su electricidad para alimentar los servidores y el 40% para enfriarlos.
Varios estudios señalan que una consulta a ChatGPT requiere de media 10 veces más energía que una simple consulta al motor de búsqueda de Google.
El auge de la IA desde 2022 llevó a gigantes de Internet, como Amazon, Google y Microsoft, a invertir masivamente en la creación de centros de datos en todo el mundo.
En su informe medioambiental, Google destaca el aumento del consumo de energía en sus centros de datos, así como el repunte de las emisiones vinculadas a la construcción de nuevos centros de datos y a la modernización de los ya existentes.
¿Cuánta energía consume la IA?
Antes de la fiebre de la IA, los centros de datos representaban en torno al 1 % del consumo mundial de electricidad, según la AIE.
Si se suman la IA y el sector de las criptomonedas, los centros de datos consumieron casi 460 Twh de electricidad en 2022, es decir el 2% de la producción mundial total, según la institución.
Esta cifra podría duplicarse en 2026 hasta alcanzar los 1.000 Twh, lo que equivaldría al consumo eléctrico de Japón, advierte en un informe.
Alex de Vries, economista de la Universidad Libre de Ámsterdam, elaboró un modelo del consumo eléctrico necesario sólo para la inteligencia artificial basándose en proyecciones de ventas de la empresa Nvidia, cuyos procesadores son esenciales para entrenar modelos de IA.
Si las estimaciones de ventas de Nvidia para 2023 son correctas, y si todos los servidores funcionan al máximo de su capacidad, podrían consumir entre 85,4 y 134 Twh al año, lo que consume un país como Argentina, escribe en un artículo.
"Las cifras que puse en mi artículo eran bastante prudentes al principio porque no tienen en cuenta procesos como las necesidades de refrigeración"
El año pasado, las ventas de Nvidia superaron sus previsiones, por lo que las cifras podrían ser aún mayores, añadió.
¿Cómo gestionan los centros de datos esta mayor demanda de energía?
La IA va a transformar el sector de los centros de datos, reconoce Fabrice Coquio, de la empresa Digital Realty, que gestiona un enorme centro de datos en las afueras de París, parte del cual estará consagrado a la IA.
"Será exactamente como la nube (servicios informáticos desmaterializados), quizás un poco más masiva en términos de despliegue", explicó a AFP durante una visita de las infraestructuras en abril.
Mientras que los servidores con una potencia de cálculo media pueden colocarse en salas con sistemas de aire acondicionado, aquellos mucho más potentes necesarios para la IA tienden a calentarse más y requieren bombear agua directamente a los equipos para enfriarlos, explicó Coquio.
"Sin duda, esto requiere servidores, equipos de almacenamiento y comunicaciones diferentes", insistió. Con información de elnacional.com
Gari.pk is your ultimate resource for car information in Pakistan. Discover car prices, reviews, and the latest automotive news. Get detailed insights on new and used cars to make informed decisions.