La carrera de los gigantes de Silicon Valley para integrar generadores de lenguaje de IA en los motores de búsqueda de Internet podría multiplicar por cinco la demanda de poder de cómputo y emisiones masivas de carbono.
Ya se ha establecido la hoja de ruta comercial para los generadores de texto de IA. Con humildes comienzos en usos recreativos, como la creación de letras de canciones originales, poemas e incluso tareas escolares satisfactorias, la tecnología ahora se ha convertido en una obsesión lucrativa para los gigantes de Silicon Valley.
A principios de febrero, la noticia de que Microsoft planeaba integrar ChatGPT en Bing envió a Google a un informe lucha de 'código rojo'.
Tras las reuniones cruciales entre los peces gordos de Alphabet, la empresa decidió acelerar el lanzamiento de su propio competidor de IA, Bardo, por temor a que su motor de búsqueda y los ingresos por publicidad experimenten una caída considerable en la participación.
Ambas compañías todavía están compitiendo para demostrar que su iteración de la tecnología de chatbot es el punto de referencia y la empresa de búsqueda china. Baidu desde entonces ha anunciado su incursión en la IA.
Aparecen nuevos desarrollos cada semana, y ver la gran magnitud de la inversión y la innovación es emocionante. Sin embargo, en medio del frenesí por las ganancias, un aspecto clave del floreciente espacio ha recibido mucha menos atención: su costo ecológico potencialmente enorme.
Literalmente ocultando un sucio secreto, los propietarios aún tienen que revelar las enormes demandas de energía para impulsar estas herramientas para que funcionen en masa. El análisis de terceros sugiere que el GPT-3 de OpenAI consumió 1,287 MWh durante el entrenamiento y creó 550 toneladas de dióxido de carbono.