Sam Altman afirma que ChatGPT consume solo una quinceava parte de una cucharadita de agua por consulta y pronostica que los costos de la IA pronto se alinearán con los precios de la electricidad, pero carece de metodología.

Sam Altman afirma que ChatGPT consume solo una quinceava parte de una cucharadita de agua por consulta y pronostica que los costos de la IA pronto se alinearán con los precios de la electricidad, pero carece de metodología.

El auge de la inteligencia artificial (IA) continúa sin cesar, y las empresas destinan cada vez más recursos a tecnologías de IA y las integran en sus ofertas. OpenAI, especialmente desde el lanzamiento de ChatGPT, ha impulsado el uso de la IA, inspirando a numerosas empresas a mejorar la accesibilidad y la funcionalidad. Sin embargo, a medida que se multiplican las aplicaciones de IA, las preocupaciones sobre las prácticas éticas y las consecuencias ambientales se acentúan. Recientemente, Sam Altman, director ejecutivo de OpenAI, compartió información sobre el consumo de recursos asociado con estos modelos de IA.

Consideraciones ambientales de la IA: perspectivas de Sam Altman

A medida que la tecnología de IA se generaliza, las partes interesadas, desde desarrolladores hasta usuarios comunes, se preguntan sobre las implicaciones de su uso ético y la sostenibilidad ambiental. En una destacada entrada de blog, Altman reveló datos específicos sobre el agua necesaria para una consulta promedio de ChatGPT, lo que podría sorprender a muchos.

En su entrada de blog titulada «La Singularidad Gentil», explicó el potencial de la IA para transformar los marcos sociales a nivel económico, social y, en particular, ambiental. Si bien Altman proporcionó cifras impactantes, no reveló las metodologías empleadas ni los factores considerados para obtener estas estadísticas. Según sus estimaciones:

Una consulta ChatGPT promedio utiliza aproximadamente 0, 000085 galones de agua, lo que equivale a aproximadamente una quinceava parte de una cucharadita.

Altman también abordó el consumo de energía y reveló más información sobre las demandas operativas de ChatGPT:

La gente a menudo pregunta sobre la energía utilizada por una sola consulta de ChatGPT; consume alrededor de 0, 34 vatios-hora, comparable a la energía que utiliza un horno en poco más de un segundo o la de una bombilla de alta eficiencia en un par de minutos.

De cara al futuro, Altman anticipó que, a medida que los sistemas de IA evolucionen y se vuelvan más eficientes, es probable que los costos asociados disminuyan significativamente, alineándose potencialmente con los costos básicos de electricidad necesarios para operar el hardware requerido. Sugirió que ampliar las operaciones podría ser clave para lograr estos ahorros. Sin embargo, los críticos, incluidos los defensores del medio ambiente, expresan escepticismo sobre si las estimaciones de Altman representan adecuadamente el costo real de los recursos consumidos por las tecnologías de IA. Aún existen dudas sobre la validez de la cifra de una quinceava parte de una cucharadita, especialmente ante la falta de un respaldo metodológico claro.

Este diálogo en torno a la sostenibilidad de las tecnologías de IA subraya la importancia de la transparencia y la responsabilidad a medida que la industria avanza.

Fuente e imágenes

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *