Tres Pm

SÍGUENOS EN REDES SOCIALES

Publicado en TECNOLOGÍA

¡Ser educado sí cuesta! OpenAI paga millones por cada “gracias” en ChatGPT

Martes, 22 Abril 2025 00:01 Escrito por 
Ante esta polémica declaración, vale la pena recordar que los chatbots impulsados por esta tecnología utilizan modelos de lenguaje grandes (LLM) Ante esta polémica declaración, vale la pena recordar que los chatbots impulsados por esta tecnología utilizan modelos de lenguaje grandes (LLM)

Con la reciente popularización de las inteligencias artificiales (IA) como Gemini (Google) y Copilot (Microsoft), también llegaron una serie de consejos sobre cuáles son las mejores formas de interactuar con ellas para obtener mejores resultados.

Entre las denominadas reglas de oro, los expertos recomendaban a los usuarios “ser educados” con las IA; sin embargo, estas acciones no son del todo agradables para Sam Altman, CEO de OpenAI, quien recientemente reveló que dichos gestos en ChatGPT le cuestan millones de dólares a la empresa.

Todo surgió a partir de una interacción entre el directivo y la cuenta de X @tomiinlove, quien le preguntó cuánto dinero había perdido OpenAI en costos de electricidad por las personas que incluían las frases “Gracias” y “Por Favor” en sus prompts, a lo que Altam respondió que eran “decenas de millones de dólares bien gastados”, al tiempo de añadir un enigmático “nunca se sabe”.

Ante esta polémica declaración, vale la pena recordar que los chatbots impulsados por esta tecnología utilizan modelos de lenguaje grandes (LLM), por lo cual dependen de una infraestructura computacional robusta que procesa la solicitudes de los usuarios desde centros de datos.

Estas instalaciones requieren unidades de procesamiento gráfico de alto rendimiento para operar de manera eficiente. Gracias a este hardware es posible interpretar las indicaciones hechas por los usuarios y generar respuestas en tiempo real; eso sí, demandando una cantidad significativa de energía eléctrica.

Aunque no existe una cifra exacta sobre cuánta electricidad consumen las IA, la popularización de estos programas, junto con la amplia variedad de opciones disponibles, permite suponer que obtener respuestas de cualquier chatbot, multiplicado por millones de usuarios alrededor del mundo, representa un consumo energético bastante considerable.