ChatGPT: advierten que ser educado en las interacciones podría afectar al planeta y costar mucho dinero
Ser amables con las herramientas de IA podría no ser algo inocente. El costo energético de ese tipo de pequeñas frases, al multiplicarse por millones, tendría un impacto sobre el medio ambiente. Un debate impensado que ya está en curso.

El uso de las diferentes herramientas de inteligencia artificial crece exponencialmente. Tanto para el uso laboral, o a niveles más corporativos, como en el uso personal diario. Y es en este último nivel donde mucha gente, que interactúa con herramientas como ChatGPT, incluye en el diálogos saludos como si se tratara de una persona. Para ellos nunca falta un hola o un gracias al final.
Pero esa muestra de educación, multiplicada por millones deja de ser un detalle menor para abrir otro interrogante, tal como plantea Gizmodo: ¿puede una simple muestra de buena educación tener un impacto ambiental? Y aunque parezca hasta increíble, la respuesta en esta época de inteligencia artificial, es un rotundo sí.
Esto hace evidente que ser amable con una IA podría estar contribuyendo, aunque sea mínimamente, al consumo de recursos valiosos como electricidad y agua potable.
¿Tu le das las gracias a ChatGPT? pic.twitter.com/ElPGnNdUq7
— SALVAJE (@Sdesalvaje) April 3, 2025
Lo cierto es que en cada envío de una frase cordial por parte del usuario a herramientas como ChatGPT, ya sea decir hola, por favor o gracias, el sistema no solo interpreta el mensaje, sino que activa una serie de procesos computacionales que requieren energía. Herramientas como el mismo ChatGPT o Gemini utilizan servidores distribuidos en centros de datos que funcionan todo el tiempo.
El costo de ser amable
En declaraciones relevadas por The Manhattan Times, el CEO de ChatGPR Sam Altman ha dicho que “la gente que añade "por favor " y "gracias " a sus mensajes de IA le está costando caro”. Pero Altman no quiere desterrar a los buenos modales, porque agregó que Altman respondió que son "decenas de millones de dólares bien gastados.
Nunca se sabe". Ese debate, que parece más que mínimo es el que muchos hoy se permiten: ¿y si las máquinas el día de mañana tienen la capacidad de tomar decisiones independientes validando cómo las han tratado en el pasado?.

Puede parecer absurdo ser cortés con un chatbot, pero algunos desarrolladores de IA argumentan que realmente importa. Kurtis Beavers, jefe de diseño de Microsoft, por dar un ejemplo, cree que la cortesía "ayuda a generar resultados respetuosos y colaborativos”.
Usar un lenguaje cortés define el tono de la respuesta", explica Beavers. Y tiene cierta lógica: lo que llamamos "inteligencia artificial" es en realidad más bien un motor de predicción hiper avanzado: piensa en texto predictivo, pero potenciado para formar oraciones completas según el contexto de cada situación.
"Cuando detecta cortesía, es más probable que responda con cortesía", afirma un memorando de WorkLab de Microsoft. "La IA generativa también refleja los niveles de profesionalismo, claridad y detalle en las indicaciones que se proporcionan".
Una encuesta de finales de 2024 reveló que el 67 % de los estadounidenses afirmaron ser corteses al hablar con chatbots. Entre ellos, el 55 % afirmó hacerlo porque "siente que es lo correcto", mientras que el 12 % confesó que simplemente intenta mantener una buena relación en caso de un desastre catastrófico provocado por la IA.
Un debate impensado
Por el otro lado está el costado del consumo y el impacto al medio ambiente. Estos servidores no solo consumen electricidad al realizar sus operaciones, sino que también necesitan mantener temperaturas estables para evitar el sobrecalentamiento del sistema. ¿Cómo lo logran?. A menudo, mediante sistemas de refrigeración que, en muchos casos, emplean grandes cantidades de agua potable. Es por ello que millones de pequeñas interacciones cotidianas sumadas representan un impacto ambiental significativo.
Algunos estudios recientes han demostrado que los modelos de lenguaje de gran escala requieren cantidades enormes de energía y agua para funcionar correctamente. En muchos centros de datos, especialmente en climas cálidos, se emplea agua para enfriar el hardware mediante sistemas de refrigeración líquida. De ahí que muchos plantean la necesidad de mudar este tipo de grandes servidores a climas más fríos con acceso a agua que se pueda reciclar.
Es por ello que más allá de la forma interna de funcionamiento de la IA, la acumulación de respuestas “innecesarias”, en términos operativos, tiene entonces un costo ambiental doble: energía para el procesamiento y agua para el enfriamiento. Algunos especialistas han advertido que lsi el uso de estas IAs se escala globalmente sin conciencia del impacto, hasta los hábitos más inocentes podrían generar una carga ambiental significativa.