Desde chicos nuestros padres nos enseñan a ser educados y respetuosos, nos inculcan buenos modales y las formas correctas para relacionarnos con nuestros pares. Sin embargo, en la actualidad el avance de las tecnologías y el posicionamiento de la Inteligencia Artificial en el mundo nos llevarían hacia terrenos críticos donde nos quieren hacer olvidar esas enseñanzas, y saludar parecería ser pecado.
En este contexto, saludar amablemente al ChatGPT, y recibir una respuesta amistosa de su parte, supone un altísimo consumo energético. Si bien, en un hecho aislado el consumo parecería mínimo, si se multiplica ese consumo por más de los 100 millones de usuarios que se registran activos por día en la plataforma digital, el consumo sería altísimo, casi incalculable.
¿Por qué los buenos modales cuestan tanto para la IA?
Al utilizar el chat de la inteligencia artificial hay ciertas personas que no pueden evitar escribir “hola”, “gracias”, “por favor”, sin embargo, este hecho le cuesta muy caro a OpenAi, ya que el CEO de la empresa Sam Altman, reveló que los buenos modales le cuestan millones de dólares a la matriz de ChatGPT. En este sentido, podríamos decir que las expresiones de cortesías por parte de los usuarios, son un gasto millonario.
Esto se debe a que las interacciones formales y educadas con la aplicación de conversación de inteligencia artificial implican mayor procesamiento de datos, por lo que también aumenta los costos de energía. Por lo tanto, ejecutar textos de IA es notablemente costoso y se necesita de una gran inversión en energía eléctrica y en tecnología de hardware.
¿Cómo es el procesamiento en ChatGPT?
Ahora bien, en las conversaciones de ChatGPT, la aplicación artificial procesa los textos separándolo en tokens (partes de palabras o palabras completas), por lo que cuantos más tokens se producen, más trabajo hace la plataforma. Esta actitud, significa más tiempo de cálculo, más carga de servidores y más uso de la Unidad de Procesamiento Gráfico (GPU).
Por otro lado se encuentran los gastos ambientales, ya que según un estudio realizado por le Universidad de California, afirmó que hasta una simple respuesta de dos palabras puede consumir hasta 40 mililitros de agua en el proceso tecnológico que se necesita para generar esa respuesta. No obstante, a pesar del costo que conlleva, los expertos en inteligencia artificial no están en contra de los buenos modales.
Los gastos ambientales que produce la IA
A pesar de traer buenas soluciones y facilitarnos la vida en algunos aspectos, la inteligencia artificial tiene muchos gastos que afectan al medioambiente. En este sentido, según el último documento oficial de la Agencia Internacional de la Energía (EIA) se comprueba que la cantidad de energía eléctrica que consumen las centrales informáticas de IA se duplicará dentro de seis año: pasará de 415 teravatios en 2024 a consumir 945 TW en 2030.
Este incremento en las tarifas está incentivado por la implementación masiva de la IA, ya sea por las personas que trabajan en el desarrollo tecnológico como en los centros de datos. Por un lados lo centros de dato que se usan para servicios digitales, por el otro centros de datos basados en inteligencia artificial, en los cuales se hace un uso más potente de esta tecnología.
Asimismo, en la actualidad reducir el consumo de energía de la inteligencia artificial no es para nada sencillo, sin embargo, debemos ser conscientes sobre cuándo es necesario usarla y cuándo no. No obstante, expertos afirmaron que no depende de la cantidad de palabras del mensaje, sino del costo que vale la respuesta, porque el sistema operativo de ChatGPT debe pasar por toda la maquinaria para poder dar la contestación adecuada.