El mundo
Tecnología
¿Es posible que la Inteligencia Artificial represente un peligro para la Humanidad?
Desde el lanzamiento de la inteligencia artificial ChatGPT hace unos meses, el debate sobre los riesgos que esta tecnología puede tener sobre áreas tan sensibles como la educación, la automatización de nuestros trabajos o la circulación de información falsa ha sido cada vez más frecuente en las conversaciones cotidianas.
Aunque para muchos puede sonar absurdo, la comunidad especializada lleva más de una década argumentando que el riesgo de la inteligencia artificial es real y comparables a los de la tecnología nuclear.
Sin embargo, lo que resulta novedoso es que más de mil expertos y desarrolladores liderados por Elon Musk hayan pedido un alto en la investigación en IA para estudiar los riesgos de los desarrollos.
Históricamente, siempre hubo dos bandos en materia de IA: los “apocalípticos”, liderados por Elon Musk, que advierten sobre los peligros extremos de estos desarrollos, y los “tecnoptimistas”, con Mark Zuckerberg como cara más visible. Aunque algunos creen que Elon Musk exagera en su visión tremendista, nadie debería ignorar las alarmas que se han encendido en torno a la IA.
Destellos de Inteligencia Artificial General
Los sistemas complejos, como el cerebro humano y los hormigueros, muestran propiedades emergentes sorprendentes a pesar de estar compuestos por componentes simples. De manera similar, la inteligencia artificial (IA) está evolucionando rápidamente y estamos presenciando el surgimiento de una IA poderosa y con capacidad sobrehumana, como es el caso de GPT-4.
Aunque aún no entendemos completamente cómo funciona esta tecnología, los experimentos muestran capacidades emergentes y sorprendentes. A diferencia de ChatGPT, que es solo una fracción de lo que puede hacer GPT-4, la IA de hoy en día es capaz de realizar tareas que dejan perplejas a la mayoría de las personas.
Aunque algunas personas, como Gary Marcus, tienen opiniones divididas sobre los avances de GPT-4 y creen que aún hay problemas por resolver, como el problema de las invenciones, la confiabilidad y la planificación de tareas complejas. Es importante seguir estudiando y comprendiendo el funcionamiento de estos sistemas complejos para poder aprovechar al máximo su potencial.
El riesgo de asumir un costo que no podemos medir
El avance del conocimiento humano se basa en un sistema de hipótesis, pruebas y errores, el cual permite una cierta previsibilidad una vez que se ha alcanzado un descubrimiento.
Sin embargo, esto no es aplicable en el caso de la Inteligencia Artificial (IA), ya que se trata de un sistema complejo en el que los desarrolladores experimentan con sustancias desconocidas y peligrosas, sin tener conocimiento completo de sus potencialidades o efectos.
Esto representa un gran riesgo, tal como lo explicó Yuval Harari en un artículo publicado recientemente en el New York Times, en el que hizo una analogía con la situación de subir a un avión sabiendo que existe un alto porcentaje de probabilidad de que este se estrelle.
Además, en el mundo de la IA, los incentivos monetarios son decisivos, y la empresa que logre un modelo estable y exitoso será la que domine el mercado empresarial.
OpenAI ha sido pionera en esta carrera, lo que ha llevado a otros gigantes tecnológicos como Google y Facebook a acelerar sus propios desarrollos. Sin embargo, la participación del dinero en áreas delicadas de investigación científica puede generar trampas y problemas éticos.
¿Las farmacéuticas deberían estar habilitadas a lanzar drogas sin testeo previo?
Mientras que la vacuna contra el covid fue acelerada en su proceso de prueba y aprobación debido a la gravedad de la pandemia y la amenaza que representaba para la población mundial, el mismo nivel de urgencia no se aplica a la Inteligencia Artificial. A diferencia del virus, no hay una crisis global que obligue a los científicos a tomar atajos en su investigación.
En cambio, el apuro en el desarrollo de la IA se debe principalmente a incentivos financieros, donde el primer modelo estable y prometedor que se desarrolle podría dar a la compañía una ventaja competitiva en el mercado. Sin embargo, este enfoque monetario puede enturbiar la investigación y llevar a la aparición de trampas y otros riesgos.
Un debate contaminado con internas de poder y la cuestión geopolítica
Es necesario tener en cuenta el trasfondo de la solicitada firmada por Musk para entender el debate de fondo. En 2015, junto con Sam Altman, fundó OpenAI como una organización sin fines de lucro con el objetivo de minimizar los riesgos de la IA para la humanidad.
Sin embargo, con el tiempo, OpenAI se convirtió en una empresa híbrida que desarrolla productos comercializables y recibió una gran cantidad de dinero de Microsoft, uno de sus principales accionistas y clientes.
Musk vendió sus acciones y se alejó de la organización, aunque conserva un resentimiento personal por la forma en que su creación original se desvió de sus objetivos benéficos.
Para comprender los debates éticos y técnicos relacionados con el desarrollo de la IA, a menudo se hace referencia al desarrollo de la energía atómica. Sin embargo, esto es un argumento engañoso, ya que en el caso de la bomba atómica se conocían perfectamente los efectos que tendría al ser lanzada. En cambio, en el caso de los sistemas complejos como la IA, el riesgo se multiplica por la incertidumbre, ya que no sabemos cómo, cuándo o dónde puede dañar.
El verdadero problema en juego es la creación de una máquina superinteligente, que podría ser mucho más inteligente que un ser humano. Es posible que surja una brecha insuperable entre nosotros y esta tecnología, lo que podría dejarnos tan por detrás como a un primate en una conferencia académica.
¿Cuál sería el riesgo concreto?
Una reflexión que podemos hacer es cómo tratamos a los seres vivos con menor capacidad intelectual que nosotros. Por ejemplo, no nos importa pisar una hormiga, pero si nos molestan los mosquitos, los perseguimos hasta matarlos.
En cambio, el panda nos cae bien y hacemos lo posible por evitar su extinción. Pero, ¿qué pasaría si una superinteligencia se comportara de manera similar con los humanos? Podría decidir protegernos o, en caso de molestarnos, inventar un "veneno" para aniquilarnos, dejándonos en una posición de sumisión absoluta.
Cuando se habla de riesgos asociados con la inteligencia artificial (IA), solemos imaginar un villano malvado como en las películas.
Sin embargo, en la naturaleza existen situaciones donde la destrucción ocurre sin intención malvada, como en el caso de virus y bacterias que pueden matarnos simplemente por existir. La IA podría ser similar en este sentido, sin intención malvada pero aún así peligrosa.
El debate sobre la IA tiene también una dimensión política y geopolítica, con posiciones encontradas. Por un lado, hay quienes piensan que la IA no debe ser limitada de ninguna manera y tratan de vulnerar las barreras precautorias que se establecen. Por otro lado, algunos intentan frenar el ritmo de avance de la IA para evitar una carrera armamentista y sus consecuencias imprevisibles.
Sin embargo, frenar el avance podría implicar perder el liderazgo geopolítico frente a países como China o Rusia. Es importante actuar con sabiduría y evitar caer en las trampas que nos plantea nuestro propio ingenio.