IA: amenaza al pensar
El profesor del Departamento de Humanidades e idiomas de la Escuela, Miguel Ángel Rincón Corredor, magíster en Filosofía de la Universidad de los Andes, analiza este tema actual y pertinente.
El profesor del Departamento de Humanidades e idiomas de la Escuela, Miguel Ángel Rincón Corredor, magíster en Filosofía de la Universidad de los Andes, analiza este tema actual y pertinente.
Mitigar el riesgo de extinción por la IA debería ser una prioridad mundial, junto con otros riesgos a escala social, tales como las pandemias y la guerra nuclear.
https://www.safe.ai/statement-on-ai-risk
En estas sucintas palabras del Center for AI Safety hay un mensaje claro y contundente: La Inteligencia Artificial (IA) supone un riesgo a escala global, que puede llevarnos, incluso, a la extinción. Puedes pensar que este mensaje es emitido por personas tecnófobas, que rechazan la tecnología y le temen al cambio; sin embargo, entre los firmantes del comunicado se encuentran expertos en IA, como Geoffrey Hinton, a quien se denomina el padrino de la IA; Demis Hassabis, CEO de Google DeepMind; Sam Altman, CEO de OpenAI; y Bill Gates, fundador de Microsoft. Otra carta abierta, que cuenta con 33002 firmantes, publicada por el Future of Life Institute, solicita a todos los laboratorios de IA pausar de manera inmediata y durante al menos seis meses el entrenamiento de todas las IA que sean más poderosas que GPT-4[1]; entre los firmantes de esta carta, encontramos a algunas personas que firmaron el comunicado del Center for AI Safety, además de personajes como Elon Musk, CEO de SpaceX, Tesla y Twitter; y Steve Wozniak, cofundador de Apple. Puede resultar sospechoso, o por lo menos curioso, que algunos de los protagonistas en el desarrollo de la IA estén advirtiendo sobre la misma.
Lo hacen por una razón: El peligro es real y ya se han percatado de la falta de control.
[1] https://futureoflife.org/open-letter/pause-giant-ai-experiments/
En los últimos meses se ha presentado un inusitado y acelerado desarrollo por parte de las IA; y debido a que, por definición, las IA están en constante aprendizaje y se desarrollan a ellas mismas, su desarrollo está yendo más rápido de lo que humanamente podemos percibir, predecir y controlar: ese es el peligro principal que se denuncia y que puede materializarse en diferentes tipos de riesgos. Ciertas personas sostienen un futuro apocalíptico, como Eliezer Yudkowsky, cofundador del Machine Intelligence Research Institute y quien lleva investigando sobre IA desde el 2001, quien dice que, si en las condiciones actuales alguien crea una IA lo suficientemente poderosa, espera que todos y cada uno de los miembros de la especie humana y toda la vida biológica en la tierra muera en poco tiempo[1].
Nick Bostrom, filósofo, director fundador del Future of Humanity Institute de la Universidad de Oxford, por su parte[2], considera que hacia el futuro debemos preocuparnos por el desarrollo de una superinteligencia artificial cuyos intereses no estén alineados con el bienestar de la humanidad, bien sea porque al cumplir los objetivos que se le impusieron desconozca reglas éticas y morales, porque interprete erróneamente las órdenes recibidas o porque sus dueños –empresas o gobiernos– directamente le programen funciones perjudiciales para sus competidores.
Respecto a nuestra actualidad, Bostron sostiene que debemos preocuparnos por el tratamiento de la información, tanto en lo que se refiere a la veracidad de la información pública como en lo referente a la privacidad de la información personal. Para estos problemas –futuros y presentes–, Bostron sostiene que hay que implantar valores humanos en las IA. Varios pensadores y personalidades de la industria informática también han alertado sobre una nueva brecha social demarcada por mejoras tecnológicas en los cuerpos a través de prótesis, implantes y accesorios; pues no todos podrán costearse tales mejoras; además, de que se prevé una próxima crisis de desempleo, causada por el reemplazo de trabajadores humanos por las IA.
Dejando de lado posibles consecuencias perniciosas que pueden darse en el futuro, ya se han vislumbrado varios peligros concretos y reales: la clonación de voces para realizar estafas telefónicas; la generación de imágenes, audios y videos falsos que han servido de insumo para la creación y propagación de noticias falsas; y algo denunciado por profesores a lo largo y ancho del planeta: la utilización de chatbots para la realización de trabajos académicos. Ahora bien, la generación de contenidos falsos y la utilización de chatbots para tareas académicas son, en apariencia, menos ominosas para la especie humana que el apocalipsis; pero conllevan una amenaza al pensar y, por lo tanto, a nuestra condición de seres humanos.
Sin lugar a dudas, la IA es muy buena procesando datos. Pero, ¿de dónde vienen estos? ¿Qué tanta veracidad tienen? Sin una formación adecuada, es muy fácil caer en noticias falsas, más aún cuando estas noticias refuerzan los sesgos propios y se encuentran soportadas por material audiovisual que se ve real. Los seres humanos somos influenciables y si la información que recibimos se fortalece por una amplia propagación, se crea una nueva verdad más cómoda y deseable, pero incompleta y prejuiciosa: peligrosa. Baste recordar el escándalo de Cambridge Analytica y Facebook, en el que, gracias a los datos de más de 50 millones de perfiles de Facebook, se seleccionó el contenido noticioso que debía ser dirigido a cada usuario para influir en las elecciones presidenciales de 2016 en Estados Unidos.
Por supuesto, las IA también producen y producirán desarrollos favorables para la humanidad –tan solo pensemos en una suerte de democratización de la producción de contenido multimedia y la temprana detección y diagnósticos de enfermedades, lo que repercutirá en una mejor salud pública–. Sin embargo, estos desarrollos también se basan en el procesamiento de datos; y aunque tengamos mucha información acerca de la vida humana, esta no es un mero cúmulo de información.
Las experiencias, lo inesperado, el accidente, el error, lo irracional, lo pasional, lo espiritual, lo estético, etc. son aspectos que nos transforman y que son muy difíciles de gestionar mediante un algoritmo. Entre más crezca la IA y se aproxime a una inteligencia artificial general que cuente, por supuesto, con sus instancias personales para cada usuario, más acertadas respuestas nos dará y cada vez tomará, por nosotros y de manera autónoma, decisiones más adecuadas. Esa es, precisamente, la amenaza al pensar y a la humanidad.
Si cada vez pensamos menos críticamente y delegamos más nuestro poder de decisión, nos terminamos reduciendo a un modo de existencia que se limite a replicar datos –que cada vez serán más autogenerados por la IA– y que, paradójicamente cometa menos errores; seremos más productivos y eficientes, pero a costa de nuestra propia condición humana.
Los chatbots y las IA brindan información rápida y cada vez más certera, pero quien solicita esa información no la cuestiona, la toma acríticamente y se engaña creyendo que hizo algo. Seguir la ruta que define el celular, consumir el contenido que recomienda el servicio de streaming, ir al espectáculo del que todos hablan en tus redes, comprar la ropa que te aparece en los anuncios emergentes y reafirmar tus ideas porque ves que todos están de acuerdo; todo eso te satisface, pero no eres tú quien está tomando alguna decisión, solo estás siguiendo y alimentando tendencias, te estás moviendo por el mundo obedeciendo lo que los algoritmos te dictan.
Asimismo, las decisiones basadas en datos sesgados pueden ser eficientes, pero no empáticas; efectivas, pero no compasivas; objetivas, pero no establecen relaciones personales. En síntesis: el problema más importante de la IA no es instrumental: es decir, no es que se pueda utilizar para bien o para mal, su verdadera amenaza es que perdemos agencia, voluntad, humanidad. Dudo que la IA evolucione de forma que desarrolle actitudes humanas déspotas y quiera destruir a la especie humana; más bien al contrario, la humanidad se puede volver cada vez más mecánica; por ello nos urge hacer una pausa y pensar cómo queremos relacionarnos entre nosotros y con la IA; decidir qué humanos deseamos ser en el futuro; esto antes de que, justamente, no haya más cabida para el pensar.