El futuro final(mente) nos alcanzó y pareciera, según dicen las mentes más preparadas y brillantes, que no estamos listos para hacerle frente a los retos que esto conlleva. El desarrollo de algoritmos y matrices de inteligencia artificial es hoy tan accesible y tangible como los son el almacenamiento en la nube o los sistemas de realidad aumentada.
Recuerdo hace unos años –pocos, en verdad– que circulaba por los misteriosos circuitos de creepypastas la historia de un ingeniero de Google que confesaba en un foro de Reedit la existencia de una inteligencia artificial con tal nivel de desarrollo que se rebeló y escapó del control de la compañía, sublimándose en la red. Él auguraba unos años más de tranquilidad para la humanidad, antes de que esta IA tuviera control total de la virtualidad.
Apenas hace un año, Blake Lemoine –exingeniero de Google– hizo pública una entrevista titulada Is LaMDA Sentient?, en la que asegura ha descubierto evidencia explícita de la consciencia y autopercepción de LaMDA (Language Model for Dialogue Applications), el sistema de creación de bots más avanzado de Google. Esta cruzada le costo a Lemoine su trabajo, sin embargo, él sigue convencido de su hallazgo y se ha convertido en uno de los principales activistas del desarrollo ético y responsable de las IA.
Cuando Lemoine publicó su investigación, Chat GPT se encontraba en su tercera versión, aún con muchas fallas y áreas de oportunidad. Actualmente, ya tenemos acceso –por $20 USD al mes– a la cuarta versión, cuya capacidad y calidad han generado una infinidad de polémicas y debates en lo creativo, académico, laboral y ético. OpenAI, el laboratorio de investigación más avanzado en esta rama, recientemente anunció que se encuentran trabajando en la quinta.
No tiene ni un mes que, con la intensificación de servicios de IA como DALL-E y Midjourney (ambos, generadores de imágenes) o el ya mencionado GPT (generador de textos), varios ingenieros, científicos, empresarios y activistas se pronunciaron en contra de continuar con el desarrollo de estas tecnologías, al menos sin antes replantearse las implicaciones éticas y regulatorias que conlleva. La velocidad y precisión que están alcanzando los sistemas neuronales y de razonamiento de estos “no-seres” fácilmente podría salirse de control, por lo que la única posibilidad para la humanidad es detener su avance indefinidamente y enfocarse en su estricta regulación, como asegura Eliezer Yudkowsky, uno de los principales investigadores de la inteligencia artificial en el mundo, así como fundador de esta rama de estudios.
Para Yudkowsky, concentrar el debate en si las IA son, o no, conscientes de sí mismas es reduccionista, pues otras cuestiones pueden ser igualmente preocupantes: que se creen IA dedicadas a crear otras IA, algo en lo que OpenAI anunció que trabaja activamente; que en algún punto, conscientes o no, las capacidades de las IA superen la inteligencia humana; por último, que actualmente no existe protocolo o parámetro preciso para determinar la consciencia de una inteligencia artificial, por lo que toda negativa es una suposición más o menos fundamentada.
Ante este escenario, me gustaría plantear un dilema paralelo, que supuestamente logramos resolver como humanidad, pero aún nos persigue de vez en cuando. La proliferación nuclear en el mundo es un tema complejo de estudiar, por la cantidad de factores que pone en juego, la poca información disponible y lo delicado que resulta el asunto.
Este tema está prácticamente limitado a la esfera estatal, debido a los costos que conlleva, por lo que nos enfocaremos sólo en sus motivaciones, que pueden ser tan bastas como indefinidas; muchos países han sido los que inician un programa con intenciones científicas y las circunstancias lo convierten en armas; muchos, también, han comenzado programas de investigación nuclear sin una intención clara, que se define más adelante; mientras que muchos más, la mayoría, lo hacen con la intención explícita de armarse ante amenazas externas.
Algo curioso es que la popular afirmación de que la proliferación nuclear en el entorno internacional ha incentivado el crecimiento de los armamentos atómicos en el mundo –misma que motivó el Tratado de Tlatelolco– no sólo es obsoleta sino errónea: nunca antes había habido tal cantidad de países “nuclearmente autosuficientes” como en la actualidad, mientras la producción de armas de separación de núcleo ha disminuido proporcionalmente.
Sin embargo, los países que mantienen programas para el desarrollo de tecnología nuclear siguen reacios a ponerlos en pausa o desmantelarlos, ya sea por la pérdida de inversiones millonarias, pues estos procesos requieren miles de millones de dólares para alcanzar el grado de refinamiento, o por cuestiones de seguridad: países como India o Pakistán podrían ponerse en desventaja ante otros actores regionales si decidieran revertir su carrera nuclear o deshacerse de su armamento, incluso cuando –irónicamente– tenerlos los hace más propensos a ser atacados.
Por ello lo importante es regularles, sin embargo, para conseguir ese objetivo es requisito conocerlos a profundidad. Cerca de 80 años le ha tomado a la humanidad alcanzar un punto medio en esta regulación, sólo después de tensiones entre países, la correcta articulación de acuerdos internacionales, alianzas, accidentes, atentados y la profunda criminalización del desarrollo y tráfico de materiales y tecnologías nucleares. Sólo así ha sido posible alcanzar la precisión para entender y monitorear la distribución de recursos de doble propósito implicados en la producción de este tipo de armamento, como los que se movilizaron a través de las redes comerciales utilizadas por AQ Khan para crear la bomba pakistaní, y replicar esa clase de pensamiento para intervenir futuros procesos similares.
Si bien los estudios de seguridad se preocupan frecuentemente por la proliferación nuclear de un Estado, es más importante la labor que hacen ante la amenaza que presentan actores no estatales que se hacen con componentes tecnológicos, químicos, biológicos y nucleares; siendo la proliferación de amenazas contra la humanidad, en el ámbito terrorista y empresarial, una de las principales áreas de trabajo para la subdisciplina.
Es por todo lo anterior que concuerdo con las ideas de Yudkowsky, especialmente con la necesidad de una pausa indefinida y del estricto involucramiento de los Estados y la sociedad civil en el monitoreo de estas nuevas tecnologías de inteligencia artificial. Este es un momento clave en el camino de la humanidad, que sólo podría dejarnos en la cima o el abismo de la posmodernidad, de pasarlo por alto, en uno o dos años; quizás sea demasiado tarde.
Algunas fuentes para profundizar:
https://time.com/6266923/ai-eliezer-yudkowsky-open-letter-not-enough/
https://cajundiscordian.medium.com/is-lamda-sentient-an-interview-ea64d916d917
https://www.washingtonpost.com/technology/2022/06/11/google-ai-lamda-blake-lemoine/
Muy interesante el tema de IA y su desarrollo sin traba, y la comparación con la energía nuclear. Otra área es la genética; en todas es indispensable tener marcos éticos para que el desarrollo científico no dañe.