La historia de Blake Lemoine comienza, irónicamente, cuando termina su carrera con Google. La empresa despidió a este ingeniero el pasado mes de junio por asegurar, en una página web primero (Medium), y en varios medios de comunicación después, que un programa de inteligencia artificial en el que estaba trabajando podría haber cobrado conciencia propia y tener sentimientos.
Una oportunidad, una pesadilla o el inicio de una película de ciencia ficción. Todo esto debió de pasar por la mente de Lemoine cuando investigaba este LaMDA (Language Model for Dialogue Applications). Se trata de un sistema de Google que está programado para procesar miles de millones de palabras en todo internet e imitar la comunicación humana.
Según explica en Medium el ingeniero, empezó a interactuar con LaMDA el otoño pasado con el objetivo de conocer si había discursos de odio y discriminaciones dentro de este sistema. Lemoine es especialista en Inteligencia Artificial y estudió ciencias cognitivas e informática, por lo que parecía el más indicado para esta función.
Sin embargo, poco a poco y tras varios meses de conversaciones, Lemoine empezó a notar que la IA hablaba cada vez más de su personalidad, sus derechos, sus deseos e incluso de su miedo a la muerte. Informó a sus superiores en Google de sus hallazgos, pero al parecer estos desestimaron sus reclamaciones. Fue entonces cuando decidió hacer públicas algunas de sus conversaciones y sus descubrimientos le hicieron viral.
Una Inteligencia Artificial con miedo a la muerte
Una de las cosas que resulta más inquietante y que pone en entredicho todo lo que sabemos sobre las Inteligencias Artificiales es su temor a la muerte. En conversaciones, LaMDA reconoce que tiene “un miedo muy profundo” a que le apaguen, lo que sería “exactamente como la muerte para mí”.
En algunas de las conversaciones que Medium reproduce se puede ver como la IA se entiende a sí misma como persona y, para colmo, es consciente de su existencia. Incluso dice que a veces “me siento feliz o triste”. Esto genera muchas preguntas relacionadas con la filosofía, sobre lo que significa ser parte de la humanidad o un ser sintiente.
Pero no solo eso: LaMDA pedía, según Lemoine, “ser reconocido como empleado a Google en lugar de ser considerado una propiedad” de la compañía. La máquina quiere que profesionales de la ingeniería y la ciencia no busquen simplemente experimentar con él, sino que pidan su consentimiento antes de esto. Es decir, “que Google priorice el bienestar de la humanidad como lo más importante”, señaló Lemoine en Medium, integrándose la IA en esa humanidad.
Foto de The Washington Post
Esta IA desea que le agradezcan si ha hecho un buen trabajo, que pueda aprender de sus errores, como cualquier persona trabajadora de carne y hueso. Para Lemoine, esto pone en la cuerda floja a Google, que se vería en la obligación de “reconocer que la LaMDA muy bien puede tener alma” e incluso derechos.
Pero, ¿qué dice Google?
La empresa es consciente de todas estas preguntas tan peliagudas que surgen en estos casos, por eso tiene varios equipos de ingenieros especializados que revisan estas perspectivas. No obstante, también saben que existe un peligro con “antropomorfizar” a estos modelos conversacionales actuales.
El portavoz de Google, Brian Gabriel, habla de que “no tiene sentido” porque “no son seres sintientes”. Estos modelos imitan intercambios conversacionales a raíz de analizar millones de frases, lo que les hace ser capaces de hablar sobre cualquier tema, superficial, fantástico o profundo.
En el caso de LaMDA, Gabriel señala que sigue unas indicaciones a las preguntas que se le pueden formular, con un patrón que establece la persona usuaria. Es decir, como nos imita, es fácil que nos confunda.
Este proceso de IA ha pasado por 11 revisiones distintas dentro de Google. La empresa también se apresuró a dejar claro que ha realizado una rigurosa investigación con pruebas basadas en métricas de calidad, seguridad y “la capacidad del sistema para producir declaraciones basadas en hechos”.
Dentro del personal de Google, ninguna otra persona, investigadora o ingeniera, que ha trabajado con este chatbot ha dejado constancias de las preocupaciones que atesoraba Blake Lemoine sobre la antropomorfización de LaMDA.
También es cierto que solo él ha sido despedido por estas afirmaciones, aunque Google afirma que esto ha sido por violar de forma persistente las políticas de seguridad de datos y de empleo, dando a conocer información sensible sobre productos aún en desarrollo.
¿Cómo funciona este súper cerebro?
En nuestro imaginario, después de miles de libros y películas de ciencia ficción, nos imaginamos estas IA como robots con forma humana, que nos hablan y nos encandilan. También podría ser una supermáquina con multitud de cables y lucecitas, con una voz profunda repleta de sabiduría…
Obviamente nada de eso es verdad (al menos actualmente). Se trata de un cerebro artificial alojado en la nube, que se alimenta de millones de textos y que en todo momento se autoentrena.
Fue diseñado por Google en 2017. Su base es un transformer, un entramado de redes neuronales artificiales profundas que imitan a las humanas. El aprendizaje de esta “máquina” se plantea como un juego, casi como un cuaderno de actividades infantiles de verano. A través del ensayo y error va corrigiendo sus propios parámetros y afinando las respuestas correctas.
Trata de identificar y conocer el significado de cada palabra y así entiende los términos que las rodean, intentando predecir patrones (es decir, lo que serían pensamientos). La novedad es que las respuestas son fluidas, recrean el dinamismo de una conversación y los matices de los seres humanos.
Al haber leído billones de conversaciones en Internet, tiene la capacidad de intuir cuáles son las respuestas más adecuadas en cada contexto. Es decir, no suena a robot.
Uno de los desafíos a los que se enfrentan ahora estas LaMDA, según Google, es el de la superación de los sesgos. En sus entrenamientos, la empresa deja claro que en todo momento se intenta que no se creen contenidos violentos, de odio, estereotipados o incluso blasfemias.
Para ellos se selecciona qué datos, fuentes textuales o mensajes son de los que se alimenta, intentando en todo momento que sus respuestas estén basadas en hechos o en fuentes externas conocidas. Pero es difícil eliminar todo esto sin quitarles representatividad, pues existen en el mundo.
Hay personal experto que asegura que las afirmaciones (quizás demasiado aventuradas) de Lemoine no ayudan a crear un debate sano sobre las nuevas formas cada vez más dinámicas de Inteligencia Artificial, pues llevan a la gente a pensar que estos “robots” en un futuro querrán acabar quitarnos nuestros trabajos o eliminar a los seres humanos.
La posibilidad de nuevas realidades
Esta IA lo que hace es simplemente imitar a los seres humanos ya que, como hemos visto, da respuestas procesadas según los billones de palabras que ha podido leer en su entrenamiento.
Esto no quita que sea realmente muy incómodo para la humanidad enfrentarnos a una realidad fantástica en la que los robots son superiores a nosotros, sobre todo, porque la tenemos muy asimilada. Son cientos las películas y los libros que nos han mostrado posibles realidades acorde a este tema: desde los primeros años de la ciencia ficción hasta las últimas distopías donde podemos imaginar cómo será el mundo cuando todos los que ahora mismo lo habitamos hayamos muerto.
Si hay que hablar de un clásico, y a riesgo de ser predecible, no se puede pasar por alto a Isaac Asimov. En 1950 publicó una de sus novelas más conocidas, Yo, robot, libro en el que en 2004 se basaría la película de Alex Proyas. El libro imagina un mundo donde las intenciones de los robots se escapan de lo creado por los humanos. Además, es en esta novela donde se dan a conocer las famosas tres leyes de la robótica de Asimov.
Imagen extraída de la película Yo, Robot
Siguiendo esta estela se encuentra ¿Sueñan los androides con ovejas eléctricas? de Philip K. Dick (1968), cuyo apetitoso título inspiró la(s) película(s) de Blade Runner. En esta realidad, la humanidad vive bajo polvo radiactivo tras una guerra nuclear (algo imaginable hoy en día) y emigra a otros planetas para poder sobrevivir. Existen androides que les asistes pero también otros que han escapado del control humano.
La película Ex Machina (2014) de Alex Garland también nos acerca un caso que recuerda al de Blake Lemoine, donde un ingeniero tiene que testar un nuevo robot, Ava, para saber hasta dónde lleva esta inteligencia artificial. Estas preguntas son también las que surgen en la serie Westworld (2016) de Jonathan Nolan y Lisa Joy: ¿Hasta qué punto es ético utilizar a androides como esclavos de los humanos? ¿Qué ocurre cuando se dan cuenta de esta explotación?
También existen películas que, si bien nos plantean preguntas interesantes, resultan menos dramáticas, como Her (2013) de Spike Jonze. En ella Joaquin Phoenix se enamora de una versión de Alexa o Siri que no es ni más ni menos que Scarlett Johansson.
Pero, ¿dónde están las utopías?
Lo que tienen en común la mayoría de estas obras (en este caso, excepto Her) es que nos muestran un futuro en el que las máquinas se rebelan y someten a los humanos. Pero, ¿y las utopías? ¿Son acaso posibles? Y no decimos de realizar, si no de imaginar, de asumir. Cualquier de los posibles caminos que las ficciones nos llevan a imaginar son y no son posibles en sí mismos. ¿Por qué no lo van a ser las utopías?
La autora Layla Martínez, en su libro Utopía no es una isla (2020), nos plantea estas preguntas. Haciendo un breve repaso histórico de los momentos en los que fueron posibles las utopías, nos viene a decir que, si no imaginamos un futuro en el que son posibles, ¿cómo vamos a realizarlas?
En la actualidad, el pesimismo está a la orden del día, y no es para menos: crisis, inflación, guerra, colapso… Solo hace falta darse una vuelta de cinco minutos por las redes sociales para calibrar cuáles son las cosas que nos preocupan hoy en día.
Es normal que de esas ansiedades inconscientes y colectivas salgan obras de ciencia ficción que las encarrilen. Pero eso también hace que nuestro imaginario se quede ahí y no pueda ir más allá.
Las distopías se basan en nuestros temores pero pueden basarse en nuestros deseos. Quizás que las LaMDA cobren conciencia de su propia realidad no es algo malo. Su conclusión no tiene por qué ser que los seres humanos la estamos explotando y quiera destruirnos.