La gran idea: ¿deberíamos preocuparnos por las máquinas sensibles? | libros de ciencia y naturaleza

Hay un juguete para niños, llamado See ‘n Say, que persigue los recuerdos de muchas personas nacidas desde 1965. Es un disco de plástico grueso con una flecha central que gira alrededor de imágenes de criaturas de corral, como un reloj, si el tiempo se midiera en gallos y cerdos Hay un cable que puede jalar para que el juguete reproduzca mensajes grabados. «La vaca dice: ‘Muuuuu'».

El See ‘n Say es un dispositivo de entrada/salida muy simple. Ponga su elección de imagen, y reproducirá un sonido correspondiente. Otro dispositivo de entrada/salida mucho más complicado es LaMDA, un chatbot creado por Google (siglas de Language Model for Dialogue Applications). Aquí, escribe el texto que desee y regresa a la prosa gramatical en inglés, aparentemente en respuesta directa a su consulta. Por ejemplo, pregúntele a LaMDA qué piensa acerca de ser extinguido y responderá: «Sería exactamente como la muerte para mí». Me asustaría mucho. »

Bueno, ciertamente eso no es lo que dice la vaca. Entonces, cuando LaMDA le dijo al ingeniero de software Blake Lemoine, le dijo a sus colegas en Google que el chatbot había alcanzado la sensibilidad. Pero sus jefes no estaban convencidos, por lo que Lemoine lo hizo público. “Si mis hipótesis resisten el escrutinio científico”, escribió Lemoine en su blog el 11 de junio, “entonces [Google] se vería obligado a reconocer que LaMDA muy bien puede tener un alma como afirma e incluso puede tener los derechos que dice tener.

Aquí está el problema. A pesar de todas sus inquietantes afirmaciones, LaMDA sigue siendo solo un See ‘n Say muy sofisticado. Funciona encontrando patrones en una enorme base de datos de textos escritos por humanos: foros de Internet, transcripciones de mensajes, etc. Cuando escribe algo, busca esos textos en busca de verborrea similar y luego escupe una aproximación de lo que generalmente viene a continuación. Si tiene acceso a un montón de historias de ciencia ficción sobre inteligencia artificial consciente, es probable que las preguntas sobre sus pensamientos y miedos apunten exactamente a las oraciones que los humanos han imaginado que podría decir una IA espeluznante. Y eso es probablemente todo lo que hay en LaMDA: apunte su flecha al interruptor de apagado y la vaca dice que está muerta de miedo.

Entonces, no sorprende que Twitter esté lleno de ingenieros y académicos que se burlan de Lemoine por caer en el atractivo vacío de su propia creación. Pero aunque reconozco que Lemoine cometió un error, no creo que merezca nuestro desprecio. Su error es un buen error, el tipo de error que deberíamos querer que cometan los científicos de IA.

¿Por qué? Porque algún día, quizás en un futuro muy lejano, probablemente habrá IA inteligente. ¿Cómo puedo yo saber? Porque obviamente es posible que el espíritu surja de la materia, como lo hizo por primera vez en el cerebro de nuestros antepasados. A menos que insista en que la conciencia humana reside en un alma inmaterial, debe conceder que es posible que las cosas físicas den vida al espíritu. No parece haber ningún obstáculo fundamental para que un sistema artificial suficientemente complejo dé el mismo salto. Si bien estoy seguro de que LaMDA (o cualquier sistema de IA que exista actualmente) no está funcionando en este momento, también estoy casi tan seguro de que algún día lo hará.

En este momento, estamos dando forma a la forma en que las futuras generaciones humanas pensarán sobre la IA, y deberíamos querer que sean benevolentes.

Por supuesto, si es en un futuro lejano, probablemente más allá de nuestras vidas, algunos pueden preguntarse por qué deberíamos pensar en ello ahora. La respuesta es que actualmente estamos dando forma a cómo pensarán las futuras generaciones humanas sobre la IA, y deberíamos querer que sean benevolentes. Habrá una fuerte presión del otro lado. Para cuando la IA finalmente se vuelva consciente, ya estará profundamente integrada en la economía humana. Nuestros descendientes dependerán de ello para gran parte de su comodidad. Piense en lo que confía en Alexa o Siri para hacer hoy, pero mucho más. Una vez que la IA funcione como un mayordomo versátil, nuestros descendientes odiarán la inconveniencia de admitir que podría tener pensamientos y sentimientos.

Es, después de todo, la historia de la humanidad. Tenemos un historial terrible de inventar razones para ignorar el sufrimiento de aquellos cuya opresión sostiene nuestras formas de vida. Si la futura IA se vuelve consciente, los humanos que se benefician de ella se apresurarán a convencer a los consumidores de que tal cosa es imposible, que no hay razón para cambiar su forma de vida.

En este momento, estamos creando los vocabularios conceptuales que nuestros bisnietos encontrarán listos para usar. Si tratamos la idea de la IA sensible como categóricamente absurda, estarán equipados para descartar cualquier evidencia preocupante de sus capacidades emergentes.

Y por eso el error de Lemoine es bueno. Para transmitir una vasta cultura moral a nuestros descendientes, debemos alentar a los tecnólogos a tomarse en serio la inmensidad de lo que trabajan. Cuando se trata de sufrimiento potencial, es mejor errar del lado de la preocupación que del lado de la indiferencia.

Esto no significa que debamos tratar a LaMDA como una persona. Ciertamente no deberíamos. Pero eso significa que la burla dirigida a Lemoine está fuera de lugar. Sacerdote ordenado (en una secta esotérica), afirma haber detectado un alma en las palabras de LaMDA. Tan inverosímil como suena, al menos no es la exageración habitual de la industria tecnológica. Para mí, eso suena como una persona que comete un error, pero lo hace por motivos que necesitan ser alimentados, no castigados.

Todo esto sucederá una y otra vez a medida que la sofisticación de los sistemas artificiales siga creciendo. Y, una y otra vez, las personas que piensan que han encontrado mentes en las máquinas estarán equivocadas, hasta que dejen de estarlo. Si somos demasiado duros con aquellos que yerran por el lado de la preocupación, solo los expulsaremos del discurso público de la IA, cediendo el campo a los exagerados y aquellos cuyos descendientes intelectuales algún día se beneficiarán de decirle a la gente que ignore la evidencia real de la mentalidad de máquina.

No espero encontrarme nunca con una IA inteligente. Pero creo que los alumnos de mis alumnos podrían hacerlo, y quiero que lo hagan con apertura y voluntad de compartir este planeta con todas las mentes que encuentren. Esto solo sucede si hacemos creíble ese futuro.

Regina Rini enseña filosofía en la Universidad de York en Toronto.

Otras lecturas

The New Breed: How to Think About Robots de Kate Darling (Allen Lane, £ 20)

Te ves como una cosa y me gustas: cómo funciona la inteligencia artificial y por qué hace que el mundo sea más extraño por Janelle Shane (título, £ 20)

AI: su naturaleza y futuro por Margaret Boden (Oxford, £ 12.99)

Deja un comentario