La gran idea: ¿deberíamos preocuparnos por la inteligencia artificial? | Libros

Desde que Garry Kasparov perdió su segunda partida de ajedrez contra Deep Blue de IBM en 1997, la escritura ha estado en la pared para la humanidad. O a algunos les gusta pensar que sí. Los avances en inteligencia artificial conducirán, según algunas estimaciones, en solo unas pocas décadas, al desarrollo de máquinas súper inteligentes y sensibles. Las películas desde The Terminator hasta The Matrix han descrito esta perspectiva como bastante indeseable. ¿Pero es esto algo más que otro «Project Fear» de ciencia ficción?

Suscríbase a nuestro boletín informativo Inside Saturday para obtener una mirada exclusiva entre bastidores sobre la realización de los artículos más importantes de la revista, así como una lista seleccionada de nuestros aspectos más destacados semanales.

Cierta confusión se debe a dos usos muy diferentes del término inteligencia artificial. El primer significado es esencialmente marketing: todo lo que hace el software de computadora que parece inteligente o útil, como Siri, se supone que usa «IA». El segundo significado, del que el primero toma prestada su brillantez, apunta a un futuro que aún no existe, máquinas con intelectos sobrehumanos. A esto a veces se le llama AGI, por Inteligencia Artificial General.

¿Cómo llegamos allí desde aquí, asumiendo que queremos? La IA moderna utiliza el aprendizaje automático (o aprendizaje profundo): en lugar de programar reglas directamente en la máquina, permitimos que aprenda por sí misma. De esta forma, AlphaZero, la entidad de juegos de ajedrez creada por la firma británica Deepmind (ahora parte de Google), jugó millones de partidos de práctica contra sí misma y luego venció a su principal competidor. Más recientemente, AlphaFold 2 de Deepmind ha sido aclamado como un hito en el campo biológico del «plegamiento de proteínas», o predecir las formas exactas de las estructuras moleculares, lo que podría ayudar a diseñar mejores fármacos.

El aprendizaje automático funciona entrenando a la máquina con grandes cantidades de datos: imágenes para sistemas de reconocimiento de imágenes o terabytes de prosa extraídos de Internet para robots que generan pruebas semi-plausibles, como GPT2. Pero los conjuntos de datos no son simplemente repositorios neutrales de información; a menudo codifican prejuicios humanos de formas imprevistas. Recientemente, el algoritmo de suministro de noticias de Facebook preguntó a los usuarios que habían visto un video de noticias con hombres negros si querían «continuar viendo videos de primates». La llamada «IA» ya se está utilizando en varios estados de EE. UU. Para predecir si los solicitantes de libertad condicional reincidirán, y los críticos dicen que los datos en los que se entrenan los algoritmos reflejan un sesgo histórico en la vigilancia.

La IA real, sugiere Nick Bostrom, podría producir gas nervioso para destruir a sus productores de carne inferiores

Los sistemas computarizados (como los de los pilotos automáticos de los aviones) pueden ser de gran ayuda para los humanos, por lo que las deficiencias de la «IA» existente no son en sí mismas argumentos en contra del principio de diseñar sistemas inteligentes que nos ayuden en áreas como el diagnóstico médico. El problema sociológico más difícil es que la adopción de juicios basados ​​en algoritmos es una forma tentadora de pasar la pelota, de modo que no se culpe a los funcionarios humanos, ya sean jueces, médicos o empresarios tecnológicos. ¿Los robots aceptarán todos los trabajos? Ese mismo encuadre tira la pelota porque la verdadera pregunta es si los gerentes despedirán a todos los humanos.

El problema existencial, mientras tanto, es el siguiente: si las computadoras terminan adquiriendo algún tipo de inteligencia autoconsciente a nivel de Dios, algo que está explícitamente en la declaración de misión de Deepmind, por ejemplo («nuestro objetivo a largo plazo es resolver la inteligencia» y construir un AGI) – ¿Estarán siempre tan ansiosos por servir? Si estamos construyendo algo así de poderoso, es mejor que nos aseguremos de que no sea contraproducente para nosotros. Para aquellos seriamente preocupados por esto, el argumento es que, dado que se trata de un problema potencialmente a nivel de extinción, deberíamos dedicar recursos ahora a combatirlo. El filósofo Nick Bostrom, que dirige el Instituto del Futuro de la Humanidad en la Universidad de Oxford, dice que los humanos que intentan construir IA son «como niños jugando con una bomba», y la perspectiva de maquinaria sensible es una amenaza mayor para la humanidad que el mundo de la calefacción. Su libro de 2014 Superintelligence es fundamental. La IA real, sugiere, podría crear secretamente gas nervioso o nanobots para destruir a sus fabricantes inferiores a base de carne. O simplemente podría mantenernos en un zoológico planetario mientras se ocupa de sus verdaderos asuntos.

La IA no necesitaría ser activamente maliciosa para causar un desastre. Esto queda ilustrado por el famoso «problema de los clips» de Bostrom. Suponga que le pide a la IA que haga sujetapapeles. ¿Qué podría ser más aburrido? Desafortunadamente, se le olvidó decirle cuándo dejar de hacer sujetapapeles. Por lo tanto, convierte toda la materia de la Tierra en clips, después de haber apagado primero el interruptor de parada, ya que dejar que lo apaguen le impediría perseguir su noble objetivo de hacer clips.

Este es un ejemplo del «problema de control» general, el tema del excelente Human Compatible: AI and the Problem of Control del pionero de la inteligencia artificial Stuart Russell, quien sostiene que es imposible especificar completamente un objetivo que hacemos. una máquina superinteligente para evitar malentendidos tan desastrosos. En su vida 3.0: Ser humano en la era de la inteligencia artificial, el físico Max Tegmark, cofundador del Future of Life Institute (es genial tener un instituto del futuro de algo en estos días), enfatiza el problema de la «alineación de valores «- cómo asegurarse de que los valores de la máquina coincidan con los nuestros. Esto también podría ser un problema insoluble, dado que miles de años de filosofía moral no han sido suficientes para que la humanidad se ponga de acuerdo sobre cuáles son realmente «nuestros valores».

Otros observadores, sin embargo, siguen siendo flemáticos. En Novacene, el científico inconformista y teórico de Gaia James Lovelock argumenta que los humanos deberían ser felices si podemos marcar el comienzo de las máquinas inteligentes como el próximo paso lógico en la evolución, y luego retroceder con gracia una vez que nos rendimos. En sus últimos 12 bytes, Jeanette Winterson es refrescantemente optimista, asumiendo que cualquier IA futura al menos estará «desmotivada por la codicia y el acaparamiento de tierras, la búsqueda de estatus y la violencia que caracterizan al Homo sapiens». Como sugirió el científico informático Drew McDermott en un artículo de 1976, quizás después de todo, tengamos menos que temer de la inteligencia artificial que de las tonterías naturales.

Otras lecturas

Compatible con humanos: IA y el problema del control por Stuart Russell (Penguin, £ 10.99)

Life 3.0: el ser humano en la era de la inteligencia artificial por Max Tegmark (Penguin, £ 10.99)

12 bytes: como lo conseguimosre, ¿a dónde podríamos ir ahora? por Jeannette Winterson (Jonathan Cape, £ 16.99)