La revisión de Digital Republic por Jamie Susskind: cómo domar a la gran tecnología | Computadoras y netbooks

Hubo un tiempo en que Facebook era una democracia. Parpadea y te lo habrías perdido, pero en diciembre de 2012, como parte de un movimiento anunciado tres años antes por Mark Zuckerberg, la compañía reveló nuevos términos y condiciones que quería imponer a los usuarios. Se les pidió que votaran si deberían promulgarse, sí o no. Los votantes fueron bastante claros: el 88 % dijo que no, que los nuevos términos no eran aceptables. Fue un triunfo del poder popular.

Excepto que Zuckerberg había impuesto una condición previa: la decisión solo sería vinculante si al menos el 30% de todos los usuarios participaran en ella. Esto habría requerido votos de alrededor de 300 millones de los aproximadamente mil millones de usuarios que tenía la plataforma en ese momento (desde entonces se ha triplicado). Pero participaron poco más de 650.000. El rey Zuckerberg dijo que los días de la democracia habían terminado y que en el futuro, Facebook -que en realidad significa Zuckerberg, porque posee la mayoría de las acciones con derecho a voto- decidiría lo que suceda, sin hacer referencia a la opinión de los usuarios.

Desde entonces, la compañía ha sido acusada de ayudar al genocidio rohingya en Myanmar, la difusión de información falsa en Filipinas en 2016 y las elecciones estadounidenses y el referéndum Brexit, arrestando a extremistas de derecha violentos que luego mataron en los Estados Unidos, por no sofocando la teoría de la conspiración de QAnon y, más recientemente, por ayudar a fomentar la insurgencia estadounidense de enero de 2021.

La única opción que no se ha probado realmente es la que se rechazó en 2012: dejar que los usuarios decidan

Por supuesto, los términos y condiciones de 2012 probablemente no condujeron a estos resultados. Asimismo, dejar a Facebook a su suerte no ha “ayudado” a prevenirlos. En 2016, un memorando interno de uno de sus ejecutivos, Andrew Bosworth, sugirió que tales daños colaterales eran tolerables: “Conectamos a las personas. Puede ser bueno si lo hacen positivo. Tal vez alguien encuentre el amor. Tal vez incluso salve la vida de alguien a punto de suicidarse… Puede ser malo si lo hacen negativo. Tal vez cueste una vida exponer a alguien a los matones. Tal vez alguien muera en un ataque terrorista coordinado contra nuestras herramientas… [but] cualquier cosa que nos permita conectar a más personas con más frecuencia es buena de facto.

«Tal vez» alguien muera en un ataque terrorista coordinado contra sus herramientas, pero en general, ¿lo que estamos haciendo está bien? Aunque Zuckerberg se distanció a sí mismo y a Facebook de los comentarios, no es el tipo de lenguaje que esperaría escuchar de, por ejemplo, un ejecutivo de una planta de energía nuclear. Entonces, ¿por qué deberíamos aceptarlo de los altos ejecutivos de empresas con antecedentes desfavorables? No sorprende, entonces, que crezca el clamor por una mayor regulación de las grandes empresas tecnológicas como Facebook, Google (especialmente YouTube), Twitter, Instagram y la floreciente TikTok, que ya cuenta con más de mil millones de usuarios en todo el mundo.

A este alboroto llega Jamie Susskind, un abogado británico que argumenta que necesitamos una «república digital» para proteger a la sociedad del daño indiscriminado de estas empresas y proporcionar un marco (legal, ético, moral) sobre cómo debemos observarlas ahora y en el futuro.

Susskind argumenta que nuestro énfasis actual en el «individualismo de mercado» (donde los individuos eligen las plataformas con las que interactúan y, por lo tanto, determinan cuáles tienen éxito o fracasan) ha permitido a estas empresas crear feudos. Lo que necesitamos, dice, es más responsabilidad, lo que significa que deberíamos tener más control sobre lo que hacen las empresas. Sería una verdadera república ciudadana; en lugar de depender de la masa incoherente de individuos, un enfoque colectivo en la responsabilidad forzaría la rendición de cuentas y eliminaría el poder no ganado.

La La ‘Sala de Guerra’ de Facebook monitorea las elecciones de Brasil de 2018. Fotografía: Bloomberg/Getty Images

La gran tecnología parece un espacio donde debería ser fácil encontrar soluciones. ¿Las empresas están vendiendo datos sin permiso? (La gran tecnología no lo hace, pero hay un próspero ecosistema publicitario que sí lo hace). ¿Discriminan injustamente sus algoritmos en función de la raza, el género o la ubicación? ¿Están echando a la gente de sus plataformas sin ningún motivo? ¿Están moderando injustamente el contenido? Entonces tenemos un casus belli para alegar y corregir.

¿OK, pero como? El problema al que nos enfrentamos Susskind y nosotros es que hay tres opciones para tratar con estas empresas. ¿Déjalos en paz? No funcionó. ¿Aprobar leyes para controlarlos? Pero nuestros sistemas políticos luchan por elaborar leyes sensatas de manera oportuna. ¿Crear reguladores tecnocráticos para monitorearlos y controlarlos cuando se desvían? Pero estos son susceptibles de «captura regulatoria», donde se sienten demasiado cómodos con sus acusaciones. Ninguno es completamente satisfactorio. Y luchamos contra una hidra; Tan pronto como la política en un área parece concretarse (p. ej., información errónea sobre vacunas), aparecen otras dos (p. ej., reconocimiento facial y aprendizaje automático).

Susskind sugiere probar ‘mini-públicos’ en su lugar, la mayoría de las veces en forma de ‘asambleas de ciudadanos’, donde se reúne un grupo pequeño pero representativo de personas y se les da una visión experta de una elección difícil de hacer, después de lo cual crean opciones de política. Taiwán y Austria las utilizan, y en Irlanda han ayudado a formular las preguntas en los referéndums sobre el matrimonio entre personas del mismo sexo y el aborto.

Lo que no reconoce es que esto solo retrasa el problema. Tras la deliberación de los minipúblicos, se vuelve a las opciones iniciales: no hacer nada, legislar o regular.

Decidir entre estos enfoques requeriría un examen muy detallado de cómo operan estas empresas y qué efectos podrían tener estos enfoques. Aquí no entendemos eso. Una gran sorpresa sobre el libro es la longitud de los capítulos, o la falta de ellos. Hay 41 (incluyendo una introducción y una conclusión) en 301 páginas, y entre cada una de las 10 “partes” del libro hay una página en blanco. Por lo tanto, cada capítulo tiene solo unas pocas páginas, el equivalente literario de esos mini-bares Mars descritos de manera exasperante como «tamaño divertido».

Pero muchos de estos temas merecen más que unos bocados; son mucho más sustanciosos y más complicados. ¿Cómo define exactamente las cuentas «bot»? ¿Son siempre malas? ¿Debería una organización externa poder revertir la decisión de una empresa de eliminar una cuenta por lo que considera un comportamiento indeseable? Si una empresa depende de un algoritmo para sus ingresos, ¿hasta qué punto el estado (o la república) debería poder interferir en su operación, si no viola las leyes contra la discriminación? Tenga en cuenta que los algoritmos de Facebook en Myanmar, Filipinas y los Estados Unidos antes del levantamiento de 2021 no hicieron nada ilegal. (La denunciante de Facebook, Frances Haugen, dijo recientemente que solo unas 200 personas en todo el mundo entienden cómo su algoritmo de News Feed elige qué mostrarle). Entonces, ¿qué queremos que Facebook deje de hacer o comience a hacer? La respuesta correcta, en este caso, es “empezar a moderar el contenido de forma más agresiva”; en cada caso, muy pocos humanos han tenido la tarea de evitar que las mentiras incendiarias se salgan de control. Definir cuántos moderadores es el número correcto es un problema complicado en sí mismo.

Todos estos dilemas están lejos de ser divertidos, e incluso si tuviéramos respuestas claras, todavía habría barreras estructurales para la implementación, lo que a menudo nos afecta a nosotros, los usuarios. “La verdad es que las personas aún se están quitando demasiadas de sus protecciones”, escribe Susskind, señalando con qué facilidad seleccionamos “Acepto” con desdén, renunciando a nuestros derechos. Bien, pero ¿cuál es la alternativa? El régimen de protección de datos de la UE significa que tenemos que dar un «consentimiento informado» y, aunque la disidencia desinformada sería ideal (para que nadie obtenga nuestros datos), hay demasiado dinero en nuestra contra para convertirlo en el estándar. Así que marcamos casillas. También hubiera sido bueno escuchar a expertos en el campo como Haugen, o cualquier persona con experiencia directa que pudiera señalar soluciones a algunos de los problemas. (Ellos también tienden a luchar para encontrarlos, lo que no da ninguna esperanza). Las preguntas difíciles permanecen abiertas; nada está realmente resuelto. “Esta es una redacción deliberadamente amplia”, dice Susskind sobre su recomendación sobre cómo se deben regular los algoritmos.

Nos quedamos con la sospecha furtiva de que estos problemas podrían simplemente no tener solución. La única opción que no se ha probado realmente es la que se rechazó en 2012: dejar que los usuarios decidan. No sería difícil para los sitios hacer que la votación sea obligatoria y permitir que nuestras decisiones sean públicas. Zuckerberg podría no estar contento con eso. Pero obtendría un voto: solo uno, como todos los demás. Realmente podría crear una república digital para todos nosotros.

Charles Arthur es el autor de Social Warming: How Social Media Polarises Us All. The Digital Republic: On Freedom and Democracy in the 21st Century de Jamie Susskind es una publicación de Bloomsbury (£25). Para apoyar a libromundo y The Observer, solicite su copia en guardianbookshop.com. Se pueden aplicar cargos de envío.

Deja un comentario