La gran idea: ¿Deberían los robots hacerse cargo de la lucha contra el crimen? | Libros

La Junta de Supervisores de San Francisco votó recientemente para permitir que su policía despliegue robots equipados con explosivos mortales, solo para dar marcha atrás varias semanas después. En Estados Unidos, la votación ha desatado un acalorado debate sobre la militarización de la policía, pero plantea interrogantes fundamentales para todos nosotros sobre el papel de los robots y la IA en la lucha contra el crimen, sobre cómo se toman las decisiones policiales y, en de hecho, en la finalidad misma de nuestra política criminal. sistemas judiciales. En el Reino Unido, los agentes operan según el principio de «vigilancia por consentimiento» en lugar de por la fuerza. Pero según la Encuesta sobre delincuencia de Inglaterra y Gales de 2020, la confianza pública en la policía ha caído del 62 % en 2017 al 55 %. Una encuesta reciente preguntó a los londinenses si el Met era institucionalmente sexista y racista. Casi dos tercios respondieron «probablemente» o «definitivamente».

Esto quizás no sea sorprendente, dados los casos de alto perfil de delitos cometidos por agentes de policía como Wayne Couzens, quien asesinó a Sarah Everard, y , quien recientemente se declaró culpable de 49 delitos, entre ellos violación y asesinato, agresión sexual.

El nuevo comisionado, Mark Rowley, dijo que ‘tenemos que estar preparados para historias más dolorosas’ y advirtió que se espera que dos o tres oficiales por semana comparezcan ante el tribunal por cargos penales en los próximos meses. Pero, ¿y si el problema con la vigilancia fuera más allá de las llamadas «manzanas podridas», incluso más allá de la cultura y las políticas que permiten que la discriminación florezca sin control? ¿Y si también estuviera incrustado en la forma en que los humanos toman decisiones?

La vigilancia requiere cientos de juicios todos los días, a menudo en condiciones de extrema presión e incertidumbre: a quién y dónde monitorear, qué casos y qué víctimas priorizar, a quién creer y qué pistas de investigación seguir. Como explica Malcolm Gladwell en Blink, estas decisiones rápidas, a menudo descritas como «corazonadas», se basan en nuestras experiencias sociales y emocionales individuales, pero también en los prejuicios que todos hemos interiorizado de la sociedad en general, como el racismo, el sexismo, la homofobia y la transfobia.

Entonces, ¿podría la inteligencia artificial ofrecer un camino más justo y efectivo para la vigilancia en el siglo XXI? En términos generales, existen dos tipos de IA: «IA estrecha», que puede realizar tareas específicas como el reconocimiento de imágenes, y «IA de propósito general», que hace juicios y decisiones mucho más complejos y se extiende a todo tipo de campos. L’IA à usage général repose sur l’apprentissage en profondeur – absorbant d’énormes quantités de données et les utilisant pour ajuster et améliorer continuellement les performances, et a le potentiel de prendre en charge de plus en plus de tâches que les humains effectuent en el trabajo. ChatGPT, un modelo de procesamiento de lenguaje de última generación que tiene la capacidad de escribir trabajos de investigación, artículos e incluso poemas en segundos, es el último ejemplo para capturar la imaginación del público.

AI ya puede filtrar millones de imágenes y analizar grandes cantidades de publicaciones en redes sociales para identificar y localizar a posibles sospechosos. Basándose en otros tipos de datos, también podría ayudar a predecir cuándo y dónde es más probable que ocurra un delito. En casos específicos, podría probar hipótesis y filtrar errores, lo que permitiría a los oficiales concentrarse en las pistas de investigación más corroboradas por la evidencia disponible.

Decisiones más rápidas, más justas y basadas en evidencia por una fracción del costo ciertamente suenan atractivas, pero las primeras investigaciones sugieren la necesidad de precaución. La llamada «vigilancia predictiva» utiliza información histórica para identificar posibles perpetradores y víctimas futuras, pero los estudios han demostrado que los datos de origen para este tipo de modelado pueden estar plagados de ideas preconcebidas, generando, por ejemplo, resultados que clasifican a las personas de color como desproporcionadamente «peligroso» o «sin ley». Un estudio de Rand Corporation de 2016 concluyó que el «mapa de calor» de delitos violentos anticipados de Chicago no logró reducir la violencia armada, pero condujo a más arrestos en vecindarios multirraciales y de bajos ingresos.

Más profundamente, la IA está diseñada para lograr los objetivos que le fijamos. Entonces, como advirtió el profesor Stuart Russell en sus Conferencias Reith de 2021, cualquier tarea debe definirse cuidadosamente dentro de un marco que beneficie a la humanidad para que, como en El aprendiz de brujo, la orden de ir a buscar agua solo resulte en una inundación imparable.

Eventualmente, podemos aprender a eliminar los prejuicios y evitar las consecuencias perversas, pero ¿será eso suficiente? Como ha observado la profesora Batya Friedman de la Facultad de Información de la Universidad de Washington: “La justicia es más que una buena decisión. Es un proceso de seres humanos dándose testimonio unos a otros, reconociéndose unos a otros, realizándose unos a otros, restaurándose unos a otros.

En lugar de debatir qué puede o no puede hacer la IA en el futuro, deberíamos preguntarnos qué queremos de nuestro sistema penal y de justicia, y cómo la IA podría ayudarnos a llegar allí. Es poco probable que nuestras ambiciones se realicen simplemente reemplazando a los oficiales con computadoras, pero piense en lo que podría lograrse en un equipo hombre-máquina, donde cada uno aprende y agrega valor al otro. ¿Qué pasa si sometemos a los seres humanos al mismo escrutinio que colocamos correctamente en la IA, exponiendo nuestros sesgos y suposiciones a un desafío continuo y constructivo? ¿Qué pasaría si la IA pudiera ayudar con tareas repetitivas que requieren muchos recursos, dando a los oficiales de policía lo que el profesor Eric Topol, al escribir sobre la revolución de la IA en la medicina, llamó el «regalo del tiempo»? Esto les permitiría tratar tanto a las víctimas como a los acusados ​​con la dignidad que solo los humanos pueden encarnar y que todos los miembros de la sociedad merecen.

Esto quizás ganaría la confianza y el consentimiento público de los que realmente dependen los servicios policiales.

Jo Callaghan es una estratega centrada en la IA en el lugar de trabajo y autora de la primera novela de misterio In the Blink of an Eye, publicada por Simon & Schuster.

Otras lecturas

Life 3.0: Ser humano en la era de la inteligencia artificial por Max Tegmark (Penguin, £ 10.99)

Blink de Malcolm Gladwell (Penguin, £ 10.99)

La filosofía política de la IA de Mark Coeckelbergh (Polity, £ 16,99)

Deja un comentario