Los humanos no podemos ver lo que graban todas todas las cámaras; las computadoras sí | Letras Libres
artículo no publicado

Los humanos no podemos ver lo que graban todas todas las cámaras; las computadoras sí

El uso de software de análisis de video en las tareas de vigilancia se ha extendido, y la preocupación por las implicaciones que eso puede tener no ha dejado de crecer.

Si miras hacia arriba en la mayoría de las ciudades, no tardarás mucho en encontrar una cámara. Están colocadas en postes de luz, en las puertas de las tiendas y en las esquinas de casi todos los edificios. Están en los tableros de los coches de policía. Aunque ya ni siquiera las notes, sabes que te están filmando constantemente. Pero quizás también asumas que todas esas horas de video están ahí almacenadas en una base de datos y solo se utilizan cuando se comete un delito en el área que vigila la cámara. ¿Cuál ser humano podría mirar todas esas filmaciones?

En realidad, la mayor parte del tiempo, ningún ser humano está mirando esas grabaciones: esa tarea se delega cada vez más al software.
Las computadoras que cuentan con software de análisis de video basado en inteligencia artificial tienen la capacidad de monitorear filmaciones en tiempo real, detectar actividades inusuales e identificar caras entre una multitud. Estas máquinas no se cansan y no reciben un sueldo. Y nada de esto es hipotético. En 2013, el departamento de policía de la ciudad de Nueva York
se asoció con Microsoft para conectar una red de al menos 6,000 cámaras de vigilancia al sistema denominado Domain Awareness System, que puede escanear filmaciones de video de toda la ciudad y detectar señales de actividad sospechosa según los parámetros que programa la policía, tales como la vestimenta o el color de pelo de una persona. En octubre del año pasado, el Servicio de Inmigración y Control de Aduanas de Estados Unidos lanzó una convocatoria de proveedores en busca de un sistema que pudiera escanear videos y buscar “activadores”, como fotografías de las caras. Actualmente, existen startups de análisis de video que están promocionando entre el sector minorista la capacidad de detectar potenciales ladrones mediante el uso de reconocimiento facial o análisis del lenguaje corporal.

Se espera que la demanda por estos servicios aumente. En 2018, se estimaba que el mercado del análisis de video basado en la inteligencia artificial tenía un valor de más de 3,200 millones de dólares, que ascendería a 8,500 millones en los próximos cuatro años, según un estudio de la empresa de investigación de mercado Markets and Markets. “Los videos brindan datos. Los datos son valiosos. Y el valor de los datos de videos está a punto de volverse accesible”, dijo Jay Stanley, analista de políticas sénior de la Unión Americana de Libertades Civiles (ACLU, por sus siglas en inglés), quien escribió un informe publicado a principios de julio sobre las tecnologías de análisis de video y los riesgos que representa su utilización sin mediar políticas para prevenir nuevas formas de vigilancia. Durante décadas, las cámaras de vigilancia han generado más datos de los que se han podido utilizar; por eso los sistemas de análisis de video atraen tanto la atención de la policía y de expertos en minería de datos, que esperan sacar provecho de todas esas horas de video almacenadas sin analizar.

De acuerdo con Stanley, uno de los problemas que esto implica es que algunos de los supuestos usos del análisis de video, como la capacidad de reconocer el estado emocional de una persona, no han sido ampliamente probados y podrían no ser más que patrañas, pero aun así podrían dar lugar a nuevas formas de vigilancia y categorización de personas. Una de las empresas incluidas en el informe es Affectiva, la cual comercializa una variedad de cámaras y sensores diseñados para viajes compartidos y para colocar en vehículos de empresas que brindan transporte privado. Según Affectiva, su producto “mide de forma discreta y en tiempo real las complejidades y sutilezas de los estados emocionales y cognitivos a partir del análisis de las caras y la voz”. Otra de las empresas incluidas, Noldus, sostiene que su software de detección de emociones puede leer hasta seis expresiones faciales distintas y sus respectivos niveles de intensidad; es más, la empresa ofrece un producto para clasificar los estados emocionales de los niños. En 2014, cuando la sede de los Juegos Olímpicos fue Sochi, Rusia, las fuerzas de seguridad utilizaron un sistema de análisis de video en vivo desarrollado por una empresa llamada VibraImage, el cual, según la empresa, podía leer señales de agitación en las caras de la multitud con el objetivo de detectar potenciales amenazas de seguridad. Y si bien en Estados Unidos esta tecnología se encuentra disponible principalmente para usos comerciales –por ejemplo, las marcas podrían utilizarlo para detectar si un cliente reacciona de forma positiva ante una campaña publicitaria–, no es descabellado imaginar que las fuerzas de seguridad busquen servicios de reconocimiento de emociones en algún momento. Sin embargo, la idea de que las emociones se manifiestan en forma de estados determinados y observables que pueden categorizarse y etiquetarse para un rango de personas distintas ha sido cuestionada tanto por psicólogos como por antropólogos, según una investigación publicada el año pasado por AI Now Institute.

Incluso cuando los usos propuestos para estas tecnologías de análisis de video están ampliamente probados, eso no significa que funcionen. Uno de los usos más populares del análisis de video es la capacidad de identificar a una persona a partir de la captura de una imagen en movimiento, lo que comúnmente se conoce como “reconocimiento facial”. Amazon ha estado trabajando en conjunto con el FBI y varios departamentos de policía de todo el país para implementar su software de reconocimiento facial, Rekognition, que, según afirma Amazon, puede “procesar millones de fotos al día” e identificar hasta 100 personas en una sola imagen, lo cual la convierte en una valiosa herramienta para vigilar grandes multitudes, ya sea en protestas, tiendas departamentales repletas de gente o estaciones de metro. El problema con que las fuerzas de seguridad usen esta tecnología es que no funciona tan bien, en especial con las personas con tez más oscura. Según un estudio del MIT publicado este año, el software Rekognition clasificó erróneamente a mujeres con un tono de piel oscuro como hombres en un 31 por ciento de las veces, pero no cometió errores al identificar hombres con un tono de piel claro. La posibilidad de que se cometan injusticias a partir de esto es real: si la policía decidiera aproximarse a una persona basándose en datos obtenidos a partir de un software de reconocimiento facial y el software estuviera cometiendo un error, esto podría dar lugar a un interrogatorio arbitrario o incluso al uso indebido de la fuerza. De acuerdo con una declaración de Amazon al New York Times, la empresa ofrece lineamientos claros sobre la forma en la que las fuerzas de seguridad pueden evaluar posibles falsas correspondencias de imagen y no ha visto que su software se utilice “para violar las libertades civiles de los ciudadanos”.

Si bien las fuerzas de seguridad y las empresas ya están probando el uso de sistemas de análisis de video, Stanley opina que la tecnología no está tan extendida como para que sea demasiado tarde para implementar políticas que restrinjan el uso indebido de dicha tecnología y, en algunos casos, incluso prohíban su uso directamente. Por ejemplo, en mayo, San Francisco aprobó una ley que prohíbe el uso de reconocimiento facial por parte de las fuerzas de seguridad, y en ciudades como Nashville, Oakland y Seattle, las fuerzas deben realizar audiencias públicas antes de adoptar nuevas tecnologías de vigilancia. Estas políticas son prometedoras, pero están lejos de aplicarse de forma generalizada en todo el país.

Según Ángel Díaz, abogado especializado en tecnología y derechos civiles del Centro Brennan para la Justicia, un buen primer paso para regular el uso del análisis de video por parte de las fuerzas de seguridad es exigirles a los departamentos de policía locales y a las entidades gubernamentales que sean transparentes sobre las tecnologías de vigilancia que usan. “Una vez que se ordena la publicación de la información, la gente puede involucrarse y se puede pedir la opinión de expertos y realizar una audiencia pública para debatir sobre cómo funcionan estos sistemas y si queremos implementarlos”, sostuvo Díaz. Según el abogado, una forma de iniciar este diálogo es que las personas soliciten a las oficinas de inspección general de los departamentos de policía que realicen auditorías sobre el uso del análisis de video y de otras tecnologías de vigilancia por parte de las fuerzas locales. Una vez que se conozca con claridad el tipo de tecnologías que se usan, es más fácil establecer otros mecanismos de transparencia, por ejemplo, grupos de trabajo que evalúen los sistemas automatizados adoptados por las entidades gubernamentales de la ciudad en cuestión para garantizar que no estén reproduciendo prejuicios.

Cuando una tecnología ya está en uso, resulta mucho más difícil establecer reglas para restringir ese uso. Por eso, es muy importante que las comunidades a las que les preocupa que se utilicen tecnologías de vigilancia demasiado amplias exijan transparencia y rendición de cuentas. Está claro que ya nos vigilan: la pregunta es si vamos a confiar en las computadoras para que hagan todo el trabajo.

Este artículo es publicado gracias a una colaboración de Letras Libres con Future Tense, un proyecto de Slate, New America, y Arizona State University.

ft logo