Desde O.D.I.A. presentamos una acción de amparo en contra del Sistema de Reconocimiento Facial de Prófugos (SRFP) de la Ciudad de Buenos Aires. ¿Querés saber cuáles fueron nuestras inquietudes y argumentos?
Pasaron sólo 22 días desde el anuncio de la intención de implementar el Sistema de Reconocimiento Facial de Prófugos (SRFP) a su puesta en funcionamiento. Una celeridad envidiable y hasta sospechosa. El objetivo de capturar prófugos en CABA es razonable, pero ¿es esta la solución apropiada?
Creemos que en una sociedad democrática debe haber un debate público sobre una implementación tan significativa. “Más tecnología” no puede ser la respuesta automática a cualquier posible conflicto. Es necesario un análisis del impacto que pueda generar y de los derechos que podrían ser vulnerados. Una idea revolucionaria, si viviéramos en el siglo XVIII.
En primer lugar, no se hizo una licitación. Hubo una contratación directa porque se trata de “reposición o complementación de bienes o servicios accesorios que deban necesariamente ser compatibles con los modelos (…) previamente adquiridos” (ley 2095 CABA, art. 28, inc. 6).
Nos preocupa que se considere al circuito de cámaras de vigilancia de la ciudad como un servicio que debe ser obligatoriamente contratado con esta empresa. Técnicamente no encontramos justificación, y mucho menos desde la soberanía.
Ahora bien, respecto de las características del sistema, hemos hecho pedidos de acceso a la información pública y, o bien directamente no obtuvimos respuestas, o las que nos proporcionaron no nos dieron tranquilidad sobre su funcionamiento:
a) ¿Qué sistema de cifrado usa? Dijeron que no podían responder por cuestiones de seguridad. Pero la seguridad informática no puede depender de que el atacante no conozca el algoritmo elegido.
b) ¿Cuáles son los protocolos en caso de detección de vulnerabilidades? SILENCIO. Parece necesario un plan, dado que ningún sistema es invulnerable y que ya han sido atacados otros organismos públicos como la DNM sin notificación a los afectados.
c) ¿Cuál es el algoritmo de reconocimiento facial elegido? El GCBA respondió que estaba protegido por derechos de autor de la empresa contratada. Es decir que el propio gobierno no sabe qué procesamiento recibirán nuestros datos. FANTÁSTICO.
d) ¿Se hizo una auditoría? Solo nos respondieron con el nombre de quien sería el encargado de llevarla a cabo. ¿Debemos entender entonces que se hizo o que no se hizo? MISTERIO.
e) ¿Cuáles son los protocolos de seguridad, privacidad y confidencialidad? ¿Ustedes lo saben? Nosotres tampoco porque no hubo respuesta.
f) ¿Tuvieron en cuenta que los SRF suelen ser probados con bases de datos donde predominan fotos de hombres blancos y cis género y por eso suelen tener mejores resultados en este grupo, lo que somete a las minorías a más errores (efecto discriminador)? Nos respondieron que “se realizaron pruebas sobre una población controlada de personas seleccionadas dentro del equipo de trabajo. Se consideraron personas con características físicas disímiles y con diferentes accesorios que impedían ver completamente sus rostros”.
Esta respuesta da a entender que se comprende la gravedad del problema planteado. Sin embargo, no se ofrecen detalles sobre los resultados más allá de sostener que las pruebas fueron satisfactorias, lo que vuelve imposible una mayor rigurosidad en el análisis.
g) En respuesta a otro pedido de acceso a la información pública no se logró tampoco obtener el código fuente del sistema, ni el conjunto de datos (“dataset”) utilizado para su entrenamiento. Otra vez sopa: esto no permite a la sociedad realizar su propia evaluación del sistema.
Por otra parte, dado que cada vez más las características biométricas se usan como factor de autenticación y al ser este SRF de código cerrado, es imposible saber si nuestros datos van a ser resguardados correctamente. Y, digamos todo, no es tan fácil cambiar las características faciales como si fuera una contraseña.
Pero esto no termina acá, porque la mera existencia de este sistema afecta nuestros derechos. Y también lo explicitamos en el amparo:
- Mostramos como antecedente el caso Halabi en el que se estableció que se necesitaba la intervención de un juez para espiar una conversación privada. Sino todas las conversaciones son sospechosas por defecto, tampoco pueden serlo las personas solo por caminar por la calle.
- Sostenemos que el derecho a reunión se ve afectado cuando existen riesgos de errores en las detecciones con minorías por parte de un sistema automatizado.
- Los datos personales requieren consentimiento informado para su tratamiento. Este consentimiento, entre otras cuestiones, debe indicar quién hará qué con esos datos. No es el caso del SRFP.
- En la Causa Super Mario Bros, de espionaje ilegal, figuran datos obtenidos del Centro de Monitoreo Urbano. Esto, al menos, nos hace sospechar de sus políticas de seguridad.
- Para funcionar el sistema tiene que procesar información biométrica de cualquier persona que circule en la vía pública, incluidos menores de edad. Y eso ya indicamos que es un problema.
- Una investigación del Congreso de EE.UU. dice que “la capacidad de una plataforma para mantener redes sólidas mientras degrada la privacidad del usuario razonablemente puede considerarse equivalente a la decisión de un monopolista de aumentar los precios”. En ese caso el objeto de estudio son las prácticas monopólicas de empresas, pero la conclusión de que una pérdida de privacidad es equivalente a un daño para el ciudadano se mantiene.
- Ningún sistema informático está completamente seguro. Nunca. La existencia del SRFP aumenta el incentivo para un atacante y el riesgo generado es demasiado grande.
En muchas ciudades del mundo se quisieron instalar sistemas semejantes y se decidió en su contra. Por ejemplo, San Francisco (California) y Skelleftea (Suecia).
La acción de amparo será tratada por el Juzgado CATyRC 11 de la CABA, Secretaría 21.
Ahora a esperar. Cuando tengamos novedades les contamos.