La constatación de que el Gobierno de la Ciudad de Buenos Aires solicitó al Registro Nacional de las Personas (ReNaPer) los datos biométricos de más de 7,5 millones de personas, seguida por la denuncia penal con la que el Ejecutivo porteño reaccionó contra el juez que investiga el caso, ofrecen un panorama del orden de prioridades en un tema de alta sensibilidad, como es el uso de tecnologías de vigilancia y control social.
Por Martín Becerra y Carolina Martínez Elebi*
Parece un experimento foucaultiano, pero es la más cruda realidad: la noticia de que el Gobierno de la Ciudad Autónoma de Buenos Aires (CABA) buscó los datos biométricos de millones de personas entre 2019 y 2022 excediendo toda la normativa vigente en la materia y con un pretexto que no se corresponde con la escala del volumen de datos recopilados, derivó en reclamos públicos, intervención judicial solicitada por organismos defensores de derechos civiles y una denuncia del Poder Ejecutivo municipal contra el juez interviniente.
Cuando el Gobierno de la CABA excedió con creces el conjunto de 40 mil hombres y mujeres del Sistema de Reconocimiento Facial de Prófugos (SRFP) y solicitó al Registro Nacional de las Personas (ReNaPer) los datos biométricos de más de 7,5 millones de personas, incluidas periodistas, dirigentes políticos y líderes sociales, se encendieron las alarmas de organizaciones defensoras de derechos humanos. ¿Por qué motivo el convenio firmado por el gobierno de Mauricio Macri a cargo del ReNaPer y la administración porteña, y acotado al universo de personas buscadas, fue desbordado en todos sus alcances para almacenar la información sensible del 15% de la población argentina? ¿Qué hizo la gestión encabezada por Horacio Rodríguez Larreta con esa información?
El Centro de Estudios Legales y Sociales (CELS), que junto al Observatorio de Derecho Informático Argentino (ODIA) denunció judicialmente la constitucionalidad y convencionalidad de las normas que implementan el sistema de reconocimiento facial en la CABA, destaca que el material reunido es incorporado a un software de reconocimiento que puede ser utilizado en las 9500 cámaras que están en Ciudad cuyas imágenes llegan al Centro de Monitoreo Urbano del Ministerio de Seguridad y Justicia del gobierno porteño. Todo esto, como se puede suponer, se traduce en negocios y contrataciones que no suelen ponderarse cuando se denuncian como superfluos los gastos de las administraciones públicas.
En virtud de la gravedad del caso, el juez en lo Contencioso Administrativo y Tributario de la Ciudad a cargo del amparo, Roberto Gallardo, constató que la Policía de la Ciudad hizo casi 10 millones de consultas sobre 7,5 millones de personas y allanó el Centro de Monitoreo Urbano, la sede del Ministerio de Seguridad porteño, ordenó periciar los equipos que se utilizaron para procesar la información proveniente del ReNaPer y suspendió el sistema de reconocimiento facial en cuestión.
Como consecuencia, el juez Gallardo fue denunciado penalmente por el ministro de Seguridad de CABA, Marcelo D’Alessandro, en una reacción que, lejos de aclarar, oscurece. Por ello es que varios jueces, defensores públicos y asesores tutelares del Poder Judicial de la Ciudad de Buenos Aires con diferentes perspectivas ideológicas presentaron el 29 de abril una declaración que advierte que “las denuncias penales en este contexto afectan la garantía de independencia, condición indispensable que requiere el desempeño de la magistratura».
La preocupación tiene asidero, ya que la recolección y el cruce de datos biométricos, que por ley deberían estar especialmente protegidos, derivan en abusos, errores con falsos positivos y negativos y en la discriminación por razones étnicas, de género, de color de piel o clase social.
Las imágenes faciales y los registros dactiloscópicos son las más usuales entre las técnicas biométricas para identificar personas. No hay que fantasear con series distópicas como Black Mirror para advertir que los errores en el uso de esos datos, al confundir individuos y por los propios sesgos que conlleva toda base de datos, pueden lesionar gravemente derechos humanos y garantías constitucionales.
El ejemplo de la Ciudad de Buenos Aires dista de ser excepcional: en los últimos años, distintas ciudades del mundo fueron noticia por instalar estas tecnologías para “combatir el delito”, según suelen expresar las autoridades responsables de su implementación. Londres, por ejemplo, fue noticia en su momento, cuando comenzó a implementarlo, pero también cuando se conoció que el sistema de reconocimiento facial fallaba en el 81% de los casos, un número para nada menor. La falta de transparencia en cuanto a la base de datos de rostros utilizada para el entrenamiento de sus algoritmos es otro de los reclamos por parte de organizaciones de derechos humanos.
Por su parte, la ciudad de San Francisco y el estado de California fueron noticia por haber prohibido el uso de estos sistemas, y, en 2020, luego del brutal asesinato de George Floyd por efectivos policiales y del movimiento #BlackLivesMatter, las empresas IBM, Microsoft y Amazon habían dejado de brindar su tecnología de reconocimiento facial a la policía, por los efectos de discriminación racial y étnica inherentes a estos sistemas.
El propio sistema de reconocimiento facial instalado en la Ciudad de Buenos Aires, en abril de 2019, llamado UltraIP de la empresa Danaide SA -según pudo saber la organización ADC a partir de un pedido de acceso a la información pública-, fue noticia recurrente durante sus primeros meses de implementación debido a diversos problemas: falsos positivos o «errores de carga» en la base de datos que, por ejemplo, llevaron a una persona inocente a estar seis días presa. Esto habla, además, de cómo las fuerzas de seguridad que utilizan estos sistemas luego toman decisiones de forma irresponsable y arbitraria respaldándose en lo que indican los algoritmos. A pesar de esto, unos meses después, también había comenzado a usarse en la ciudad de Córdoba: la confianza en que el control social mediado por la detección biométrica será más eficaz no tiene base empírica pero sí buena publicidad y un marketing lubricado por el negocio de las compañías que venden a gobiernos locales, regionales y nacionales sus soluciones llave en mano.
En efecto, las tecnologías de reconocimiento facial son utilizadas para la vigilancia masiva y se usan para compensar la angustia social por la falta de soluciones para los problemas de fondo relacionados con el delito.
Los cuestionamientos al solucionismo tecnológico basado en la biometría son habitualmente desechados ante la alarma pública que provocan crímenes y otros delitos graves. Pero lo cierto es que la interferencia de las tecnologías de vigilancia masiva con derechos humanos como la privacidad, la libertad de expresión, la libertad de reunión y asociación, la no discriminación, y con garantías constitucionales como el debido proceso y la presunción de inocencia merece una reflexión mayor.
El abuso del Gobierno de la Ciudad de Buenos Aires con los registros del ReNaPer corrobora la necesidad de ampliar el foco y poner en la balanza la falta de eficacia cierta de estas tecnologías, así como los atropellos que incentiva por parte de las gestiones que las emplean y que, en este caso, involucran a millones de personas. Que la respuesta de la gestión de gobierno porteño haya sido denunciar penalmente al juez que investiga, en lugar de iniciar los sumarios internos correspondientes, es un indicador de que las prioridades están distorsionadas.
Martín Becerra es Investigador Principal en el Conicet y Profesor Titular de la Universidad Nacional de Quilmes y de la UBA. Doctor en Ciencias de la Información, trabaja sobre políticas y regulaciones de las tecnologías de la información y de los medios de comunicación. En Twitter es @aracalacana
Carolina Martínez Elebi es licenciada en Ciencias de la Comunicación y se dedica a estudiar el impacto de las tecnologías de la información y la comunicación en la sociedad y los derechos humanos. Es docente universitaria, investigadora, consultora y directora del medio digital DHyTecno. En Twitter es @titayna.
Comentarios recientes