Cuando el «solucionismo tecnológico» violenta derechos

La constatación de que el Gobierno de la Ciudad de Buenos Aires solicitó al Registro Nacional de las Personas (ReNaPer) los datos biométricos de más de 7,5 millones de personas, seguida por la denuncia penal con la que el Ejecutivo porteño reaccionó contra el juez que investiga el caso, ofrecen un panorama del orden de prioridades en un tema de alta sensibilidad, como es el uso de tecnologías de vigilancia y control social.

Por Martín Becerra y Carolina Martínez Elebi*

 

Parece un experimento foucaultiano, pero es la más cruda realidad: la noticia de que el Gobierno de la Ciudad Autónoma de Buenos Aires (CABA) buscó los datos biométricos de millones de personas entre 2019 y 2022 excediendo toda la normativa vigente en la materia y con un pretexto que no se corresponde con la escala del volumen de datos recopilados, derivó en reclamos públicos, intervención judicial solicitada por organismos defensores de derechos civiles y una denuncia del Poder Ejecutivo municipal contra el juez interviniente.

Cuando el Gobierno de la CABA excedió con creces el conjunto de 40 mil hombres y mujeres del Sistema de Reconocimiento Facial de Prófugos (SRFP) y solicitó al Registro Nacional de las Personas (ReNaPer) los datos biométricos de más de 7,5 millones de personas, incluidas periodistas, dirigentes políticos y líderes sociales, se encendieron las alarmas de organizaciones defensoras de derechos humanos. ¿Por qué motivo el convenio firmado por el gobierno de Mauricio Macri a cargo del ReNaPer y la administración porteña, y acotado al universo de personas buscadas, fue desbordado en todos sus alcances para almacenar la información sensible del 15% de la población argentina? ¿Qué hizo la gestión encabezada por Horacio Rodríguez Larreta con esa información?

El Centro de Estudios Legales y Sociales (CELS), que junto al Observatorio de Derecho Informático Argentino (ODIA) denunció judicialmente la constitucionalidad y convencionalidad de las normas que implementan el sistema de reconocimiento facial en la CABA, destaca que el material reunido es incorporado a un software de reconocimiento que puede ser utilizado en las 9500 cámaras que están en Ciudad cuyas imágenes llegan al Centro de Monitoreo Urbano del Ministerio de Seguridad y Justicia del gobierno porteño. Todo esto, como se puede suponer, se traduce en negocios y contrataciones que no suelen ponderarse cuando se denuncian como superfluos los gastos de las administraciones públicas.

En virtud de la gravedad del caso, el juez en lo Contencioso Administrativo y Tributario de la Ciudad a cargo del amparo, Roberto Gallardo, constató que la Policía de la Ciudad hizo casi 10 millones de consultas sobre 7,5 millones de personas y allanó el Centro de Monitoreo Urbano, la sede del Ministerio de Seguridad porteño, ordenó periciar los equipos que se utilizaron para procesar la información proveniente del ReNaPer y suspendió el sistema de reconocimiento facial en cuestión.

Como consecuencia, el juez Gallardo fue denunciado penalmente por el ministro de Seguridad de CABA, Marcelo D’Alessandro, en una reacción que, lejos de aclarar, oscurece. Por ello es que varios jueces, defensores públicos y asesores tutelares del Poder Judicial de la Ciudad de Buenos Aires con diferentes perspectivas ideológicas presentaron el 29 de abril una declaración que advierte que “las denuncias penales en este contexto afectan la garantía de independencia, condición indispensable que requiere el desempeño de la magistratura».

La preocupación tiene asidero, ya que la recolección y el cruce de datos biométricos, que por ley deberían estar especialmente protegidos, derivan en abusos, errores con falsos positivos y negativos y en la discriminación por razones étnicas, de género, de color de piel o clase social.

Las imágenes faciales y los registros dactiloscópicos son las más usuales entre las técnicas biométricas para identificar personas. No hay que fantasear con series distópicas como Black Mirror para advertir que los errores en el uso de esos datos, al confundir individuos y por los propios sesgos que conlleva toda base de datos, pueden lesionar gravemente derechos humanos y garantías constitucionales.

El ejemplo de la Ciudad de Buenos Aires dista de ser excepcional: en los últimos años, distintas ciudades del mundo fueron noticia por instalar estas tecnologías para “combatir el delito”, según suelen expresar las autoridades responsables de su implementación. Londres, por ejemplo, fue noticia en su momento, cuando comenzó a implementarlo, pero también cuando se conoció que el sistema de reconocimiento facial fallaba en el 81% de los casos, un número para nada menor. La falta de transparencia en cuanto a la base de datos de rostros utilizada para el entrenamiento de sus algoritmos es otro de los reclamos por parte de organizaciones de derechos humanos.

Por su parte, la ciudad de San Francisco y el estado de California fueron noticia por haber prohibido el uso de estos sistemas, y, en 2020, luego del brutal asesinato de George Floyd por efectivos policiales y del movimiento #BlackLivesMatter, las empresas IBM, Microsoft y Amazon habían dejado de brindar su tecnología de reconocimiento facial a la policía, por los efectos de discriminación racial y étnica inherentes a estos sistemas.

El propio sistema de reconocimiento facial instalado en la Ciudad de Buenos Aires, en abril de 2019, llamado UltraIP de la empresa Danaide SA -según pudo saber la organización ADC a partir de un pedido de acceso a la información pública-, fue noticia recurrente durante sus primeros meses de implementación debido a diversos problemas: falsos positivos o «errores de carga» en la base de datos que, por ejemplo, llevaron a una persona inocente a estar seis días presa. Esto habla, además, de cómo las fuerzas de seguridad que utilizan estos sistemas luego toman decisiones de forma irresponsable y arbitraria respaldándose en lo que indican los algoritmos. A pesar de esto, unos meses después, también había comenzado a usarse en la ciudad de Córdoba: la confianza en que el control social mediado por la detección biométrica será más eficaz no tiene base empírica pero sí buena publicidad y un marketing lubricado por el negocio de las compañías que venden a gobiernos locales, regionales y nacionales sus soluciones llave en mano.

En efecto, las tecnologías de reconocimiento facial son utilizadas para la vigilancia masiva y se usan para compensar la angustia social por la falta de soluciones para los problemas de fondo relacionados con el delito.

Los cuestionamientos al solucionismo tecnológico basado en la biometría son habitualmente desechados ante la alarma pública que provocan crímenes y otros delitos graves. Pero lo cierto es que la interferencia de las tecnologías de vigilancia masiva con derechos humanos como la privacidad, la libertad de expresión, la libertad de reunión y asociación, la no discriminación, y con garantías constitucionales como el debido proceso y la presunción de inocencia merece una reflexión mayor.

El abuso del Gobierno de la Ciudad de Buenos Aires con los registros del ReNaPer corrobora la necesidad de ampliar el foco y poner en la balanza la falta de eficacia cierta de estas tecnologías, así como los atropellos que incentiva por parte de las gestiones que las emplean y que, en este caso, involucran a millones de personas. Que la respuesta de la gestión de gobierno porteño haya sido denunciar penalmente al juez que investiga, en lugar de iniciar los sumarios internos correspondientes, es un indicador de que las prioridades están distorsionadas.

 

Una tecnología de reconocimiento facial funciona a partir del cruce de bases de datos y de algoritmos de reconocimiento de imágenes. Estos algoritmos buscan si una imagen, por ejemplo la de una persona registrada por una cámara mientras espera el subte, coincide con otra imagen almacenada en la base de datos de personas buscadas. En el caso de que hubiera coincidencia, el sistema da la alerta. Es decir que la base de la tecnología es el almacenamiento de datos, la confección de la o las bases de datos (de entrenamiento, de validación y de prueba) y el tratamiento de esos datos. El reconocimiento facial, además, se hace aplicando algoritmos, por lo que el análisis de las imágenes se realiza a través de procesos automatizados que dan un resultado. Teniendo en cuenta, entonces, que el insumo fundamental son los datos, la principal normativa que regula esta tecnología en Argentina es la Ley 25.326 de Protección de Datos Personales, del 2000, que se sancionó siguiendo la normativa europea vigente en ese momento, lo que la llevó a ser considerada una ley “adecuada”. El 25 de mayo de 2016 entró en vigor el Reglamento General de Protección de Datos de la Unión Europea (RGPD o GDPR, por sus siglas en inglés), cuyo cumplimiento comenzó a ser obligatorio dos años después, en mayo de 2018. Esta norma europea estableció nuevos estándares más respetuosos de los derechos de la ciudadanía en el ecosistema digital y sentó así las bases para una actualización regulatoria. En este sentido, una diferencia central entre la ley argentina y el RGPD es que en la normativa europea los datos biométricos, al igual que los datos genéticos, integran la categoría de datos sensibles, que gozan de una mayor protección por ser categorías especiales de datos personales. En la ley local, por otro lado, estos datos forman parte del conjunto general de los datos personales. Esto resulta importante cuando se tiene en cuenta que en el caso de los datos personales que “se recaben para el ejercicio de funciones propias de los poderes del Estado” no es necesario el consentimiento expreso de la persona titular de esos datos, de acuerdo al artículo 5. Este consentimiento sí sería necesario si los datos biométricos estuvieran dentro de la categoría de datos sensibles, al igual que lo están en el RGPD. ¿Pero quién controla y se encarga de garantizar la protección de los datos personales? En Argentina, esa tarea está a cargo de la Dirección Nacional de Protección de Datos Personales (DNPDP) que, aunque en la ley sancionada en el 2000 se había establecido que debía ser un órgano de control que gozara de autonomía funcional y actuara como órgano descentralizado en el ámbito del Ministerio de Justicia y Derechos Humanos de la Nación, finalmente, y a partir de la sanción de la Ley 27.275 de Acceso a la Información Pública, la dirección quedó bajo la órbita de la Agencia de Acceso a la Información Pública que depende de la Jefatura de Gabinete de Ministros de la Nación.

 

 

Martín Becerra es Investigador Principal en el Conicet y Profesor Titular de la Universidad Nacional de Quilmes y de la UBA. Doctor en Ciencias de la Información, trabaja sobre políticas y regulaciones de las tecnologías de la información y de los medios de comunicación. En Twitter es @aracalacana

 

 

 

Carolina Martínez Elebi es licenciada en Ciencias de la Comunicación y se dedica a estudiar el impacto de las tecnologías de la información y la comunicación en la sociedad y los derechos humanos. Es docente universitaria, investigadora, consultora y directora del medio digital DHyTecno. En Twitter es @titayna.