10/07/2023

El reconocimiento facial y los sistemas de IA en el integrados riesgos y beneficios

I.- Introducción.

Los últimos meses, consecuencia de la eclosión popular de la Inteligencia Artificial (“IA”) llamada “ChatGPT”, de gran popularidad en periódicos, revistas, radios y televisiones, se ha puesto de relieve que la IA está omnipresente en la sociedad actual. Y, como no podía ser menos, también es cada vez más popular en la tecnología de Reconocimiento Facial (“TRF”).

Todo avance tecnológico, desde la creación de las herramientas con sílex, será buena o mala, según el uso que se haga de ella, cazar para comer o matar al prójimo. Lo mismo ocurre con la TRF, si la misma se utiliza de forma responsable, ofrecerá importantes beneficios a la sociedad y al ser humano. Sin embargo, también puede ser extremadamente intrusiva, proporcionar resultados sesgados y erosionar los derechos humanos, incluido el derecho a participar libremente, sin vigilancia, en la vida misma.

I.1.- ¿Qué es y cómo funciona, la Tecnología de Reconocimiento Facial?

La TRF utiliza datos faciales biométricos de alta sensibilidad para identificar y verificar a una persona. La TRF puede considerarse una huella dactilar facial. El reconocimiento facial (RF) es el proceso de identificación de un rostro a partir de una imagen digital o un vídeo.

La TRF puede aplicarse en tiempo real o en imágenes estáticas.

La TRF puede utilizarse para confirmar la identidad de una persona conocida o para identificar a una persona desconocida.

La TRF puede utilizarse con fines de verificación, identificación y categorización/caracterización.

Los sistemas TRF se dividen en dos categorías:

  • Los utilizados para verificar la identidad de una persona (“one to one”): Un sistema one to one compara la imagen de un usuario con varias imágenes de una misma persona para autenticar o verificar la identidad conocida de una persona.

La verificación facial es un sistema de cotejo 1:1, mucho más íntimo y cercano, en el que el rostro de una persona, directamente delante de la cámara, se coteja con el rostro ya asociado con el dispositivo o la cuenta digital en la que se está registrando.

Si el sistema puede ver nuestra cara y predecir que coincide con la cara ya asociada al dispositivo o cuenta, entonces se nos permite iniciar sesión. Si esta coincidencia no se puede verificar, entonces permanecerás bloqueado.

  • Los utilizados para identificar a un individuo (uno a muchos): Un sistema de uno a muchos compara una imagen con una base de datos de rostros diferentes (como una lista de terroristas o una base de datos de fotos de delincuentes) para identificar de forma única a un individuo entre un grupo de personas, a menudo con el fin de identificar a una persona.

El reconocimiento facial es un sistema 1:n, lo que significa que encuentra e identifica a personas a partir de imágenes de cámara que suelen mostrar un gran número de rostros, normalmente sin el conocimiento de esas personas 

I.2.- Asentamiento de la TRF en nuestra sociedad.

La tecnología de reconocimiento facial está cada vez más presente en el mercado y en la sociedad, tanto en el sector privado como público. Se tiende a un uso más generalizado de la TRF: Iphone, conductores de Uber, repartidores de Amazon, asistencia domiciliaria, programas y plataformas de entrevistas, controles fronterizos, renovación de pasaportes, etc.

 I.3.- Virtudes de la Tecnología de Reconocimiento Facial.

Como toda nueva tecnología, los usos de la tecnología de reconocimiento facial van a beneficiar a la sociedad en varios aspectos: pago rápido y seguro en una caja, uso en el ámbito financiero, desbloqueo de teléfonos y ordenadores, etc.

Se están realizando estudios para ayudar a las personas ciegas o con baja visión a comprender e interactuar mejor con el mundo que les rodea. Se podría escanear una habitación e identificar a las personas que han dado su consentimiento para formar parte de su sistema de RF, lo que le permite identificar a esa persona e iniciar una conversación.

Se está trabajando en una aplicación que pretende ayudar a las personas con Alzheimer o enfermedades similares a reconocer a sus amigos y seres queridos.

También puede ser beneficiosa cuando se utiliza para prevenir accidentes laborales, por ejemplo, evitando que los empleados se duerman o no estén atentos.

La RFT se puede utilizar en caso de desaparición de niños o persona vulnerables o en caso de delitos graves.

Ahora bien, el uso de la RFT siempre tiene que llevarse a término respectando la privacidad de todos, bien esencial.

I.4.- Preocupaciones sobre la TRF. Identificación errónea y sesgos algorítmicos.

La mayor preocupación que suscita el uso de la tecnología de reconocimiento facial es la posibilidad de que se produzcan identificaciones erróneas.

La TRF, en este momento, según los estudios, tiene hasta 100 veces más probabilidades de identificar erróneamente a personas negras y asiáticas, que a las caucasicas. Identifica erróneamente a más de una de cada tres mujeres de piel oscura, pero tiene una precisión del 99% en el caso de los hombres blancos. Dependiendo de donde se creen los modelos, EEUU o Asia, los sesgos de los modelos son diferentes.

En el caso de los algoritmos desarrollados en Estados Unidos, los índices de falsos positivos son más elevados entre los asiáticos y los afroamericanos que entre los caucásicos. Las tasas de falsos positivos son más elevadas entre las mujeres que entre los hombres, así como entre los ancianos y los niños. La TRF distingue mejor los rostros masculinos blancos que los rostros negros, morenos e indígenas.

Esa situación nos lleva a la siguiente reflexión: Debemos tener cuidado a la hora de evaluar adecuadamente la aplicación, el desarrollo y la gobernanza de la IA, pues la misma puede tener efectos adversos en los usuarios finales, perpetuar e incluso amplificar la discriminación y los prejuicios contra las comunidades racializadas y las mujeres, y conducir a un uso poco ético de los datos y a violaciones del derecho a la intimidad.

Por supuesto, la TRF basada en IA está avanzando, tratando de limar esas situaciones perjudiciales.

I.5.- Otros peligros y preocupaciones.

Los estudiosos plantean tres preocupaciones añadidas a las anteriores:

  • Los algoritmos sesgados e inexactos refuerzan el racismo sistémico y la elaboración de perfiles raciales;
  • el reconocimiento facial permite la vigilancia masiva, indiscriminada y sin orden judicial; y
  • la falta de regulación, transparencia y rendición de cuentas de las fuerzas del orden y los servicios de inteligencia.

Las personas no siempre son conscientes de que su rostro forma parte de un conjunto de datos utilizado por la TRF. El caso Clearview AI es un ejemplo de esta situación.

Una vez incluida una imagen en los algoritmos de la TRF, resulta prácticamente imposible eliminar la influencia de esa imagen en el algoritmo.

Cada uno de nosotros tiene una cara, que tiene una apariencia propia que varía constantemente. Este principio es un factor importante en el reconocimiento facial, ya que no sólo interviene el envejecimiento natural del rostro, sino también factores como el ángulo, la iluminación o la expresión facial de una persona. La variabilidad intrapersonal provoca muchas variaciones, difíciles de superar cuando se utiliza la TRF.

La supervisión humana puede detectar errores garrafales. Sin embargo, el reconocimiento facial humano no es infalible y, por tanto, también puede introducir errores en el sistema.

Las bases de datos creadas para un fin pueden utilizarse para otros fines sin el conocimiento de la persona o sin una evaluación adecuada de los riesgos asociados a esos otros fines. Existe preocupación por las deficiencias de seguridad y las violaciones de los datos y las bases de datos.

  1. Usos de la TRF y los riesgos que llevan asociados.

Como ya han puesto de relieve varios gobiernos e instituciones, en especial, la Unión Europea, el uso de la TRF por organizaciones y agencias gubernamentales, como la policía, las autoridades transfronterizas y el gobierno en general, es de alto riesgo.

En la actualidad, esta tecnología todavía es poco fiable, y presuponen que las construcciones sociales, como la raza y el género, son legibles por máquinas en el rostro de una persona.

La tecnologías basadas en IA, como Clearview AI, aún no son lo bastante precisas y no deberían utilizarse en situaciones de alto riesgo, en las que están en juego vidas y medios de subsistencia.

II.1.- Uso del reconocimiento facial por las fuerzas policiales.

El principal problema del uso de la TRF por parte de las fuerzas policiales es la falta de transparencia. El público suele enterarse del uso de la tecnología a través de los medios de comunicación, documentos filtrados y solicitudes de libertad de información.

Otra preocupaciones es la identificación errónea, que pudiera dar a que una persona inocente pueda ser detenida, acusada e incluso condenada por un delito que no ha cometido, simplemente por ser identificada por TRF.

Por tanto, las fuerzas policiales deben acoger esta tecnología con cautela y mesura y utilizarla en casos relativamente limitados.

Es esencial que el uso de la TRF siempre este revisada por el ser humano.

El uso de la TRF por la policía puede conducir a una vigilancia masiva.

La TRF por la policía tiene que estar sujeta a considerables revisiones antes de adoptar una decisión.

II.2.- Uso del reconocimiento facial por las autoridades transfronterizas.

El reconocimiento facial se está adoptando, de forma habitual, por las autoridades transfronterizas de todos los países. Te acercas a una pantalla y, mediante escáner de reconocimiento facial, te identificaran. Bueno, mejor dicho, te hacen una evaluación digital de tu perfil y determinarán si eres una amenaza o no y de qué nivel.

Uno de los peligros es que se esté discriminando y elaborando perfiles raciales en la Frontera. Creación de lista de prohibición de entrada. Como ya se dijo anteriormente, la TRF es altamente discriminatoria contra los rostros negros y morenos y que la toma de decisiones algorítmica a menudo se basa en conjuntos de datos sesgados.

II.3.- Uso del reconocimiento facial en espacios públicos.

El uso de la TRF en público viola la privacidad. Incluso, ese uso podría suponer una infracción del derecho de libre movimiento de los ciudadanos. Sería una vigilancia intrusiva e indiscriminada, tanto si se trata de personas que pasean por una plaza pública, como de activistas en una protesta.

II.4.- Uso del reconocimiento facial en el entorno laboral.

La verificación facial se está empezando a utilizar, a nivel mundial, cada vez más en los ámbitos laborales.

Evidentemente, en Europa, para utilizar estos sistemas es necesario el consentimiento y las diferentes autoridades de protección de datos ven con malos ojos el uso indiscriminado y sin la debida justificación de dicha tecnología, pues existen procedimientos menos invasivos de la intimidad para obtener el fin perseguido.

A los trabajadores les preocupan aspectos como cuánto tiempo se almacenan sus rostros, dónde se almacenan y con quién se comparten. En algunos casos, los trabajadores se ven obligados a hacerse fotos una y otra vez para que el sistema los reconozca como coincidentes. En otros casos, se les prohíbe, erróneamente, acceder a su cuenta porque el sistema no puede reconocerlos. En otros casos, los trabajadores se ven obligados a salir del coche en aparcamientos oscuros y agacharse delante de los faros para que el sistema los vea y reconozcan, con suficiente luz.

La TRF no es, hoy en día, lo bastante fiable como para utilizarla en escenarios de alto riesgo como el lugar de trabajo.

II.5.- Uso del reconocimiento facial en los partidos políticos.

En algunos partidos políticos del mundo se utiliza la TRF, lo que supone un riesgo aumentado, contra derechos y libertades propios de la democracia.

Todos los usos expuestos deberían realizarse con la debida cautela, utilizando aquellos otros procedimientos que cumplan los mismos objetivos que provee el reconocimiento facial, pero con sin sus riesgos.

III.- Regulación de la Tecnología del Reconocimiento Facial y la Inteligencia Artificial

Nos encontramos con un aspecto tan espinoso, con muchas derivadas, donde se ve la necesidad, pero también la cautela que hace necesario que la regulación de la TRF sea muy precisa, de nanotecnología, y no de trazo gordo o grueso.

La protección del derecho a la intimidad – protección de datos – es esencial para el bienestar del ser humano, físico y moral.

III.1.- Moratoria, prohibiciones y otra medidas.

Muchos personajes conocidos están abogando en la actualidad por una moratoria de la implantación de la IA

Otras abogan por dicha moratoria hasta que se establezca un marco normativo adecuado y más acorde con el ser humano.

La TRF tiene que ser, además, de fiable, también necesaria y proporcionada a los objetivos legítimos y a las repercusiones de largo alcance que puede tener su uso.

En alguna ciudades de EEUU, se ha prohibido la TRF a nivel público y privado. En Europa esta sometida a varias restricciones.

Otros abogan por que se establezca una regulación de la TRF que proteja los derechos humanos, que prohíba la vigilancia masiva y fomente la transparencia y la rendición de cuentas. Un marco regulador generaría confianza pública en el uso de las TRF.

Con respecto a las prohibiciones, en su gran mayoría se apoya una prohibición total de los usos de vigilancia masiva de la TRF. Por ejemplo, en Europa.

Además de una moratoria o prohibición, algunos estudiosos sugieren adoptar una carta digital de derechos de los ciudadanos que reconozca la inviolabilidad de los datos personales, como los faciales.

III.2.- Guía de privacidad sobre reconocimiento facial para agencias policiales

En general los estudiosos proponen que la legislación contenga las siguientes orientaciones o recomendaciones o principios de obligado cumplimiento a los cuerpos de policía:

  • Antes de utilizar el reconocimiento facial para cualquier fin, los cuerpos policiales deben establecer que están legalmente autorizados a hacerlo. Esto no es un hecho y no puede darse por supuesto.
  • Los cuerpos policiales deben establecer sólidas medidas de rendición de cuentas.
  • Los cuerpos policiales deben garantizar la calidad y exactitud de la información personal utilizada como parte de un sistema de reconocimiento facial para evitar falsos positivos, reducir posibles sesgos y prevenir daños a individuos y grupos.
  • Los cuerpos policiales no deben conservar la información personal más tiempo del necesario.
  • Los cuerpos policiales deben abordar la transparencia y la participación pública.

 

IV.- Necesidad de un Marco legislativo sobre TRF e IA

Dados los beneficios y ventajas de la TRF, se hace necesario configurar un marco normativo completo para las TRF que mitigue las amenazas y riesgos que supone esta tecnología, de modo que las misma sea verdaderamente beneficiosas para la sociedad.

Hasta la fecha, en el marco europeo se regulan los aspectos de la privacidad, protección de datos, y se regularan determinados aspectos de la IA, pero las TRF requieren una regulación meticulosa, teniendo en cuenta todos los elementos y aristas que se envuelven alrededor de la TRF.

La IA se ha de asentar en los siguientes principios, tal y como señala la OCDE: solidez técnica, la responsabilidad, la legalidad y la equidad.

En cuanto al consentimiento, aunque depende del caso de uso, el mismo no debería descartarse como requisito para los datos biométricos inmutables. Resulta fundamental que se notifique adecuadamente y que la persona pueda tomar decisiones sobre cómo se comparte esa información o cómo se recopila.

La futura normativa debe establecer requisitos y obligaciones claros para los desarrolladores, implantadores y usuarios de la TRF en relación con los usos específicos de esta tecnología, incluido el requisito de obtener el consentimiento expreso para la recopilación y el uso de datos biométricos, así como los requisitos de confidencialidad de los datos biométricos, así como la limitación de los fines para evitar la proliferación de funciones".

La citada normativa ha de tener en consideración los derechos humanos.

Se deben establecer zonas prohibidas y normas claras en torno a la emisión de evaluaciones de impacto sobre la privacidad. Se deben valorar las herramientas de vigilancia algorítmica y biométrica a fin de ver su impacto en materia de derechos humanos, su precisión y su sesgo.

Algunos estudiosos sugieren que la tecnología se ha de probar en un "sandbox" neutral.

Debería establecerse la existencia en el proceso de un ser humano, particularmente, a la hora de tomar decisiones sobre las tecnologías de IA, aunque señaló que la intervención humana no resuelve todos los problemas de sesgo.

V.- Conclusión.

La TRF y la IA, en la actualidad, tanto en Europa como el resto del mundo no se encuentra adecuadamente regulada. Solo parcialmente y respectos a algunos aspectos.

Sin una regulación adecuada y precisa, la TRF y otros sistemas de IA podrían causar daños irreparables a las personas.

El uso de la TRF  deber llevarse a cabo de forma responsable, dentro de un marco legislativo adecuado, que proteja los derechos del ser humano.

José Dominguez Leandro
Socio
Digital Law. IP. Privacy.
Corporate/M&A
MARTINEZ ECHEVARRIA ABOGADOS

Compartir esta publicación