La tecnología facial se extiende pese a sus fallos y al miedo de ser vigilado

  15 Octubre 2019    Leído: 1016
La tecnología facial se extiende pese a sus fallos y al miedo de ser vigilado

Las aplicaciones de los sistemas de reconocimiento facial son infinitos pero la invasión a la privacidad empieza a ser un arma de doble filo.

El gobierno británico ha puesto en marcha un sistema de identificación facial para su servicio de verificación de las fotos en los pasaportes a pesar de saber que la tecnología falla en personas de algunas minorías étnicas, en especial de piel muy oscura, como las personas negras o del subcontinente indio.

Algunos usuarios no han tardado en hacer llegar sus quejas al Gobierno británico, al considerar que la nueva herramienta «de alguna forma perpetúa la visión social equivocada de que las personas negras son más peligrosas».

Ante la polémica, las autoridades británicas se han visto obligadas a defender las bondades de este nuevo sistema y han señalado que «durante la investigación de usuarios, el rendimiento general se consideró suficiente para desplegar la herramienta», pese a que reconocieron que «había algunas dificultades en la identificación de las personas con piel muy clara o muy oscura».

«Si el sistema se probó antes de ponerlo en marcha, no entendemos por qué lo lanzaron si claramente representa un problema para personas con diferentes tipos de piel. No es un acto responsable ni justo por parte de las autoridades, hay un claro sesgo racial», aseguraron ayer a ABC desde la Comisión de Igualdad y Derechos Humanos del Reino Unido.

El Ministerio del Interior señaló, por su parte, que su intención era que el proceso fuera simple, aunque ya algunos usuarios han denunciado a través de las redes sociales que es todo lo contrario. Cat Hallam, una trabajadora negra de la Universidad de Keele, descubrió que el servicio sugirió erróneamente que tenía los ojos cerrados y la boca abierta. «Lo que es más desalentador de todo esto es que lo sabían», afirmó Hallam a la revista «New Scientist». Y no parece que su uso vaya a suspenderse mientras se mejora, al menos de momento.

De hecho, el aeropuerto de Gatwick (Londres) ya ha anunciado que se convertirá en el primero de Reino Unido en utilizar cámaras de reconocimiento facial de forma permanente para los controles de identidad antes de que los pasajeros aborden los aviones. La medida -esgrimieron las autoridades- «reducirá los tiempos de espera de los viajeros».

Una vieja disputa
La polémica no es nueva. En Estados Unidos ya muchas voces se han levantado contra el sistema de identificación facial sobre todo por su sesgo étnico. Un ensayo llevado a cabo en julio por el Instituto Nacional de Estándares y Tecnología (NIST, por sus siglas en inglés) demostró que algunos software actuales fallan al analizar rostros de mujeres de piel negra respecto a los de blancas. Facebook o Google, entre otras empresas, han incorporado a muchos de sus servicios sistemas de reconocimiento de rostros. Y han fallado. No son perfectos y, en ocasiones, como sucedió en 2015, se calificaron como «gorilas» a mujeres negras. La razón es que los algoritmos que emplean están «entrenados» a partir de bases de datos que, de por sí, albergan prejuicios y sesgos. Un estudio del MIT concluyó que las aplicaciones identificaban erróneamnete al 35 por ciento de las mujeres con piel oscura.

No es cien por cien seguro
Las dificultades de la tecnología para extraer información de un grupo denso de personas ha provocado que, en más de una ocasión, presente falsos positivos. De hecho, investigadores de la Universidad de Essex se encargaron de supervisar la fiabilidad del proyecto de la Policía metropolitana de Londres. Sus conclusiones dejaron demasiados sinsabores: el software que garantiza la seguridad de la capital londinense falla en un 81 por ciento de las veces al señalar a sospechosos.

«Siempre a toda tecnología le falta perfeccionamiento y es susceptible de mejora. Confiable es, pero es conveniente que exista otro factor de seguridad porque no es 100% seguro», sostiene a este diario Lorenzo Martínez, experto en seguridad informática de Securizame.

Para Juan Luis Rubio, ingeniero y vicerrector de la Universidad a Distancia de Madrid (Udima), es necesario «terminar de mejorar» esta tecnología para obtener resultados más precisos. «Es un proceso muy largo, la identificación de una cara requiere de millones de cálculos. Ha mejorado mucho, pero todavía quedan algunos elementos por resolver dado que existen parámetros que se prestan a confusión», subraya este experto, al tiempo que defiende que «hasta que los algoritmos y la tecnología no estén suficientemente probados es muy arriesgado hacer ensayos a ese nivel».

abc


Etiquetas: tecnologíafacial   ReinoUnido  


Noticias