Un estudio del Instituto Tecnológico de Massachusetts (MIT) reveló que un software de reconocimiento facial de Amazon, utilizado por las autoridades estadounidenses en la frontera con México, se desempeña peor a la hora de identificar a mujeres o personas de piel más oscura.
Los investigadores del ente, liderados por Joy Buolamwini, llegaron a esta conclusión después de someter el software Rekognition a una serie de pruebas. En particular, descubrieron que el software no cometió errores a la hora de identificar a los hombres con piel más clara. Sin embargo, confundió mujeres con hombres el 19% de las veces, mientras que su margen de error alcanzó el 31% a la hora de identificar a mujeres de piel más oscura, informa el portal The Verge.
La empresa Amazon negó que el estudio pudiera sugerir algo sobre la precisión de la tecnología. De acuerdo con la compañía, los investigadores no probaron la última versión de Rekognition. Además, en la empresa consideran que la prueba de identificación fue realmente un análisis facial (que detecta expresiones y características como vello) y no una identificación (que hace coincidir caras escaneadas con las fotografías), reporta el medio.
Según el portal Hipertextual, hoy en día el Rekognition es usado por el Servicio de Inmigración y Control de Aduanas de los Estados Unidos (ICE) y ha sido probado en diversos aeropuertos del país. Además, Aduanas y Protección Fronteriza (CBP) está probando esta tecnología en la frontera con México.
Joy Buolamwini busca concienciar a la sociedad sobre el sesgo que hay en el software de reconocimiento facial y obligar a las compañías alrededor del mundo a producir programas más precisos que utilicen sus capacidades éticamente. La investigadora vincula el problema con la así llamada "mirada codificada", informa el portal Business Insider.
"[La mirada codificada] Es la reflexión de prioridades, preferencias y a veces prejuicios de aquellas personas que tienen capacidad para desarrollar las tecnologías", declaró Buolamwini ante el público del Foro Económico Mundial de 2019 en Davos.
Esta investigación no es la única que ha detectado el mal desempeño del software de reconocimiento de Amazon.
En 2018 la Unión Estadounidense por las Libertades Civiles (ACLU, por sus siglas en inglés) condujo una prueba en cuyo transcurso escaneó imágenes de miembros del Congreso. Posteriormente Rekognition hizo coincidir erróneamente estas imágenes con las de los criminales.
Sputniknews, 26.01.2019