El reconocimiento facial de Amazon ahora puede detectar ‘miedo’ en tu rostro.


Amazon puede decir cuándo tienes miedo.

En una publicación de blog del lunes, Amazon anunció que su software facial Rekognition ha agregado una nueva emoción que puede detectar: miedo, además de feliz, triste, enojado, sorprendido, disgustado, tranquilo y confundido.

La compañía también escribió que ha mejorado la precisión de la identificación de género y la estimación del rango de edad.

El controvertido software de detección facial ha sido condenado por activistas de la privacidad y los derechos digitales y legisladores, que se oponen a la comercialización de Amazon de Rekognition a los departamentos de policía y agencias gubernamentales como Inmigración y Aduanas.

“Amazon matará a alguien al comercializar imprudentemente esta tecnología de vigilancia peligrosa e invasiva a los gobiernos”, dijo a Fox News por correo electrónico Evan Greer, subdirector de Fight for the Future. “El reconocimiento facial ya automatiza y exacerba el abuso, el perfil y la discriminación de la policía. Ahora Amazon nos está encaminando hacia un camino en el que los agentes del gobierno armado podrían tomar decisiones en una fracción de segundo con base en el frío testimonio de un algoritmo defectuoso”.

Una prueba reciente realizada por la American Civil Liberties Union (ACLU) del software de reconocimiento facial de Amazon descubrió que falló al “detectar” a  26 legisladores estatales de California en un grupo de 25.000 fotografías de personas arrestadas. Fueron más del 20% de fallas.

Durante una conferencia de prensa el martes que anunció el estudio, el asambleísta de California Phil Ting dijo que la prueba demuestra que el software no debe ser ampliamente utilizado. Ting, que es chino-estadounidense, es uno de los legisladores que fue identificado falsamente. Ting está copatrocinando un proyecto de ley para prohibir el uso de la tecnología de reconocimiento facial en las cámaras de la policía en California.

Una prueba similar de Rekognition en junio de 2018 encontró que el software etiquetó erróneamente a 28 miembros del Congreso como sospechosos, el 40 por ciento de los cuales eran personas de color.

Ting explicó: “Si bien podemos reírnos de eso como legisladores, no es una cuestión de risa si eres una persona que está tratando de conseguir un trabajo, si eres una persona que intenta obtener un hogar, si eres acusado falsamente de un arresto. “

Amazon ha dicho anteriormente que alienta a las agencias de aplicación de la ley a usar calificaciones de confianza del 99 por ciento para las aplicaciones de seguridad pública de la tecnología.

“Cuando se usa el reconocimiento facial para identificar a las personas de interés en una investigación, la policía debe usar el umbral de confianza recomendado del 99 por ciento, y solo usar esas predicciones como un elemento de la investigación (no el único determinante)”, dijo la compañía en un blog Publicar a principios de este año.

Sin embargo, activistas y expertos en tecnología han dicho que en escenarios del mundo real, esa guía del 99 por ciento no se sigue necesariamente.

“Si te acusan falsamente de un arresto, ¿qué sucede?”, Dijo Ting en la conferencia de prensa. “Podría afectar su capacidad de conseguir empleo, impacta absolutamente su capacidad de obtener vivienda. Hay personas reales que podrían tener impactos reales”.

Fox – 14/08/2019 – El reconocimiento facial de Amazon ahora puede detectar ‘miedo’ en tu rostro

Fuente

(Visited 125 times, 1 visits today)