En China ocurre el primer caso del uso de la Inteligencia Artificial para control social


Finalmente hay evidencias del uso de la tecnología para vigilar minorías en países autoritarios.

Las autoridades chinas están aprovechando un vasto y secreto sistema de tecnología avanzada de reconocimiento facial para controlar y vigilar a los uigures, una minoría mayoritariamente musulmana, según un nuevo informe.

La tecnología de reconocimiento facial, que está bajo el fuego de los defensores de la justicia racial y los trabajadores de la tecnología en los Estados Unidos, tiene el potencial de permitir la selección fácil y el perfil de las comunidades a través de la lente de la raza y el género.

Basado en entrevistas con cinco personas que tienen conocimiento directo de los sistemas, junto con una revisión de las bases de datos utilizadas por la policía, los documentos de compras gubernamentales y los materiales publicitarios distribuidos por las compañías de inteligencia artificial que hacen los sistemas, The New York Times descubrió el primer ejemplo conocido. de un gobierno que usa intencionalmente inteligencia artificial para el perfil racial.

Los uigures ya habían sido atacados por las autoridades chinas en la región occidental de Xinjiang con herramientas de vigilancia, incluido el seguimiento del ADN de las personas, pero estos sistemas recientemente revelados les permiten a los funcionarios atacar a la minoría mayoritariamente musulmana en hasta 16 provincias y regiones en China.

Según el Times, un grupo de nuevas startups está atendiendo el apetito de vigilancia y control del país autoritario.

“Tome la aplicación más arriesgada de esta tecnología y es muy probable que alguien la intente”, dijo al Times Clare Garvie, asociada en el Centro de Privacidad y Tecnología de Georgetown Law. “Si creas una tecnología que puede clasificar a las personas por una etnia, alguien la usará para reprimir esa etnia”.

El debate en Estados Unidos sobre el uso de la Inteligencia Artificial se ha centrado principalmente en el sesgo de las personas que diseñan la tecnología. Los sistemas internos utilizados por el departamento de recursos humanos de Amazon, por ejemplo, terminaron rechazando básicamente todos los curricula que fueron enviados por mujeres. Los trabajadores de Amazon y algunos legisladores han pedido a la compañía que deje de comercializar y vender su software de inteligencia artificial a los departamentos de policía de los Estados Unidos por temores sobre sesgos raciales y posible uso indebido.

La tecnología de vigilancia que se utiliza en China también es un gran negocio, según el Times, que informa que cuatro de las compañías detrás de la IA tienen un valor de más de $ 1 mil millones. Con el potencial de obtener más ganancias, existe una preocupación entre los defensores de que el tipo de sistemas utilizados en China podría llegar a otros países.

“No creo que sea exagerado tratar esto como una amenaza existencial para la democracia”, dijo al Times Jonathan Frankle, un investigador de inteligencia artificial del Instituto de Tecnología de Massachusetts. “Una vez que un país adopta un modelo en este modo autoritario, utiliza los datos para imponer el pensamiento y las reglas de una manera mucho más profunda de lo que podría haber sido hace 70 años en la Unión Soviética. En ese sentido, esta es una cuestión urgente. En la crisis estamos lentamente sonámonos en nuestro camino “.

BBC – 07/07/2019 – En China ocurre el primer caso del uso de la Inteligencia Artificial para control social

Fuente

(Visited 829 times, 1 visits today)