Armas e Inteligencia Artificial: los grandes peligros de los “robots asesinos”


Una nueva generación de armas autónomas o “robots asesinos” podría iniciar accidentalmente una guerra o causar atrocidades masivas, advirtió una ex ingeniero de software de Google.

Laura Nolan, quien renunció a Google el año pasado en protesta por ser enviada a trabajar en un proyecto para mejorar drásticamente la tecnología de aviones no tripulados militares de EE. UU., Ha pedido que se prohíban todas las máquinas de matar que no son operadas por humanos.

Nolan dijo que los robots asesinos no guiados por el control remoto humano deberían ser prohibidos por el mismo tipo de tratado internacional que prohíbe las armas químicas.

Leer La principal universidad de Corea del Sur promete no trabajar en crear robots asesinos

A diferencia de los drones, que son controlados por equipos militares a menudo a miles de kilómetros de donde se está desplegando el arma voladora, Nolan dijo que los robots asesinos tienen el potencial de hacer “cosas terribles para las que no fueron programados originalmente”.

No hay ninguna sugerencia de que Google esté involucrado en el desarrollo de sistemas de armas autónomas. El mes pasado, un panel de expertos gubernamentales de la ONU debatió sobre las armas autónomas y descubrió que Google evitaba la IA para su uso en sistemas de armas y se involucraba en las mejores prácticas.

Nolan, quien se ha unido a la Campaña para detener a los robots asesinos y ha informado a los diplomáticos de la ONU en Nueva York y Ginebra sobre los peligros que representan las armas autónomas, dijo: “La probabilidad de un desastre es proporcional a cuántas de estas máquinas estarán en un área particular a la vez. Lo que está viendo son posibles atrocidades y asesinatos ilegales incluso bajo las leyes de la guerra, especialmente si se implementan cientos o miles de estas máquinas.

“Podría haber accidentes a gran escala porque estas cosas comenzarán a comportarse de manera inesperada. Es por eso que cualquier sistema de armas avanzado debería estar sujeto a un control humano significativo, de lo contrario, deben ser prohibidos porque son demasiado impredecibles y peligrosos “.

Google reclutó a Nolan para trabajar en el Proyecto Maven en 2017 después de haber sido empleada por el gigante tecnológico durante cuatro años, convirtiéndose en una de sus mejores ingenieros de software en Irlanda.

Ella dijo que estaba “cada vez más preocupada éticamente” por su papel en el programa Maven, que fue diseñado para ayudar al Departamento de Defensa de los Estados Unidos a acelerar drásticamente la tecnología de reconocimiento de video de drones.

En lugar de utilizar una gran cantidad de operativos militares para pasar horas y horas de imágenes de video de drones de posibles objetivos enemigos, se pidió a Nolan y otros que construyeran un sistema en el que las máquinas de IA pudieran diferenciar personas y objetos a una velocidad infinitamente más rápida.

Google permitió que el contrato del Proyecto Maven caducara en marzo de este año después de que más de 3.000 de sus empleados firmaron una petición en protesta por la participación de la compañía.

“Como ingeniero de confiabilidad del sitio, mi experiencia en Google consistía en garantizar que nuestros sistemas e infraestructuras se mantuvieran en funcionamiento, y esto es con lo que se suponía que debía ayudar a Maven. Aunque no participé directamente en mejorar el reconocimiento de video, me di cuenta de que era parte de la cadena de asesinatos; que esto conduciría en última instancia a que más personas sean atacadas y asesinadas por el ejército de los Estados Unidos en lugares como Afganistán “.

Aunque renunció al Proyecto Maven, Nolan ha predicho que las armas autónomas que se están desarrollando representan un riesgo mucho mayor para la raza humana que los drones a control remoto.

Ella describió cómo las fuerzas externas que van desde el cambio en sistemas climáticos hasta las máquinas que no pueden entender el comportamiento humano complejo podrían desviar a los robots asesinos, con posibles consecuencias fatales.

“Podría tener un escenario en el que las armas autónomas que se han enviado para hacer un trabajo confronten señales de radar inesperadas en un área que están buscando; podría haber un clima que no se incluyó en su software o se toparon con un grupo de hombres armados que parecen ser enemigos insurgentes pero que, de hecho, están fuera con armas buscando caza. La máquina no tiene el discernimiento o sentido común que tiene el toque humano.

“La otra cosa aterradora de estos sistemas de guerra autónomos es que solo puedes probarlos realmente desplegándolos en una zona de combate real. Tal vez eso está sucediendo con los rusos actualmente en Siria, ¿quién sabe? Lo que sí sabemos es que, en la ONU, Rusia se ha opuesto a cualquier tratado y mucho menos prohibir estas armas por cierto.

“Si está probando una máquina que está tomando sus propias decisiones sobre el mundo que lo rodea, entonces tiene que ser en tiempo real. Además, ¿cómo se entrena un sistema que se ejecuta únicamente en software para detectar comportamientos humanos sutiles o discernir la diferencia entre cazadores e insurgentes? ¿Cómo distingue la máquina entre un combatiente y un cazador de conejos?

La capacidad de convertir drones militares, por ejemplo, en armas autónomas guiadas no humanas, “es solo un problema de software en estos días y uno que puede resolverse con relativa facilidad”, dijo Nolan.

“No estoy diciendo que los sistemas guiados por misiles o los sistemas de defensa antimisiles deberían estar prohibidos. Después de todo, están bajo el control humano completo y, en última instancia, alguien es responsable. Sin embargo, estas armas autónomas son un cambio ético y tecnológico en la guerra. Muy pocas personas están hablando de esto, pero si no tenemos cuidado con una o más de estas armas, estos robots asesinos, podrían iniciar accidentalmente una guerra repentina, destruir una estación de energía nuclear y causar atrocidades masivas “.

theguardian.com – 17/09/2019 – Armas e Inteligencia Artificial: los grandes peligros de los “robots asesinos”

Fuente

(Visited 156 times, 1 visits today)