Cuidado: En el MIT crean a Norman, la primera inteligencia artificial psicópata del mundo


Este experimento es una llamada de atención al auge de la Inteligencias Artificiales: es posible crear una inteligencia potencialmente peligrosa para los humanos.

ABC – 14/06/2018 – Cuidado: En el MIT crean a Norman, la primera inteligencia artificial psicópata del mundo

En MIT crean a Norman, la primera inteligencia artificial psicópata del mundoLa inteligencia artificial es la nueva salsa que aliña toda la ensalada tecnológica que se cocina estos días. Desde complejos sistemas neuronales que predicen enfermedades como el cáncer, a móviles que aprenden del itinerario al trabajo que todos los días realizan sus dueños, su presencia aumenta de la misma forma que aumentan sus capacidades: de forma exponencial.

Sin embargo, muchas voces se han levantado para alertar sobre las posibles consecuencias de que las máquinas empiecen a pensar por sí mismas. Más allá de las teorías más catastrofistas, en las que sobresale la de que los robots acabarían gobernando a la raza humana (hecho que temen personalidades de la talla de Elon Musk, aunque pueda parecer un broma), muchos apuntan a los peligros que podría suponer estas redes neuronales de autoaprendizaje si se utilizaran de forma equivocada.

Y para probar este punto, investigadores del Instituto Tecnológico de Massachusetts (MIT) entrenaron a una inteligencia artificial con los contenidos menos recomendables de toda la red: los de los foros. En concreto, con la información disponible en los más oscuros recodos de Reddit, esa web de la que surgieron escándalos como la filtración de cientos de fotografías comprometidas de actrices de Hollywood o donde proliferaron las «fake news» que ayudar a llegar a Donald Trump a la Presidencia de los Estados Unidos. Los científicos utilizaron subcategorías que englobaban crímenes, imagenes violentas o contenido perturbador para crear a Norman.

Imágenes sórdidas y trastorno alucinatorio

Bautizado en honor a Norman Bates, el asesino de «Psicosis», esta red neuronal fue sometida a diferentes pruebas psicológicas después de haber sido entrenada en los rincones más sórdidos de Reddit. Las pruebas demostraron que se acercaba a rasgos patológicos humanos, como el trastorno alucinatorio crónico, por lo que sus creadores lo definen como «la primera inteligencia artificial psicópata».

Como antagonista de Norman, los científicos entrenaron a otra inteligencia artificial con imágenes de naturaleza y personas (no muertas). A las dos se las sometió al famoso test de Rorschach, la prueba de las manchas de tinta que sirve para evaluar el estado de ánimo de un paciente. Los resultados fueron aterredarores: donde la inteligencia artificial «buena» veía un par de personas, Norman reconocía a un hombre saltando por una ventana. O donde la tecnología bien entrenada pensaba que había pájaros, Norman percibía un ser humano electrocutado.

Los objetivos del experimento

Pero su nacimiento no responde a una inquietud de ocio de la comunidad científica, sino que busca conocer los peligros de esta tecnología cuando su uso no atiende a buenas razones. «Ha sido donada a la ciencia por el MIT Media Laboratory para el estudio de los peligros de la inteligencia artificial, demostrando cómo las cosas salen mal cuando se utilizan datos sesgados en algoritmos de machine learning», han explicado sus creadores.

En concreto, este experimento demuestra que los datos que se introduzcan son más importantes que el algoritmo, ya que serán la base para que la red neuronal artificial entienda el mundo. Por eso, la información defectuosa o sesgada para este tipo de sistemas pueden afectar de forma importante en el resultado. Y esto es un peligro muy a tener en cuenta en la nueva era del «machine learning».

Fuente

(Visited 101 times, 1 visits today)