La inteligencia artificial ahora se está utilizando para tomar decisiones sobre vidas e interacciones en el mundo real de manera que presentan riesgos reales para las personas.
Todos fuimos escépticos una vez. No hace mucho tiempo, la sabiduría convencional sostenía que la inteligencia artificial era muy prometedora, pero siempre estaba a unos pocos años de distancia. Hoy sabemos que el futuro ha llegado.
No es tan sorprendente con los autos que (a veces y bajo ciertas condiciones) se manejan solos y el software que supera a los humanos en juegos como el ajedrez. Pero los juegos de mesa, incluso los complicados, están muy lejos del desorden y la incertidumbre de la vida real, y los autos autónomos aún no comparten totalmente el camino con nosotros.
La IA se está utilizando en una sorprendente cantidad de aplicaciones, haciendo juicios sobre el desempeño laboral, la contratación, los préstamos y la justicia penal, entre muchos otros. La mayoría de las personas no son conscientes de los riesgos potenciales en estos juicios. Ellos deberían estarlo. Existe la sensación general de que la tecnología es inherentemente neutral, incluso entre muchos de los que desarrollan soluciones de inteligencia artificial. Pero los desarrolladores de IA toman decisiones y eligen las transacciones que afectan los resultados. Los desarrolladores están incorporando opciones éticas dentro de la tecnología pero sin pensar en sus decisiones en esos términos.
Estos intercambios suelen ser técnicos y sutiles, y las implicaciones posteriores no siempre son obvias en el momento en que se toman las decisiones.
El fatal accidente de Uber en Tempe, Arizona, es un ejemplo ilustrativo que facilita ver cómo sucede.
El sistema de vehículos autónomos en realidad detectó al peatón a tiempo para detenerse, pero los desarrolladores habían ajustado el sistema de frenado de emergencia a favor de no frenar demasiado, equilibrando un intercambio entre la conducción desigual y la seguridad. Los desarrolladores de Uber optaron por la opción más comercialmente viable. Eventualmente, la tecnología de conducción autónoma mejorará hasta un punto que permita tanto la seguridad como la conducción suave, pero ¿pondremos autos autónomos en la carretera antes de que eso suceda? Los intereses lucrativos están presionando mucho para ponerlos en marcha de inmediato.
Los riesgos físicos representan un peligro obvio, pero también ha habido un daño real de los sistemas automatizados de toma de decisiones. La IA, de hecho, tiene el potencial de beneficiar al mundo. Idealmente, atenuamos las desventajas para obtener los beneficios con un daño mínimo.
Un riesgo significativo es que avancemos en el uso de la tecnología de inteligencia artificial a costa de reducir los derechos humanos individuales. Ya estamos viendo que eso suceda. Un ejemplo importante es que el derecho a apelar las decisiones judiciales se debilita cuando se trata de herramientas de inteligencia artificial. En muchos otros casos, las personas ni siquiera saben que la opción de no contratar, promover o otorgarles un préstamo fue informada por un algoritmo estadístico.
El comprador debe tener cuidado
Los compradores de la tecnología están en desventaja cuando saben mucho menos que los vendedores. En su mayor parte, los tomadores de decisiones no están equipados para evaluar sistemas inteligentes. En términos económicos, existe una asimetría de información que coloca a los desarrolladores de IA en una posición más poderosa sobre aquellos que podrían usarla. La naturaleza de la IA es que simplemente confías (o no) en las decisiones que toma. No puede preguntarle a la tecnología por qué decidió algo o si consideró otras alternativas o sugerir hipótesis para explorar variaciones sobre la pregunta que hizo. Dada la confianza actual en la tecnología, las promesas de los proveedores sobre una forma más barata y rápida de hacer el trabajo pueden ser muy atractivas.
Hasta ahora, nosotros como sociedad no hemos tenido una manera de evaluar el valor de los algoritmos frente a los costos que imponen a la sociedad. Ha habido muy poca discusión pública incluso cuando las entidades gubernamentales deciden adoptar nuevas soluciones de IA. Peor que eso, la información sobre los datos utilizados para capacitar al sistema más sus esquemas de ponderación, la selección de modelos y otras elecciones que hacen los proveedores al desarrollar el software se consideran secretos comerciales y, por lo tanto, no están disponibles para discusión.
El uso de herramientas de evaluación de riesgos basadas en datos puede ser útil, especialmente en casos que identifican individuos de bajo riesgo que pueden beneficiarse de la reducción de las penas de prisión. Las sentencias reducidas o suspendidas alivian las tensiones en el sistema penitenciario y también benefician a los individuos, sus familias y comunidades. A pesar de las posibles ventajas, si estas herramientas interfieren con los derechos constitucionales al debido proceso, no valen la pena el riesgo.
La justicia está en el ojo del espectador
Por supuesto, el juicio humano también es parcial. De hecho, las culturas profesionales han tenido que evolucionar para abordarlo. Los jueces, por ejemplo, se esfuerzan por separar sus prejuicios de sus sentencias, y existen procesos para cuestionar la imparcialidad de las decisiones judiciales.
En los Estados Unidos, se aprobó la Ley de Equidad de Vivienda de 1968 para garantizar que los profesionales de bienes raíces realicen sus negocios sin discriminar a los clientes. Las empresas tecnológicas no tienen esa cultura. Las noticias recientes han demostrado todo lo contrario. Para los desarrolladores de IA individuales, el objetivo es obtener los algoritmos correctos con alta precisión para cualquier definición de precisión que asuman en su modelado.
Hace poco escuché un podcast en el que la conversación se preguntaba si hablar sobre el sesgo en la IA no mantenía a las máquinas con un estándar diferente al de los humanos, lo que parecía sugerir que las máquinas estaban en desventaja en una competencia imaginada con los humanos.
Como verdaderos creyentes de la tecnología, el anfitrión y el invitado finalmente concluyeron que una vez que los investigadores de IA hayan resuelto el problema del sesgo de la máquina, tendremos un estándar nuevo y aún mejor para que los humanos lo cumplan, y en ese punto las máquinas pueden enseñar a los humanos cómo evitar sesgos La implicación es que existe una respuesta objetiva, y si bien los humanos hemos luchado por encontrarla, las máquinas pueden mostrarnos el camino. La verdad es que en muchos casos hay nociones contradictorias sobre lo que significa ser justo.