Es el actor clave en la llamada cuarta revolución industrial y ha tenido éxito en campos tan diversos como la medicina, pedagogía y ciencias sociales.

Esta disciplina nació a mediados del siglo pasado, aunque hace tan solo unos años logró sus resultados más valiosos e impresionantes. El éxito fue posible gracias a la combinación del fenómeno grandes datos y aumentar el poder de procesamiento de las computadoras.

El uso de la inteligencia artificial está cada vez más extendido en nuestra vida cotidiana. porque la ocurrencia de casos en los que este tipo de sistema se haya comportado de manera racista o sexistaexiste la necesidad de que la inteligencia artificial sea ética y confiable. Así lo demuestran las Directrices Éticas para la Inteligencia Artificial Fiable de la Unión Europea y la Estrategia Nacional Española sobre Inteligencia Artificial.

Los sistemas de inteligencia artificial más exitosos tienen la desventaja de que en muchos casos no se pueden interpretar. En un contexto en el que se nos pide que confiemos en ellos, surge la pregunta de si este tipo de sistemas son fáciles de engañar. O peor, pregúntanos si lo tienen el poder de engañarnos.

Las máquinas, por su parte, aprenden lo que les enseñamos los humanos.

En los últimos años ha cobrado protagonismo una nueva rama de la inteligencia artificial: la aprendizaje adversario. Los sistemas inteligentes a menudo se utilizan para tomar decisiones importantes que afectan a las personas, por lo que es necesario asegurarse de que no puedan ser engañados fácilmente.

Adversarial Learning trata de prevenir posibles ataques o la introducción de datos falsos que pueden engañar a una máquina pero no a una persona. Son famosos los casos de añadir un ruido mínimo a una imagen que es imperceptible para el ojo humano. Este ruido es suficiente para Algoritmo de Inteligencia Artificial Supongo que es una imagen diferente.

A veces el engaño es tan difícil de creer como en el caso de una impresión 3D de una tortuga catalogada como arma por la propia inteligencia artificial de Google. Es crucial investigar este tipo de imágenes adversarias que pueden engañar a un sistema inteligente. Imagine las terribles consecuencias de que un vehículo autónomo lea mal las señales de tráfico.

Entonces sabemos que la inteligencia artificial puede ser engañada con relativa facilidad. Pero, ¿puede un sistema inteligente engañar a la gente?

Tratan de criarnos a los humanos en la honestidad, pero el engaño y la mentira son parte de nosotros, al igual que algunos animales. Por lo general, mentimos o manipulamos para obtener una ventaja. Incluso algunas plantas como la orquídea Ophrys apifera tienen flores que simulan ser una abeja reina para atraer a los machos de esta especie y ayudar a polinizar las flores.

Las máquinas, por su parte, aprenden lo que les enseñamos los humanos. Un niño de dos años aprende lo que es un perro o un gato porque un adulto se lo enseña. La mayoría de los algoritmos de inteligencia artificial aprenden de la misma manera. El desarrollador te proporciona miles o millones de ejemplos diciéndote, por ejemplo, qué imágenes corresponden a perros y cuáles a gatos.

Cuando usamos el aprendizaje por refuerzo, el engaño lleva a un sistema inteligente a la meta deseadaCuando usamos el aprendizaje por refuerzo, el engaño lleva a un sistema inteligente a la meta deseadaimágenes falsas

Recientemente, ha surgido una nueva técnica de inteligencia artificial llamada aprendizaje por refuerzo, que construye un sistema de recompensas para el algoritmo. Cuando se logra un resultado satisfactorio, este comportamiento se refuerza. Por el contrario, si el resultado está lejos de su objetivo, se descarta este comportamiento.

Los sistemas basados ​​en el aprendizaje por refuerzo tienen mucho éxito, como el sistema alfanull de Deep Mind. Este programa de inteligencia artificial alcanzó niveles sobrehumanos en varios juegos de mesa en tan solo 24 horas, derrotando a otros programas anteriores que habían ganado campeones humanos.

La peculiaridad de este programa era que no entrenaba aprendiendo de juegos humanos, sino compitiendo contra sí mismo una y otra vez. Empezó a jugar completamente al azar hasta que logró desarrollar habilidades. Nunca visto en estos juegos.

Si utilizamos el aprendizaje por refuerzo y engañamos a un sistema inteligente para lograr el objetivo deseado, parece factible que la inteligencia artificial pueda aprender a mentir. Y así sucedió en 2017 cuando dos investigadores de la Universidad Carnegie Mellon lograron que su sistema de inteligencia artificial derrotara a los mejores jugadores del Texas Hold ‘Em sin límite, una de las variantes más complejas del póquer. Para lograr tal hazaña, Libratus, como se le conocía, tuvo que aprender a farolear.

En el póquer, la capacidad de mentir es clave. El jugador necesita que sus oponentes crean que tiene mejores cartas que él o todo lo contrario. Libratus fue capaz de perfeccionar el arte del engaño hasta el punto de que uno de los mejores jugadores del mundo, Dong Kim, pensó que la máquina podía ver sus cartas.

Y alcanzó este hito tecnológico sin que nadie le dijera que mintiera. Sus creadores le proporcionaron la descripción del juego pero no le dijeron cómo jugarlo. Durante meses, Libratus jugó millones de juegos hasta que alcanzó un nivel de juego que desafió a los mejores jugadores humanos.

Ahora que sabemos que la inteligencia artificial puede y ciertamente seguirá mintiendo, debemos prepararnos para el futuro. Cada vez son más importantes las cuestiones éticas que rodean a este tipo de sistemas inteligentes que, nos guste o no, llegaron para quedarse.

Este texto se reproduce de The Conversation bajo una licencia Creative Commons.

Dejar respuesta

Please enter your comment!
Please enter your name here