Aspectos negativos del contacto humano con la inteligencia artificial

Redacción

 

Cuando se trata de juegos como el ajedrez, los sistemas de inteligencia artificial han superado con creces a los mejores jugadores del mundo. Estas inteligencias artificiales “sobrehumanas” son competidores inigualables, pero para los humanos colaborar con las inteligencias artificiales quizá nos resulte más difícil que competir contra ellas.

 

En un nuevo estudio, el equipo de Ross Allen, del Laboratorio Lincoln, adscrito al Instituto Tecnológico de Massachusetts (MIT) en Estados Unidos, se propuso averiguar hasta qué punto los humanos podemos jugar al juego de cartas cooperativo conocido como Hanabi con un sistema avanzado de inteligencia artificial entrenado para destacar en el juego, con compañeros de equipo que nunca ha conocido.

 

En los experimentos, los participantes jugaron dos series del juego: una con el sistema de inteligencia artificial como compañero de equipo, y la otra con un sistema solo basado en reglas, concretamente un bot programado de modo manual para jugar de una manera predefinida.

 

Los resultados sorprendieron a los investigadores. Cuando el compañero de equipo era la inteligencia artificial, no solo las puntuaciones no eran mejores que cuando el compañero era el sistema basado en reglas, sino que los humanos odiaban sistemáticamente jugar con su compañero de equipo que era una inteligencia artificial. Lo consideraban imprevisible y poco fiable, y se sentían mal interactuando con él incluso cuando el equipo obtenía buenas puntuaciones.

 

El hecho de que los humanos odien a sus compañeros de equipo que son inteligencias artificiales es un motivo de preocupación para los investigadores que diseñan tecnologías de este tipo para que algún día trabajen con humanos en desafíos reales, como defenderse de misiles o realizar operaciones quirúrgicas complejas. Esta dinámica, denominada inteligencia de equipo, es la siguiente frontera en la investigación de la inteligencia artificial, y utiliza un tipo particular de inteligencia artificial llamado aprendizaje por refuerzo.

 

A una inteligencia artificial basada en el aprendizaje por refuerzo no se le dice qué acciones debe realizar, sino que descubre por sí misma qué acciones producen los mejores resultados. Para averiguarlo prueba opciones una y otra vez. Este enfoque es el que ha dado lugar a los jugadores sobrehumanos de ajedrez. A diferencia de los algoritmos basados en reglas, estas inteligencias artificiales no están programadas para seguir normas al estilo de “en caso de que… (…), entonces hay que…”, porque los posibles resultados de las acciones que emprenden son demasiado numerosos para codificarlas.

Noticias

Síguenos en redes