Unos investigadores explotan las debilidades de bots jugadores

Redacción

Si alguna vez has jugado a un videojuego online, es probable que hayas competido con un bot, un programa de inteligencia artificial que juega en nombre de un humano.

Muchos de estos bots se crean usando un aprendizaje de refuerzo profundo, que es el entrenamiento que utilizan los algoritmos para aprender cómo lograr un objetivo complejo a través de un sistema de recompensas. Pero, según unos investigadores del Colegio de Ciencias de la Información y Tecnología de la universidad Penn State, el uso de bots de juego entrenados por el aprendizaje de refuerzo profundo podría permitir a atacantes utilizar el engaño para derrotarlos fácilmente.

Para destacar este riesgo, los investigadores diseñaron un algoritmopara entrenar a un robot adversario, que fue capaz de descubrir y explotar automáticamente las debilidades de los bots de juego maestros impulsados por algoritmos de aprendizaje de refuerzo. Su robot fue entrenado para derrotar a un robot de inteligencia artificial de clase mundial, en el galardonado juego de computadora StarCraft II.

“Este es el primer ataque que demuestra su eficacia en videojuegos del mundo real”, dijo Wenbo Guo, estudiante de doctorado que estudia ciencias de la información y tecnología. “Con el éxito del aprendizaje de refuerzo profundo en algunos juegos populares, como AlphaGo en el juego Go y AlphaStar en StarCraft, más y más juegos están empezando a utilizar el aprendizaje de refuerzo profundo para entrenar a sus robots de juego”.

Agregó: “Nuestro trabajo revela la amenaza para la seguridad de usar agentes entrenados de refuerzo profundo como bots de juego. Esto hará que los desarrolladores de juegos sean más cuidadosos en la adopción de agentes de aprendizaje de refuerzo profundo”.

[Img #62143]

 

(Foto: Pixabay)

Guo y su equipo de investigación presentaron su algoritmo en agosto en Black Hat USA, una conferencia que forma parte de la serie de eventos sobre seguridad de la información más técnica y relevante del mundo. También dieron a conocer públicamente su código y una variedad de bots adversarios de inteligencia artificial.

“Usando nuestro código, los investigadores y los hackers de “sombrero blanco” podrían entrenar a sus propios agentes adversarios para dominar muchos – si no todos – los videojuegos multijugador”, dijo Xinyu Xing, profesor asistente de ciencias de la información y tecnología en Penn State.

Guo concluyó: “Más importante aún, los desarrolladores de juegos podrían usarlo para descubrir las vulnerabilidades de sus robots de juegos y tomar medidas rápidas para parchear esas vulnerabilidades”.

Noticias

Síguenos en redes