Los “Deepfakes” son considerados la amenaza más peligrosa de la inteligencia artificial

Redacción

Falsificar contenido de audio o vídeo ha sido clasificado por los expertos como el uso más preocupante de la inteligencia artificial en cuanto a sus aplicaciones potenciales en el ámbito del crimen o el terrorismo, según un nuevo informe de la UCL.

El estudio, publicado en Crime Science y financiado por el Dawes Centre for Future Crime de la UCL, identificó 20 formas en que la inteligencia artificial podría ser utilizada para facilitar el crimen en los próximos 15 años. Estas se clasificaron por orden de preocupación, según el daño que podrían causar, el potencial de beneficio o ganancia delictiva, la facilidad con que se llevarían a cabo y lo difícil que sería detenerlas.

Los autores dijeron que el contenido falso sería difícil de detectar y detener, y que podría tener diversos objetivos, desde desacreditar a una figura pública hasta extraer fondos haciéndose pasar por el hijo o la hija de una pareja en una videollamada. Ese contenido, dijeron, podría generar una desconfianza generalizada en las pruebas audiovisuales, lo que en sí mismo sería un daño para la sociedad.

Además de los contenidos falsos, se juzgaron otros cinco delitos facilitados por la inteligencia artificial que generan una gran preocupación. Se trataba de la utilización de vehículos sin conductor como armas, la ayuda para elaborar mensajes de phishing más personalizados (spear phishing), la alteración de los sistemas controlados por inteligencia artificial, la recolección de información en línea con fines de chantaje a gran escala y las noticias falsas generadas por inteligencia artificial.

El autor principal, el profesor Lewis Griffin (UCL Computer Science), dijo: “A medida que se amplían las capacidades de las tecnologías basadas en la inteligencia artificial, también se amplía su potencial de explotación criminal. Para prepararnos adecuadamente para las posibles amenazas de la inteligencia artificial, necesitamos identificar cuáles podrían ser estas amenazas y cómo podrían afectar nuestras vidas”.

[fusion_builder_container hundred_percent=

(Foto: Pixabay)

Los investigadores compilaron los 20 delitos posibilitados por la inteligencia artificial a partir de documentos académicos, noticias e informes de actualidad, ficción y cultura popular. Luego reunieron a 31 personas con experiencia en inteligencia artificial durante dos días de debates para clasificar la gravedad de los posibles delitos. Los participantes procedían del mundo académico, el sector privado, la policía, el gobierno y los organismos de seguridad del Estado.

Entre los delitos de mediana importancia figuraba la venta de artículos y servicios etiquetados fraudulentamente como “inteligencia artificial”, como los controles de seguridad y la publicidad dirigida. Estos serían fáciles de alcanzar, con beneficios potencialmente grandes.

Entre los delitos que suscitaban poca preocupación figuraban los robots ladrones -pequeños robots utilizados para entrar en propiedades a través de puntos de acceso como buzones o entradas para gatos- que se consideraban fáciles de derrotar.

El primer autor, el Dr. Matthew Caldwell (UCL Computer Science) dijo: “La gente ahora lleva a cabo gran parte de su vida en línea y su actividad en ella puede hacer y deshacer reputaciones. Un entorno en línea de este tipo, donde los datos son propiedad de alguien y la información es poder, es ideal para su explotación por parte de una actividad criminal basada en la inteligencia artificial.

“A diferencia de muchos delitos tradicionales, los delitos en el ámbito digital pueden compartirse, repetirse e incluso venderse fácilmente, lo que permite comercializar las técnicas delictivas y prestar el delito como un servicio. Esto significa que los delincuentes pueden subcontratar los aspectos más difíciles de su delito basado en la inteligencia artificial”.

El profesor Shane Johnson, Director del Centro Dawes para Delitos Futuros de la UCL, que financió el estudio, dijo: “Vivimos en un mundo en constante cambio que crea nuevas oportunidades, buenas y malas. Por ello, es imperativo que anticipemos las futuras amenazas de la delincuencia para que los encargados de formular políticas y otros interesados con competencias para actuar puedan hacerlo antes de que se produzcan nuevas ‘cosechas de delitos'”. Este informe es el primero de una serie en la que se identificarán las futuras amenazas de la delincuencia relacionadas con las tecnologías nuevas y emergentes y lo que podríamos hacer al respecto”.

[/fusion_builder_column][/fusion_builder_row][/fusion_builder_container]

Noticias

Síguenos en redes