Solución matemática a la ética de la inteligencia artificial

Redacción

Investigadores de la Universidad de Warwick, el Imperial College London, la EPFL (Lausana) y Sciteb Ltd. han encontrado un medio matemático para ayudar a los reguladores y a las empresas a gestionar y vigilar los prejuicios de los sistemas de inteligencia artificial en relación a la toma de decisiones comerciales poco éticas y potencialmente muy costosas y perjudiciales.

La inteligencia artificial (IA) se despliega cada vez más en ámbitos comerciales. Considérese, por ejemplo, la posibilidad de utilizar la IA para fijar los precios de los productos de seguros que se venderán a un cliente determinado. Hay razones legítimas para establecer diferentes precios para diferentes personas, pero también puede ser rentable “jugar” con su psicología o su voluntad de comparar precios.

La IA tiene un gran número de estrategias potenciales entre las que elegir, pero algunas no son éticas y podrían incurrir no solo en un costo moral sino también en una importante sanción económica, ya que las partes interesadas aplicarán alguna sanción si descubren que se ha utilizado esa estrategia, no en vano los reguladores pueden imponer importantes multas de miles de millones de dólares, libras o euros y los clientes pueden boicotearte, o las dos cosas.

Así pues, en un entorno en el que cada vez más se toman decisiones sin intervención humana, existe por tanto un incentivo muy fuerte para saber en qué circunstancias los sistemas de IA podrían adoptar una estrategia poco ética y reducir ese riesgo o eliminarlo por completo si es posible.

Matemáticos y estadísticos de las citadas instituciones se han unido para ayudar a las empresas y a los reguladores a crear un nuevo “Principio de Optimización No Ética” y para proporcionar una fórmula sencilla para estimar su impacto. Han expuesto todos los detalles en un documento publicado en la revista Royal Society Open Science.

[fusion_builder_container hundred_percent=

(Foto: Pixabay)

Los cuatro autores del documento son Nicholas Beale de Sciteb Ltd; Heather Battey del Departamento de Matemáticas del Imperial College de Londres; Anthony C. Davison del Instituto de Matemáticas de la Escuela Politécnica Federal de Lausana; y el profesor Robert MacKay del Instituto de Matemáticas de la Universidad de Warwick.

El profesor Robert MacKay del Instituto de Matemáticas de la Universidad de Warwick dijo:

“Nuestro sugerido ‘Principio de Optimización No Ética’ puede ser usado para ayudar a los reguladores, personal de cumplimiento y otros a encontrar estrategias problemáticas que podrían estar escondidas en un gran espacio de estrategia. Cabe esperar que la optimización elija desproporcionadamente muchas estrategias no éticas, cuya inspección debería mostrar dónde es probable que surjan los problemas y, por lo tanto, sugerir cómo debería modificarse el algoritmo de búsqueda de la IA para evitarlos en el futuro.

“El Principio también sugiere que tal vez sea necesario replantearse la forma en que opera la IA en espacios estratégicos muy grandes, de modo que los resultados poco éticos se rechacen explícitamente en el proceso de optimización/aprendizaje”.

[/fusion_builder_column][/fusion_builder_row][/fusion_builder_container]

Noticias

Síguenos en redes