Redacción
Existe un fallo bastante grande en la forma en que los programadores están abordando actualmente la ética relacionada con la inteligencia artificial (IA) y los vehículos autónomos (AV). Más en concreto, los métodos existentes no tienen en cuenta el hecho de que la gente podría tratar de utilizar los AV para hacer algo malo.
Por ejemplo, digamos que hay un vehículo autónomo sin pasajeros y que este está a punto de chocar contra un coche con cinco personas. Puede evitar la colisión saliéndose de la carretera, pero entonces golpearía a un peatón.
La mayoría de los debates éticos en este escenario se centran en si la IA del vehículo autónomo debe ser egoísta (proteger el vehículo y su carga) o utilitaria (elegir la acción que perjudique a menos personas). Pero ese enfoque de la ética puede plantear sus propios problemas.
“Los enfoques actuales sobre la ética y los vehículos autónomos son una simplificación excesiva y peligrosa, el juicio moral es algo más complejo que eso”, dice Veljko Dubljević, profesor asistente del programa de Ciencia, Tecnología y Sociedad (STS) de la Universidad Estatal de Carolina del Norte y autor de un artículo que describe este problema y un posible camino a seguir. “Por ejemplo, ¿qué pasa si las cinco personas en el coche son terroristas? ¿Y si están aprovechando deliberadamente la programación de la IA para matar al peatón cercano o herir a otras personas? Entonces podrías querer que el vehículo autónomo golpee el coche con cinco pasajeros. En otras palabras, el enfoque simplista que se utiliza actualmente para abordar las consideraciones éticas en la IA y los vehículos autónomos no tiene en cuenta una intención maliciosa. Y debería hacerlo”.
Como alternativa, Dubljević propone usar el modelo denominado Agent-Deed-Consequence (ADC) (agente-acción-consecuencia) como un marco que la IA podría usar para hacer juicios morales. El modelo ADC juzga la moralidad de una decisión basada en tres variables.
(Foto: Denys Nevozhai)
Primero, ¿la intención del agente es buena o mala? Segundo, ¿la acción en sí misma es buena o mala? Por último, ¿el resultado o consecuencia es bueno o malo? Este enfoque permite un matiz considerable.
Por ejemplo, la mayoría de la gente estaría de acuerdo en que saltarse un semáforo en rojo es malo. ¿Pero qué pasa si te pasas un semáforo en rojo para salir del camino de una ambulancia que va a toda velocidad? ¿Y si pasarse la luz roja significa que se ha evitado una colisión con esa ambulancia?
“El modelo ADC nos permitiría acercarnos a la flexibilidad y estabilidad que vemos en el juicio moral humano, pero que aún no existe en la IA”, dice Dubljević. “Esto es lo que quiero decir con estable y flexible. El juicio moral humano es estable porque la mayoría de la gente estaría de acuerdo en que mentir es moralmente malo. Pero es flexible porque la mayoría de la gente también estaría de acuerdo en que la gente que mintió a los nazis para proteger a los judíos estaba haciendo algo moralmente bueno.
“Pero si bien el modelo ADC nos da un camino a seguir, aún se necesita más investigación”, dice Dubljević. “He dirigido trabajos experimentales sobre cómo tanto los filósofos como los legos se acercan al juicio moral, y los resultados fueron valiosos. Sin embargo, ese trabajo dio a la gente información por escrito. Se necesitan más estudios sobre el juicio moral humano que se basen en medios de comunicación más inmediatos, como la realidad virtual, si queremos confirmar nuestros hallazgos anteriores e implementarlos en los AV. También, se deberían hacer pruebas con estudios de simulación de conducción antes de que cualquier supuesto AV “ético” comience a compartir la carretera con los humanos de manera regular. Los ataques terroristas con vehículos, desafortunadamente, se han vuelto más comunes, y necesitamos estar seguros de que la tecnología AV no será utilizada para propósitos nefastos”.
[/fusion_builder_column][/fusion_builder_row][/fusion_builder_container]