Para solucionar el problema ético de la IA hay que volverla insegura

Los algoritmos están diseñados para perseguir un único objetivo matemático, pero los dilemas morales son mucho más complejos. Las máquinas entrenadas para valorar las consecuencias de varias opciones devolverían la responsabilidad de tomar la decisión final a las personas

El uso de algoritmos para tomar decisiones éticas es cada vez más común. Quizás el mejor ejemplo sea la versión de alta tecnología sobre el problema ético conocido como dilema del tranvía: si un coche autónomo no puede evitar matar a uno de los dos peatones, ¿cómo debería el software de control del coche elegir quién vive y quién muere?

Aunque este dilema no refleja de forma demasiado realista el comportamiento de un coche autónomo, muchos otros sistemas en uso (o muy cerca de implementarse) se enfrentan a todo tipo de decisiones éticas reales. Las herramientas de evaluación que se utilizan actualmente en el sistema de justicia penal deben considerar los riesgos para la sociedad frente los daños a los acusados ​​individuales. Las armas autónomas deberán considerar las vidas de los soldados frente a las de los civiles.

El problema es que los algoritmos nunca fueron diseñados para abordar decisiones tan difíciles. Están concebidos para perseguir un único objetivo matemático, como maximizar el número de vidas salvadas de los soldados o minimizar el número de muertes de los civiles. Cuando empiezan a aparecer múltiples objetivos, a menudo contrapuestos, se consideran cuestiones intangibles como la «libertad» y el «bienestar», no existe siempre una solución matemática satisfactoria.

Leer más

Fuente: MIT Technology Review

Sé el primero en comentar en «Para solucionar el problema ético de la IA hay que volverla insegura»

Dejar un comentario

Tu dirección de correo electrónico no será publicada.


*