Notasbit

Las mejores noticias de tecnología en un sólo lugar

Publicado por: Microsiervos

Publicado en: 27/11/2016 16:20

Escrito por: [email protected] (Alvy)

En busca de una inteligencia artificial capaz de justificar la moralidad de sus decisiones

Un grupo de investigadores del MIT publicó un interesante trabajo titulado Rationalizing Neural Predictions en el que se describen algunas ideas sobre cómo debería ser el comportamiento moral de las inteligencias artificiales en situaciones críticas – como por ejemplo ante cuestiones de vida o muerte. Y no estamos hablando del clásico dilema del tranvía.

El trabajo propone una forma de crear una inteligencia artificial capaz de, cuando menos, explicar el porqué de sus decisiones. Esto es algo que raras veces se suele examinar en todo el proceso de alimentación, entrenamiento y análisis de una inteligencia artificial, pues lo más interesante y directo suele ser observar el resultado (que un coche conduzca solo, que un robot apriete tornillos con habilidad o que un robot médico acierte con los diagnósticos y soluciones que propone).

Como ejemplo explican un caso en el que alimentaron uno de estos sistemas con varios miles de informes de biopsias, de cara a obtener una explicación satisfactoria y también fácil de entender (con frases comunes) sobre por qué la IA planteaba cierto tratamiento peligroso cuando consideraba que se estaba ante un problema. La idea es que en esos casos críticos, que podrían ser un pequeño porcentaje, un humano pudiera incluso supervisar la moralidad de la decisión a partir del razonamiento declarado por la máquina al respecto.

{Foto (CC) TEDxNapaValley @ Flickr vía photopin.}

(Vía ExtremeTech.)

# Enlace Permanente

Top noticias del 27 de Noviembre de 2016