MADRID, 3 (Portaltic/EP)
La Inteligencia Artificial (IA) hace tiempo que es capaz de tomar decisiones basadas en datos, pero ahora un nuevo sistema basado en el principio de la ‘IA explicable’ va un paso más allá para guiar al usuario hacia el logro un objetivo, argumentando las decisiones que va tomando.
El nuevo sistema, anunciado por la compañía Fujitsu Laboratories y la Universidad de Hokkaido (Japón), presenta automáticamente a los usuarios los pasos necesarios para conseguir un resultado deseado, basándose en la información de la IA sobre los datos, como por ejemplo en las revisiones médicas.
La IA Explicable representa un área de creciente interés en el campo de la inteligencia artificial y el aprendizaje automático. Aunque las tecnologías de IA pueden tomar decisiones automáticamente a partir de los datos, esta novedad también proporciona razones individuales para estas decisiones, lo que ayuda a evitar el llamado fenómeno de la ‘caja negra’, en el que la IA llega a conclusiones a través de medios poco claros y potencialmente problemáticos.
Aunque ciertas técnicas también pueden proporcionar hipotéticas mejoras que se podrían obtener cuando se produce un resultado no deseable, estas no proporcionan ningún paso concreto para mejorar.
Por ejemplo, si una IA que emite juicios sobre el estado de salud de una persona y determina que no es saludable, la nueva tecnología puede aplicarse para explicar primero la razón del resultado a partir de datos de exámenes médicos como la altura, el peso y la presión arterial.
A continuación, puede ofrecer además al usuario sugerencias específicas sobre la mejor manera de recuperar la salud, identificando la interacción entre un gran número de complicados elementos de los exámenes médicos y a partir de datos anteriores, mostrando pasos específicos para conseguir mejorar, teniendo en cuenta la viabilidad y la dificultad de la implementación.
Esta nueva tecnología ofrece la posibilidad de mejorar la transparencia y la fiabilidad de las decisiones tomadas por la Inteligencia Artificial, lo que permitirá a más personas en el futuro interactuar con las tecnologías que la utilizan, ofreciendo una sensación de confianza y tranquilidad, según ha asegurado Fujitsu en un comunicado.
CÓMO FUNCIONA LA IA EXPLICABLE
Las tecnologías de IA como LIME -explica en un modelo sencillo e interpretable- y SHAP -muestra la contribución de la variable explicativa en el modelo-, que se han desarrollado como tecnologías de IA para apoyar la toma de decisiones de los usuarios, hacen que la decisión sea convincente al explicar por qué la IA la tomó.
La nueva tecnología desarrollada conjuntamente entre Fujitsu y la Universidad de Hokkaido se basa en el concepto de explicación contrafactual y presenta la acción en el cambio de atributos y el orden de ejecución como un procedimiento.
A la vez que evita cambios irreales mediante el análisis de casos anteriores, la IA estima los efectos de los cambios de valores de atributos en otros valores, como la causalidad, y calcula la cantidad que el usuario tiene que cambiar realmente en función de ello, lo que permite presentar las acciones que lograrán resultados óptimos en el orden adecuado y con el menor esfuerzo.
Por ejemplo, si una persona tiene que añadir un kilogramo de masa muscular y siete kilos a su peso corporal para reducir el riesgo en una revisión médica, es posible estimar la relación analizando la interacción entre la masa muscular y el peso corporal por adelantado.
Esto significa que si se añade un kilo de masa muscular, el peso corporal aumentará en seis kilos. En este caso, de los siete kilos adicionales necesarios para el aumento de peso, la cantidad requerida de masa muscular es de solo un kilo. En otras palabras, la cantidad de cambio que uno tiene que hacer en realidad es añadir un kilo de masa muscular y un kilo de peso, por lo que uno puede obtener el resultado deseado con menos esfuerzo.