Com incrementar la confiança en la intel·ligència artificial per afavorir-ne l'ús en l'àmbit mèdic?

(Contenido en el idioma por defecto)

Un equip d'investigadors proposa l'ús de mètriques objectives perquè els professionals sanitaris puguin entendre el perquè dels diagnòstics proposats pels sistemes d'intel·ligència artificial que analitzen radiografies 

L’ús de sistemes d’intel·ligència artificial està cada vegada més estès en molts àmbits de la societat. Aquestes tècniques també s’han començat a aplicar a la medicina. Ara bé, hi ha dubtes ètics i morals per l’ús d’aquests sistemes per la diagnosi i selecció de tractaments. Una de les propostes per poder superar aquests dubtes és l’ús de sistemes explicables, és a dir, que a més dels resultats se’n pugui obtenir la causa.

Investigadors de la Unitat de Gràfics i Visió per Ordinador i Intel·ligència Artificial (UGIVIA) i el Laboratori d’Aplicacions d’Intel·ligència Artificial (LAIA@UIB) de la Universitat de les Illes Balears han estudiat els treballs publicats sobre intel·ligència artificial explicable aplicada a l’anàlisi de radiografies, i han proposat un seguit de recomanacions i elements necessaris per poder millorar els models existents i permetre una transferència més adequada a l’àmbit mèdic.

Per fer-ho, els investigadors de la UIB han dut a terme una revisió sistemàtica de la literatura ja publicada, una anàlisi detallada i completa de tota la recerca sobre intel·ligència artificial explicable per radiografies ―en aquest cas, 141 articles― que els ha permès descobrir la direcció de la recerca actual, els temes, i els reptes i problemes que presenten aquests sistemes actualment. El seu treball s’ha publicat a la revista científica Applied Sciences.

La clau: mètriques objectives

El conjunt de recomanacions que han fet per a futures investigacions tenen com a objectiu superar les limitacions presents. En particular, indiquen la necessitat de desenvolupar i emprar mètriques objectives que permetin calcular la bondat i confiança de l’explicació, i que ajudin a obtenir resultats més fiables. El fet que fins ara la majoria de treballs no facin servir mètriques objectives per mesurar la qualitat de l’explicació, emprant en el seu lloc anàlisis subjectives per saber la qualitat dels diferents mètodes, no permet usar-les amb seguretat en l’àmbit mèdic. Els autors afirmen que dur a terme les seves recomanacions comportarà que es puguin desenvolupar nous sistemes més escrupolosos i rigorosos amb l’ètica, moral i legalitat i, per tant, més adaptats a la praxi mèdica.

Aquesta recerca s’ha fet en el marc del projecte EXPLAINING (EXPLainable Artificial INtelligence systems for health and well-beING, PID2019-104829RA-I00/MCIN/AEI/10.13039/501100011033), que finança el Ministeri de Ciència i Innovació a través de l’Agència Estatal d’Investigació i de la beca predoctoral FPI/035/2020 que finança la Conselleria d’Educació, Universitat i Investigació de les Illes Balears.

Referència bibliogràfica

Miró-Nicolau, M.; Moyà-Alcover, G. i Jaume-i-Capó, A. (2022). Evaluating Explainable Artificial Intelligence for X-ray Image Analysis. Applied Sciences, 12(9), 4459. https://doi.org/10.3390/app12094459 

Fecha del evento: 10/06/2022

Fecha de publicación: Fri Jun 10 07:04:00 CEST 2022

Con la colaboración de:

 Gobierno de España. Ministerio de Ciencia e Innovación. FECYT Innovación