Los expertos en salud digital advierten de los sesgos de la Inteligencia Artificial en la toma de decisiones
- 8 febrero, 2024
- 0 comments
- Ricardo Mariscal
- Posted in Inteligencia Artificial
- 0
Expertos en salud digital y gestión sanitaria reunidos en el simposio Health Data Talent, organizado por el Campus Health Tech de ENIIT en el Recinto Modernista de Sant Pau, coincidieron en advertir del peligro de adoptar herramientas de Inteligencia Artificial que no han sido evaluadas previamente, ya que pueden dar lugar a errores de diagnóstico y tratamiento.
El pasado mes de diciembre, el Consejo y el Parlamento Europeo alcanzaron un acuerdo provisional sobre el que es el primer Reglamento de Inteligencia Artificial (IA) del mundo, y en el que señala que la IA debe evitar “los sesgos que afecten negativamente a las personas” y establece que antes de introducirse un sistema debe evaluarse su impacto. Joan Guanyabens, director de la Fundación TIC Salut Social, la organización encargada de salud digital en la Generalitat de Catalunya, advierte que “lo más importante de la IA es la evaluación. Antes de implementarse deben evaluarse sus datos, ya que no es lo mismo una cohorte de una población que de otra”.
Un estudio publicado el pasado mes de enero en Lancet Digital Health concluyó que “GPT-4 no modelaba adecuadamente la diversidad demográfica de las afecciones médicas” y creaba “diagnósticos que estereotipan ciertas razas, etnias y géneros”. Otro trabajo publicado en Journal of Electrocardiology demostró que si bien la IA “tiene el potencial de mejorar significativamente la precisión, la accesibilidad y la eficacia en el tratamiento cardiovascular”, al aplicarla en los eletrocardiogramas (ECG) presenta riesgos si los datos de los que parte están sesgados. Para los autores, “el rendimiento de un modelo se ve afectado cuando los diversos grupos demográficos no están representados adecuadamente”, en cuanto a edad, género y raza.
Como indica Pol Solà, fundador de la empresa de evaluación de IA Vincer, los sistemas de IA, con el nuevo reglamento europeo, deben probarse con “poblaciones representativas de quienes los vayan a utilizar, algo que no han demostrado la gran mayoría”. A su juicio “hasta ahora eran una caja negra de la que no se sabía cómo llegaba a sus conclusiones, lo que supone un riesgo para los pacientes”.
Por su parte, Ana Ripoll, presidenta de Bioinformatics Barcelona, destaca que “existe un peligro de los algoritmos sesgados ya que inducen a decisiones clínicas y ¿quién asume la responsabilidad si algo falla? Si los datos son de baja calidad los resultados también lo serán”.
Desinformación en salud
Para fomentar el uso de buenas prácticas en IA en salud, desde la Asociación de Innovadores en eSalud (AIES), se ha desarrollado un código ético, al que se han Las tres sociedades científicas de Atención Primaria (SEMERGEN, semFYC y SEMG), la sociedad española de radiología (SERAM) y la Federación de Asociación de Enfermería Comunitaria y Atención Primaria (FAECAP). Uno de los puntos clave es la desinformación en salud. Para Carlos Mateos, vicepresidente de AIES y coordinador del Instituto #SaludsinBulos, “tanto los desarrolladores como los usuarios de IA debemos contemplar mecanismos de defensa frente a la desinformación en salud, que ya puede adoptar formas indistinguibles de la información veraz, falsificando imágenes y datos”.
Investigación
En el ámbito de la investigación con IA, un avance que señala Guanyabens es el uso de datos federados y sintéticos, un sistema que permite compartir con diferentes centros sanitarios información generada a partir de los datos, pero no los datos en sí mismos, que no salen del centro. “Es una solución muy interesante porque los datos están muy protegidos, cada centro tiene los suyos, pero puede compartir información anonimizada, y eso permite realizar investigaciones multicéntricas con muchos participantes”, comenta.
Otro reto sobre los datos de salud es el de su autorización por los ciudadanos. Para el director de Fundación TIC Salut Social, “hay que aprovechar las técnicas de autorización por blockchain para garantizar que se usen para lo que han sido autorizados”. En este sentido, Anna Ripoll apunta que “cada persona genera datos biomédicos que podrían rellenar 300 millones de libros”. Esos datos ayudarán a que “todos tengamos un gemelo digital, una réplica digital de nosotros mismos en la que se podrá probar cómo va a funcionar un tratamiento. Ya existen copias digitales del corazón, célula a célula”.
Formación de profesionales sanitarios
Ante estos avances y desafíos de la IA, tanto Joan Guanyabens como Ana Ripoll coinciden en subrayar que faltan profesionales sanitarios formados. Para Ripoll, además, se necesita que esos profesionales sanitarios colaboren con otros expertos en el manejo de datos con el objetivo de aprovechar las oportunidades de la IA.