Sociedades científicas, asociaciones de pacientes y organizaciones del ámbito hospitalario han pedido en el simposio Hackeando la Sanidad: Inteligencia Artificial en Salud un compromiso ético a las empresas que desarrollan Inteligencia Artificial en salud para evitar riesgos de confidencialidad de los datos de los pacientes y desinformación y han propuesto un decálogo de medidas para reducir estos riesgos.
El simposio ha sido organizado por la Asociación de Innovadores en eSalud (AIES), la red ITEMAS (dependiente del Instituto de Salud Carlos III) y el Instituto Salud Sin Bulos, y se enmarca en el Hackathon Salud, un proceso de cocreación de soluciones digitales en salud impulsadas por profesionales sanitarios que culmina en diciembre.
La IA en salud reducirá la carga de trabajo de los profesionales sanitarios, con una disminución esperada del 20% en el caso de médicos y un 8% en el caso de enfermeras, según Estatista, lo que redundaría en más tiempo dedicado a los pacientes. "Diversos estudios han demostrado que muchos de los diagnósticos que realiza la IA son más precisos que los que puede realizar cualquier equipo médico. También está ayudando a asignar mejor los recursos de la asistencia sanitaria y a realizar tratamientos más personalizados", explica la doctora Carmen Jódar, responsable de estrategia digital en la Junta de Andalucía y presidenta de AIES.
Sin embargo, la IA también supone un riesgo de desinformación en salud, como están mostrando los deep fakes, vídeos con imágenes creadas por Inteligencia Artificial, incluso de personas reales cuya imagen y voz son manipuladas. "Cada vez va a ser más difícil distinguir entre lo que es un contenido real de otro falso. Ya está ocurriendo con ChatGPT y la Inteligencia Artificial Generativa, que incluye referencias falsas que pasan detectadas", señala Carlos Mateos, coordinador del Instituto Salud Sin Bulos y del Hackathon Salud. Uno de los retos del Hackathon es impulsar soluciones basadas en la IA que ayuden a combatir la desinformación en salud, como análisis de la conversación en redes sociales y bots que recomienden fuentes fiables.
Crecimiento del 44% anual
En España, según los datos de la consultora Insight10, se prevé que el mercado de la Inteligencia Artificial en salud alcance los 2.500 millones de dólares en 2030, mientras que la tasa de crecimiento anual para el periodo 2022-2030 es pronosticada en el 44,22%. Para el doctor Lluís Blanch, coordinador de ITEMAS, la IA "debe formar parte de las soluciones tecnológicas que ayuden a la asistencia sanitaria. Desde ITEMAS incorporamos esta innovación en los hospitales y el Hackathon Salud nos ayuda a atraer proyectos innovadores en salud".
Entre las soluciones de IA que ya se están aplicando en diagnóstico figuran el sistema de triaje implantado en el Hospital Universitario Parc Taulí, cuya unidad de innovación dirige el doctor Blanch. Se trata de un evaluador de síntomas en urgencias basado en IA, que reduce los tiempos de espera y aumenta la seguridad de la asistencia sanitaria. Otros campos en los que ya hay experiencias basadas en IA en centros españoles son el diagnóstico de imágenes radiológicas, de enfermedades de la piel y de variantes genómicas, entre otras.
En medicina personalizada, la IA se está utilizando en centros españoles, entre otros, para rehabilitación, con visión artificial, y para el desarrollo de biomarcadores dirigidos a dianas terapéuticas para conseguir mayor precisión del tratamiento. En prevención, se recurre a la IA para hallar posibles riesgos de sufrir cáncer a través de biomarcadores y para la detección precoz de patologías con el análisis de la voz.
Compromiso ético
Desde AIES y el Instituto Salud Sin Bulos se ha impulsado un compromiso ético sobre la IA en salud al que ya se han sumado sociedades científicas de Atención Primaria como semFYC y SEMERGEN, y de enfermería como FEACAP, aunque se espera que se sumen el resto de las 70 organizaciones que mantienen acuerdos de colaboración con AIES y Salud Sin Bulos.
Autonomía: Los sistemas de inteligencia artificial deben preservar la autonomía de las personas. En salud deben incorporar mecanismos para que los profesionales puedan supervisar e intervenir para evitar ser dirigidos injustificadamente, y que puedan revisar y corregir cualquier resultado de dichos sistemas. Los profesionales, los pacientes y los ciudadanos son los responsables de las decisiones sanitarias.
Bienestar: El uso de la inteligencia artificial debe promover el bienestar de las personas, y su finalidad debe estar orientada al interés público mediante el desarrollo de sistemas seguros, precisos, eficaces y de calidad.
Confiabilidad: Para que un sistema de IA inspire confianza en los profesionales sanitarios y ciudadanos debe ser legal; asegurando el cumplimiento de las normativas en vigor, justo; evitando sesgos y creencias injustificadas; y robusto técnicamente.
Equidad: El uso y acceso a los sistemas de inteligencia artificial debe ser equitativo en la medida de lo posible, extendiéndose a todas las personas y regiones sin discriminación por cualquier tipo de condición. Los sistemas de salud deben anticipar la repercusión que tendrá en los profesionales y pacientes utilizar la IA, habituándoles en su uso.
Información veraz: La IA debe ayudar a la alfabetización en salud y a la identificación y difusión de la información veraz en salud. Para ello deben ayudar a identificar las fuentes de la información y las referencias, tanto de texto como de imagen, y contrarrestar la desinformación con información veraz.
Privacidad: Los sistemas de IA y sus entornos tecnológicos deben poseer mecanismos robustos que garanticen la privacidad y seguridad de los datos, de forma que sean tratados responsablemente en la asistencia sanitaria y en la investigación científica.
Representatividad: Las soluciones de IA deben ser entrenadas y utilizar datos fiables y representativos de su universo. Y así cumplir con los principios de justicia, igualdad, diversidad e inclusión con los que mitigar los riesgos para los derechos fundamentales y la seguridad que plantea la IA, y que no están cubiertos por otros marcos jurídicos existentes.
Responsabilidad: Deben existir mecanismos, acogidos a la legislación, que aseguren la responsabilidad en el desarrollo y uso de los sistemas de IA. Es necesaria una rendición de cuentas que reconozca la responsabilidad ante aquellas personas que se sientan perjudicadas por decisiones basadas en estos sistemas, que puedan cuestionarlas y obtener una reparación.
Sostenibilidad: Los sistemas de IA deben ser evaluados de forma continua y transparente en situaciones reales para saber si cumplen de forma adecuada sus expectativas y las necesidades para las que fueron creados. Los sistemas deben reducir al mínimo sus efectos medioambientales y ser eficientes energéticamente.
Transparencia: La transparencia es la cualidad que hace posible que los sistemas de IA puedan ser comprensibles. Estos deben proveer de información suficiente para conocer sus capacidades y sus limitaciones, permitir realizar una trazabilidad de sus acciones y ser explicables.