Las tres sociedades científicas de Atención Primaria
(SEMERGEN, semFYC y SEMG), la sociedad española de radiología
(SERAM) y la Federación de Asociación de Enfermería
Comunitaria y Atención Primaria (FAECAP) se han unido a la
Asociación de Innovadores en eSalud (AIES) y al Instituto
#SaludsinBulos para promover un código ético sobre la
Inteligencia Artificial (IA) en Salud. Con él se pretende
concienciar de la necesidad de que el desarrollo de la IA
siga unos estándares éticos en cuanto a privacidad de los
datos y veracidad de las fuentes de información, entre otros.
Este
consenso, al que se prevé que se sumen el resto de las más de
70 organizaciones asociadas a AIES y #SaludsinBulos, pretende
sentar las bases de las soluciones digitales de salud que se
desarrollen con IA. Algunas de estas soluciones serán
expuestas en el Hackathon Salud, un proceso de cocreación de proyectos
digitales para mejorar la asistencia sanitaria que culmina el
13 de diciembre en el Hospital Ramón y Cajal (Madrid),
organizado por la plataforma de innovación ITEMAS
(dependiente del Instituto de Salud Carlos III), AIES y la
agencia COM Salud.
La IA es
el principal motor de transformación de la asistencia
sanitaria y la investigación médica, en un grado muy superior
y a mayor velocidad que la suma de todos los avances
científicos hasta la fecha, según revela el informe elaborado
por AIES y #SaludsinBulos, pero también presenta peligros
relacionados con la desinformación. “Los mejores deep fakes,
fotos, vídeos y audios creados por Inteligencia Artificial
que pretenden hacerse pasar por reales, son ya indetectables.
No existe ninguna tecnología eficaz que pueda distinguirlos
de los reales”, alerta Carlos Mateos, vicepresidente de AIES,
coordinador del Instituto
#SaludsinBulos y del Hackathon Salud.
Por ese
motivo, uno de los objetivos del Hackathon Salud es impulsar
soluciones basadas en la IA que ayuden a combatir la
desinformación en salud, como análisis de la conversación en
redes sociales y bots que recomienden fuentes fiables. En
esta edición de 2023 hay varios retos relacionados con la
información veraz en salud y la lucha contra los bulos en
medicamentos.
El Informe de Tendencias de IA en Salud
enumera proyectos e iniciativas
preferentemente locales que permiten entender mejor la
situación de la inteligencia artificial para el sector salud
en prevención, diagnóstico, medicina personalizada y
desinformación en salud.
“Los
cambios que conlleva la adopción de la IA obligan a que los
profesionales sanitarios se formen para adaptarse a ella, ya
que en pocos años se considerará negligencia no haber
consultado la IA para el diagnóstico o tratamiento”, explica
la doctora Carmen Jódar, presidenta de AIES. Por ese motivo,
desde AIES, se ha puesto en marcha un programa de formación
gratuito en IA en salud para las sociedades científicas y
colegios profesionales.Así, uno de los proyectos relevantes
que destaca el documento está en marcha en la Clínica Universidad
de Navarra. Ha desarrollado un sistema de detección de
tumores de endometrio de bajo grado, el cual preside la
agresividad de las células. El 10% de las mujeres con cáncer
de endometrio sufre recaídas de la enfermedad, siendo este
uno de los cánceres más agresivos que existen en la
actualidad. El proyecto se basa en el estudio de 250 biopsias
de pacientes del hospital de La Paz con cáncer de endometrio,
a partir del cual se ha desarrollado un sistema basado en un
algoritmo que permite visualizar las múltiples células del
sistema inmune y sus interacciones con aquellas células que
tienen carácter tumoral, buscando patrones personalizados en
cada mujer.
Impulso a la eficiencia en la gestión sanitaria
Además,
la IA ha permitido el avance y mejora de sistemas de
identificación de patologías que a menudo se encuentran
invisibilizadas, como ocurre en la especialidad de
dermatología. Desde el Hospital Universitario de Torrejón se
ha desarrollado un proyecto destinado al análisis automático
de imágenes de la piel, un dispositivo que permite detectar a
partir de sistemas diagnósticos asistidos por ordenador
(DAO), todas las patologías dermatológicas conocidas que
puede padecer el paciente. Analiza automáticamente imágenes y
es capaz del autorelleno de escalas de medición. De este
modo, la herramienta permite evaluar y controlar a los
pacientes desde el domicilio, aumentando la eficiencia de la
gestión sanitaria.
Consenso ético sobre IA en
salud:
Autonomía: Los sistemas de inteligencia artificial deben
preservar la autonomía de las personas. En salud deben
incorporar mecanismos para que los profesionales puedan
supervisar e intervenir para evitar ser dirigidos
injustificadamente, y que puedan revisar y corregir cualquier
resultado de dichos sistemas. Los profesionales, los
pacientes y los ciudadanos son los responsables de las
decisiones sanitarias.
Bienestar: El uso de la inteligencia artificial debe
promover el bienestar de las personas, y su finalidad debe
estar orientada al interés público mediante el desarrollo de
sistemas seguros, precisos, eficaces y de calidad.
Confiabilidad: Para que un sistema de IA inspire confianza en
los profesionales sanitarios y ciudadanos debe ser legal;
asegurando el cumplimiento de las normativas en vigor, justo;
evitando sesgos y creencias injustificadas; y robusto
técnicamente.
Equidad: El uso y acceso a los sistemas de inteligencia
artificial debe ser equitativo en la medida de lo posible,
extendiéndose a todas las personas y regiones sin
discriminación por cualquier tipo de condición. Los sistemas
de salud deben anticipar la repercusión que tendrá en los
profesionales y pacientes utilizar la IA, habituándoles en su
uso.
Información
veraz: La IA
debe ayudar a la alfabetización en salud y a la
identificación y difusión de la información veraz en salud.
Para ello deben ayudar a identificar las fuentes de la
información y las referencias, tanto de texto como de imagen,
y contrarrestar la desinformación con información veraz.
Privacidad: Los sistemas de IA y sus entornos tecnológicos
deben poseer mecanismos robustos que garanticen la privacidad
y seguridad de los datos, de forma que sean tratados
responsablemente en la asistencia sanitaria y en la
investigación científica.
Representatividad: Las soluciones de IA deben ser entrenadas y
utilizar datos fiables y representativos de su universo. Y
así cumplir con los principios de justicia, igualdad,
diversidad e inclusión con los que mitigar los riesgos para
los derechos fundamentales y la seguridad que plantea la IA,
y que no están cubiertos por otros marcos jurídicos
existentes.
Responsabilidad: Deben existir mecanismos, acogidos a la
legislación, que aseguren la responsabilidad en el desarrollo
y uso de los sistemas de IA. Es necesaria una rendición de
cuentas que reconozca la responsabilidad ante aquellas
personas que se sientan perjudicadas por decisiones basadas
en estos sistemas, que puedan cuestionarlas y obtener una
reparación.
Sostenibilidad: Los sistemas de IA deben ser evaluados de
forma continua y transparente en situaciones reales para
saber si cumplen de forma adecuada sus expectativas y las
necesidades para las que fueron creados. Los sistemas deben
reducir al mínimo sus efectos medioambientales y ser
eficientes energéticamente.
Transparencia: La transparencia es la cualidad que hace
posible que los sistemas de IA puedan ser comprensibles.
Estos deben proveer de información suficiente para conocer
sus capacidades y sus limitaciones, permitir realizar una
trazabilidad de sus acciones y ser explicables.
|
No comments:
Post a Comment