La reglamentación de la salud digital

Para aprovechar todo el potencial de la salud digital es necesario superar los riesgos que le son inherentes.

Una noche de enero de 2019, en algún lugar de los Estados Unidos de América, Yisroel Mirsky esperó a que el personal de limpieza abriera las puertas, entró en el recinto del hospital y colocó su dispositivo en una sala donde se realizaban tomografías computadorizadas.

Oculto bajo un panel en el suelo, el dispositivo accedió al sistema de archivo y comunicación de imágenes (PACS, por sus siglas en inglés) del hospital.

El PACS es un sistema que se puede encontrar en muchos hospitales y que ejemplifica tanto las ventajas como las desventajas de la digitalización. Una de esas desventajas es la vulnerabilidad a las intrusiones.

«Los PACS están diseñados para ser accesibles y muchos están conectados a internet para facilitar el acceso a distancia, lo que permite su localización por parte de motores de búsqueda como Shodan.io» —explica Mirsky—, «y como suelen tener que trabajar con equipos antiguos que no admiten el cifrado, a menudo el tráfico interno no está cifrado o está mal configurado».

Utilizando un programa informático de inteligencia artificial (IA) conocido como red generativa antagónica, el dispositivo comenzó a alterar las exploraciones por tomografía computadorizada de los pulmones de los pacientes, insertando o quitando tumores, según el caso.

«Lo hicimos para revelar las vulnerabilidades del PACS», explica Mirsky, que es investigador del Centro de Investigación en Ciberseguridad de la Universidad Ben-Gurion de Be’er Sheva (Israel), y añade que se hizo con pleno consentimiento del hospital y que los pacientes no se vieron afectados por el experimento.

Que los sistemas digitales de un hospital sean tan vulnerables a los ciberataques y que la IA sea el arma utilizada no supone ninguna sorpresa para Timo Minssen, Director Gerente del Centro de Estudios Avanzados en Derecho de la Innovación Biomédica de Copenhague.

«Los sistemas digitales de salud conectados a internet son muy vulnerables a los ataques» —señala— «y, como ocurre con cualquier tecnología, la IA puede utilizarse tanto para fines beneficiosos como para fines perniciosos».

Por lo general, los piratas informáticos no tienen necesidad de utilizar estrategias sofisticadas de IA, les basta con un sencillo «programa malicioso secuestrador» (ransomware) que cifre los datos del hospital. El ataque de WannaCry en 2017 es un ejemplo de primera magnitud en este sentido. El ataque paralizó el trabajo en 16 hospitales del Reino Unido de Gran Bretaña e Irlanda del Norte, al bloquear durante semanas el acceso a las historias clínicas de los pacientes y otros servicios. Desde entonces se han producido múltiples ataques.

Minssen lleva tres años estudiando los sistemas de salud digital para ayudar a desarrollar una legislación que promueva sus beneficios y mitigue sus riesgos.

«Los riesgos reflejan el amplio abanico de cuestiones socioeconómicas, éticas y jurídicas que se plantean en torno a las aplicaciones de las tecnologías digitales en general y de la IA en particular» —dice Minssen—, «y que van desde la privacidad del paciente hasta la transparencia y la rendición de cuentas».

La privacidad es una de las principales preocupaciones, especialmente en lo que respecta a la información médica que puede repercutir en las opciones que tiene una persona de obtener un seguro o un empleo. «Ejemplos recientes de uso indebido de datos por parte de Facebook y otras entidades ponen de relieve la importancia de conciliar las posibilidades tecnológicas con la protección de la privacidad» —explica Minssen—, «pero incluso cuando la información se recopila con fines legítimos, como en el caso de la investigación epidemiológica o clínica, la privacidad sigue siendo un problema».

Hasta ahora, los organismos de reglamentación han tratado de abordar este asunto incorporando en sus instrumentos normativos disposiciones relativas al consentimiento del paciente y a la anonimización. Por ejemplo, el Reglamento general de protección de datos (GDPR) de la Unión Europea, por el que se rige el uso de datos personales, incluidos los datos sanitarios, biométricos y genéticos, exige que se obtenga el consentimiento de los pacientes para poder usar sus datos. También contempla exenciones para la investigación, e impone la anonimización cuando no se obtenga el consentimiento. En febrero de 2020, la Comisión Europea publicó una estrategia en materia de IA que hacía hincapié en la aplicación sistemática del GDPR para proteger los datos personales y la privacidad.

Se supone que la anonimización hace imposible vincular los datos a una persona, pero algunos investigadores han cuestionado su eficacia. Un artículo publicado en el número de julio de 2019 de la revista Nature Communications, por ejemplo, reveló que con la ayuda del aprendizaje automático era posible rastrear los conjuntos de datos anonimizados hasta llegar a las personas.

El riesgo de que se produzcan violaciones de la privacidad aumenta cuando no hay reglamentación o cuando el nivel de observancia es insuficiente. En la India, un sistema digitalizado de asistencia social conocido como Aadhaar se encuentra bajo escrutinio por este motivo, después de que múltiples violaciones de la privacidad minaran la confianza de sus usuarios. Una comisión parlamentaria mixta está estudiando un proyecto de ley sobre datos personales. Si se aprueba, supondrá la creación de una autoridad nacional de protección de datos.

Pam Dixon, Directora Ejecutiva del World Privacy Forum, un grupo de investigación especializado en la privacidad de los datos, llevó a cabo una evaluación del sistema de Aadhaar entre 2010 y 2016 y se pregunta si el endurecimiento de la reglamentación en la India supondrá una gran diferencia.

«Aadhaar es un buen ejemplo de programa digital basado en la biometría que alcanza un grado de difusión tal que vuelve muy difícil su reglamentación», señala.

Dixon considera que el principal motivo de preocupación en relación con el ecosistema digital es su omnipresencia.

Las inquietudes de Dixon se centran en la acumulación y el intercambio de datos personales, que luego se utilizan para establecer puntuaciones sanitarias de carácter predictivo que alcanzan una gran difusión.

En los Estados Unidos se podría poner como ejemplo la puntuación de riesgo para la salud introducida por la Ley de Atención Asequible (Affordable Care Act), que establece una medida relativa de los costos previstos de la atención de salud para cada persona inscrita y puede servir como indicador aproximado de cuán enferma está una persona. Otro ejemplo sería la puntuación del grado de propensión a los medicamentos de marca, que se utiliza para predecir la probabilidad de que una determinada persona elija medicamentos de marca en lugar de genéricos.

«Esas puntuaciones son comercializadas por corredores de datos y utilizadas por clientes corporativos como empresas farmacéuticas y aseguradoras» —explica Dixon—. «Cada vez se utilizan más para alimentar los algoritmos que están en la base de la IA y que se utilizan para realizar predicciones. Tenemos que ser muy cuidadosos para asegurarnos de que las decisiones y predicciones que se están formulando a través de la IA no crucen ninguna línea roja ética».

La OCDE publicó un conjunto de principios que exigen salvaguardias apropiadas, como por ejemplo permitir que los seres humanos comprendan los resultados basados en la IA y puedan cuestionarlos. En la estrategia de la Comisión Europea de febrero de 2020 se reclama que los sistemas de IA sean transparentes, rastreables y permitan la supervisión humana.

«El hecho de que estemos debatiendo la necesidad de comprender y cuestionar los resultados basados en la IA es un reflejo de la autonomía que esta empieza a alcanzar a través de las redes neuronales y al aprendizaje automático», dice Minssen.

Minssen sostiene que esta autonomía y los llamados algoritmos de «caja negra» en los que se basa el aprendizaje automático están planteando problemas hasta ahora desconocidos para los organismos de reglamentación.

«El aprendizaje automático es una de las principales preocupaciones de autoridades sanitarias como la Agencia Europea de Medicamentos o la Administración de Alimentos y Medicamentos de los Estados Unidos» —dice Minssen—. «Están buscando activamente expertos con experiencia en IA y aprendizaje automático, y que además sean capaces de anticipar la evolución que va a seguir esta tecnología».

La profesora Leong Tze Yun, Directora de Tecnologías de IA en AI Singapore, un programa nacional de inteligencia artificial, reconoce la preocupación que suscitan los llamados algoritmos de caja negra, pero sostiene que pueden seguir utilizándose para crear sistemas de IA transparentes y fiables siempre que se puedan examinar y validar sistemáticamente sus premisas y limitaciones, sus protocolos operacionales, las propiedades de los datos con los que trabajan y sus decisiones de salida.

«Los sistemas de IA pueden ser ‘transparentes’ sin necesidad de que cada paso computacional sea rastreable», concluye Tze Yun.

La posición de Dixon es parecida. «No es necesario entender cómo funciona la transmisión automática para regular los tipos de coches que pueden circular por las calles» —dice—. «Basta con definir unos parámetros de rendimiento y seguridad adecuados y establecer unas reglas claras para los conductores».

Minssen no está convencido de que vaya a ser tan sencillo reglamentar la IA en la esfera de la salud. «Dejando a un lado las cuestiones de complejidad y transparencia, ¿qué hacemos cuando las recomendaciones de un algoritmo usado por un médico causen un daño al paciente? ¿Es el médico el responsable? ¿O el algoritmo?».

Por otro lado ¿qué pasa con las personas que quieren causar daño, como los piratas informáticos que cerraron un centro oncológico en Oahu, Hawai (Estados Unidos) en diciembre de 2019, interrumpiendo los servicios de radioterapia que se prestaban allí?

Para Yisroel Mirsky, la lucha contra los piratas informáticos debe empezar por que los hospitales se tomen en serio la cuestión de la ciberseguridad. En junio de 2019, Mirsky publicó en la revista Proceedings of the 28th USENIX Security Symposium, junto con un grupo de colegas, un estudio basado en la prueba de penetración que realizó en los Estados Unidos en 2019. Se sorprendió ante la respuesta que tuvo entre los administradores de hospitales que lo leyeron.

«La gente admitía el problema, y en algunos casos se tomaron medidas para reforzar la seguridad mediante cifrado» —dice Mirsky—. «Pero la mayoría dijo que la inversión necesaria para hacer frente a los problemas relacionados con su legado y lograr que sus sistemas fueran seguros era demasiado elevada como para planteársela».

El costo de no hacer la inversión necesaria en ciberseguridad puede ser mucho mayor, al igual que el costo de no abordar los graves problemas éticos y de reglamentación que plantea la salud digital.

Según Bernardo Mariano, director del Departamento de Salud Digital e Innovación de la Organización Mundial de la Salud, cuando se presente la estrategia mundial de la OMS sobre salud digital a los Estados Miembros en la Asamblea Mundial de la Salud, en mayo de 2020, se debatirán cuestiones relacionadas con la seguridad, la reglamentación y la ética en el ámbito de la salud digital.

«Además de adoptar políticas, la comunidad mundial debe establecer de manera colectiva un sistema o marco de vigilancia de la inteligencia en materia de datos sanitarios» —dice Mariano—, «con el fin de detectar el uso indebido de los datos sanitarios y todos los riesgos de seguridad cibernética conexos, e informar al respecto».

FUENTE Gary Humphreys, boletín de la Organización Mundial de la Salud