Tecnología Médica
Aspectos Legales sobre Inteligencia Artificial en la Práctica Médicad Mé


(Buenos Aires).- Los sistemas basados en Inteligencia artificial en salud han crecido de forma acelerada en el último tiempo, trayendo beneficios, pero pudiendo conllevar riesgos al ser utilizados. ¿Qué sabemos hoy sobre sus aspectos regulatorios?

Si bien las tecnologías en salud permiten mejorar la atención del paciente y su cuidado, cuanto más avanzan y se implementan estas tecnologías, también presentan mayor riesgo de que se utilicen de forma no autorizada o de forma indebida, traduciéndose en debilidades de confidencialidad y de privacidad de la información, o también en daños directos al paciente.

Es por esto que se requiere de seguridad en los sistemas de información, y de un marco ético y legal que ordene, dirija y proporcione límites al accionar de los profesionales asistenciales, al equipo administrativo y los sistemas de salud en su totalidad.

¿Cuál es el potencial de la IA en el ámbito de la salud?

Los sistemas de IA se basan en diversas técnicas que procesan datos e información y resuelven problemas o toman decisiones que antes solo podían ser realizadas por la capacidad cognitiva de los seres humanos.

Abarcan desde software para reconocimiento de voz, hasta asistencia para la detección de patologías desde imágenes o estudios médicos. Tienen el potencial de mejorar la eficiencia y calidad de la atención médica, de los procesos hospitalarios y la seguridad del paciente, pudiendo ser aplicados como herramientas de diagnóstico de precisión, monitoreo de pacientes, recomendación de tratamientos, mejora de flujos de trabajo administrativo, triage, desarrollo de nuevos medicamentos,etc. Así, puede verse que la IA se proyecta en diversas áreas tales como salud poblacional, salud individual, sistemas de salud, empresas farmacéuticas y empresas de tecnología médica.

¿Por qué es importante que se hable sobre los aspectos legales o regulatorios y éticos o de responsabilidad sobre sistemas de IA en salud?

Porque la Inteligencia Artificial apoya a los médicos en sus procesos de atención y toma de decisiones pero no los reemplaza; se puede emplear para realizar tareas con mayor independencia de los médicos; los pacientes esperan el apoyo de herramientas o equipos para el diagnóstico/ tratamiento de su enfermedad pero no suelen confiar fácilmente; y además, puede terminar sucediendo que los médicos confíen en la información de un algoritmo de IA que no es verificable.

Por ejemplo, están los algoritmos llamados de “caja negra”, en los cuales existe falta de transparencia, es decir que en tanto los algoritmos sean de mayor complejidad, también son más difíciles de entender.

Por otro lado, los sistemas de IA pueden ser falibles si los datos que utilizan para sus algoritmos y entrenamientos no son correctos o tienen sesgos. También, estos datos requieren de un tratamiento específico por su cualidad de sensibles en los términos de la Ley 25326 de Protección de datos personales. A medida que se amplía o crece la implementación de herramientas de IA a la práctica médica, surgen interrogantes médico-legales sobre las posibles implicaciones legales de esto.

Y entonces.. ¿Cuál es el marco legal que se necesita para regular los sistemas de IA en la práctica médica, permitiendo que estos beneficien a los pacientes, a la vez que eviten consecuencias no deseadas? De manera simple, se entiende como marco legal al conjunto de leyes y reglamentos que indican los límites y las bases sobre las que una persona o una institución puede actuar.

La OPS presenta dentro de sus 8 principios rectores de transformación digital del sector de la salud, en su 6to principio que trata sobre IA, algunos llamados a la acción entre los que se encuentran, relacionados al aspecto legal, el de: Acelerar los marcos ético-legales, la capacitación y encuentro de talento de inteligencia artificial de alto nivel. Construir una disciplina académica de inteligencia artificial mediante la formación de equipos multidisciplinarios (p. ej., profesionales de la salud, científicos de datos, profesionales legales) que fomenten temas de transparencia, explicabilidad y auditoría algorítmica, entre otros.

Además, en su publicación sobre IA en salud pública, establece los siguientes principios rectores de la IA para mitigar el riesgo ético y legal:

  • Centrada en las personas: respetando los derechos de la personas y fundamentándose en los principios éticos de dignidad humana, beneficencia, no maleficencia, autonomía y justicia.
  • Transparente: el enfoque del algoritmo se debe comunicar.
  • Protección de los datos: teniendo en cuenta la privacidad, confidencialidad y seguridad.
  • Integridad científica: las intervenciones de IA se apliquen a prácticas confiables, reproducibles, justas y honestas, y que posibiliten la rendición de cuentas.
  • Abierta y compartible: que se compartan los conceptos del algoritmo.
  • No discriminatoria: evitando los sesgos.
  • Controlada por seres humanos: control y revisión por seres humanos de las decisiones automatizadas.

En Argentina existen el observatorio de salud de la Facultad de Derecho de la UBA y el Laboratorio de Innovación e Inteligencia Artificial de la UBA donde se encuentra en constante debate el tema sobre legislación de los sistemas de IA, y de hecho voy a mencionar, un aspecto importante que resalta el Dr Juan Corvalán, cofundador del Laboratorio, a modo de recomendación para el establecimiento de un marco regulatorio específico. La recomendación, es que se debe discernir sobre qué tipo de sistema inteligente, qué algoritmo, está detrás, es decir, si está basado en conocimientos o en datos.

Si está basado en conocimientos, el desafío de regulación es más bajo; pero si está basado en datos, el desafío es mucho mayor porque la máquina aprende de los datos y por ejemplo, en el caso de deep learning la agenda de regulación debe ser más robusta, se debe evaluar el impacto o establecer un sistema robusto de auditabilidad y de transparencia para entender el origen de los problemas y sesgos al auxiliar a los profesionales de la salud.

Con respecto a leyes establecidas en Argentina, existe la Ley 25.326 sobre protección de datos personales, pero no un marco regulatorio sobre IA.

En Argentina, se consideran a los sistemas de IA en salud como dispositivos médicos, y por lo tanto, al igual que la FDA en Estados Unidos, la ANMAT (Administración Nacional de Medicamentos, Alimentos y Tecnología Médica) debe regular los sistemas. Se pueden encontrar los dispositivos aprobados en la página oficial de https://helena.anmat.gob.ar  

Como evidencia, se menciona que la ANMAT aprobó ENTELAI PIC, una herramienta desarrollada en Argentina para diagnóstico de COVID-19 a través de la lectura de radiografías de tórax, y fue aprobada como producto médico Clase I, siendo su descripción Software para procesamiento automatizado de imágenes médicas. Además, la Anmat trabaja en la Artificial Intelligence Medical Devices (AIMD), un grupo de trabajo perteneciente al foro internacional de reguladores de dispositivos médicos (IMDRF) con un enfoque alineado en la gestión de dispositivos médicos basados ​​en inteligencia artificial (IA).

Por último, en el Hospital Italiano de Buenos Aires existe el Programa de Inteligencia Artificial y Ciencia de Datos (PIASHIBA) desde donde se desarrollan e implementan modelos o sistemas basados en ciencia de datos e IA integrados al flujo de trabajo hospitalario. Al día de hoy, se llevan a cabo múltiples proyectos entre los cuales podemos mencionar los ligados a la Visión computacional como ArtemisIA, TRX, CarpIAn, ValquirIA, Procesamiento del Lenguaje natural como Argot, Chatbot Administrativo y Chatbot Clínico, y de Reconocimiento Automático del Habla.

En base al aspecto legal, todas las herramientas desarrolladas en esta institución se encuentran en proceso de regulación por la ANMAT

Fuente: Hospital Italiano 

statistical tracker