Vol. 7 N° 2 | Enero 2024 p. 62 - 82 ISSN:2521-5817 DOI: http://dx.doi.org/10.22451/5817.ibj2024.vol7.2.11082


Avances y desafíos en la regulación del software basado en Inteligencia Artificial como Dispositivo Médico: Perspectivas contemporáneas y futuras

implicancias

Advancements and Challenges in Regulating AI-Based Software as Medical Devices: Current Perspectives and Future Implications



Descripción del autor:

Victoria Judith Chuco Aguilar:


Máster Universitario en Dirección de Empresas, Universidad Europea de Madrid, España. Maestra en Dirección de Empresas Globales, Universidad Peruana de Ciencias Aplicadas, Perú. Doctoranda en Ciencias Administrativas, Universidad Nacional Mayor de San Marcos, Perú, Lima.

Victoria Judith Chuco Aguilar 1


1 Universidad Peruana de Ciencias Aplicadas, Perú (victoria.chuco@unmsm.edu.pe)


RESUMEN


El uso de la inteligencia artificial (IA) y el aprendizaje automático (AA) está generando una transformación significativa del sector sanitario en todo el mundo. Estas tecnologías están mejorando la eficiencia de los flujos de trabajo, aumentando la precisión de los diagnósticos y elevando la calidad del tratamiento de los pacientes. Sin embargo, también plantean retos complejos en su regulación. Este artículo examina la necesidad de cambios fundamentales en la forma en que se regula el software médico basado en IA y AA, teniendo el rol emprendido por la FDA.


Recibido: 30 de noviembre del 2023. Aceptado: 20 de noviembre del 2023. Publicado:

31 de enero 2024

Este es un artículo de acceso abierto, distribuido bajo los términos de la licencia Creative Commons Atribucion - No Comercia_Compartir Igual 4.0 Internacional. (http://creativecommons.org/licenses/by-nc- sa/4.0/) que permite el uso no comercial, distribución y reproducción en cualquier medio, siempre que la obra original sea debidamente citada


Se realizó una revisión bibliográfica para analizar el panorama actual del software médico que utiliza IA y AA y las implicancias que tiene en el uso de estas tecnologías. Se pone en relieve los retos clave en la regulación de la IA y el AA en el sector sanitario, que incluyen la necesidad de enfoques sistémicos y la importancia de la flexibilidad y la supervisión continua en la regulación. Se concluye que se debe considerar una perspectiva regulatoria sistémica, que evalúe los ecosistemas sanitarios en su conjunto, para abordar eficazmente los retos y complejidades asociados a estas tecnologías en la atención sanitaria. Este enfoque también ayudará a fomentar la confianza y el reconocimiento del potencial transformador de la IA y el AA en la asistencia sanitaria.


Palabra clave: Inteligencia artificial, aprendizaje automático, regulación sanitaria, FDA, algoritmos adaptativos.


ABSTRACT

The use of artificial intelligence (AI) and machine learning (ML) is generating a significant transformation of the healthcare sector worldwide. These technologies are improving the efficiency of workflows, increasing the accuracy of diagnoses and raising the quality of patient treatment. However, they also pose complex regulatory challenges.

This article examines the need for fundamental changes in the way AI and AA-based medical software is regulated, taking the role undertaken by the FDA. A literature review was conducted to analyze the current landscape of medical software using AI and AA and the implications it has on the use of these technologies. Key challenges in the regulation of AI and OA in the healthcare sector are highlighted, including the need for systemic approaches and the importance of flexibility and


ongoing oversight in regulation. It is concluded that a systemic regulatory perspective, assessing healthcare ecosystems as a whole, should be considered to effectively address the challenges and complexities associated with these technologies in healthcare. This approach will also help build confidence and recognition of the transformative potential of AI and AA in healthcare.

Keywords: artificial intelligence, machine learning, healthcare regulation, FDA, adaptive algorithms.


  1. INTRODUCCIÓN


    La aparición de la inteligencia artificial (IA), en concreto del aprendizaje automático (AA), marca una transformación significativa en la asistencia sanitaria mundial (Alowais et al., 2023). Aporta mejoras en la eficiencia del flujo de trabajo hospitalario, la precisión diagnóstica y la calidad del tratamiento de los pacientes. Sin embargo, este avance tecnológico en la medicina también presenta intrincados retos que requieren enfoques sociales y normativos coordinados. Este debate se centra en cuestiones cruciales relacionadas con la regulación de las aplicaciones de IA y AA en la atención sanitaria, destacando el importante papel desempeñado por la Administración de Alimentos y Medicamentos de Estados Unidos (FDA) en la navegación por estas fronteras emergentes. (Khirasaria et al., 2020).

    La identificación de productos médicos basados en la inteligencia artificial y el aprendizaje automático que necesitan un escrutinio reglamentario es una preocupación importante. Es necesario determinar las pruebas exigidas a los fabricantes de software para obtener la autorización de comercialización. Junto a esto, son necesarios mecanismos que garanticen la mejora del rendimiento en tiempo real, manteniendo al mismo tiempo las normas de seguridad y eficacia. Cabe señalar que algunos dispositivos médicos basados en la inteligencia artificial y el aprendizaje automático ya han recibido la aprobación para su venta en Estados Unidos. Un ejemplo de ello es la aprobación por parte de la FDA de un sistema autónomo de inteligencia artificial para el cribado de la retinopatía diabética en 2018. Esta aparición de dispositivos autónomos ha suscitado preocupación entre pacientes y profesionales sanitarios (Abràmoff et al., 2022).

    El panorama actual del software médico aprobado que utiliza inteligencia artificial y aprendizaje automático destaca por sus algoritmos estáticos. Estos algoritmos no se adaptan ni evolucionan a medida que surgen nuevos datos (Shumba et al., 2022). Si se requiere algún cambio o actualización en la funcionalidad del algoritmo durante su uso, puede ser necesaria una revisión adicional y un escrutinio normativo por parte de la FDA. Como resultado, los fabricantes pueden ser reacios a realizar actualizaciones o mejoras del software debido a la preocupación por los costes, el esfuerzo y las incertidumbres relacionadas con los procesos normativos. Esta falta de


    adaptabilidad y evolución obstaculiza todo el potencial de la inteligencia artificial y el aprendizaje automático. Estas tecnologías tienen la capacidad inherente de aprender, perfeccionar y mejorar continuamente su rendimiento a partir de nuevos datos y experiencias del mundo real. Sin embargo, la naturaleza estática de los algoritmos bloqueados impide la utilización de este activo principal. En consecuencia, su capacidad para ofrecer soluciones sanitarias cada vez más eficaces e innovadoras es limitada.

    La necesidad de un cambio fundamental en la forma en que la FDA regula el "problema de la actualización", centrándose específicamente en los algoritmos bloqueados frente a los adaptativos, requiere posibles mejoras, como la aplicación de procesos de supervisión continua que tengan en cuenta los riesgos asociados a la inteligencia artificial y los sistemas de aprendizaje automático. El artículo destaca la importancia de un cambio de paradigma en el enfoque regulador y aboga por un marco más completo y flexible.

    Las autoridades reguladoras, como la FDA, se han centrado tradicionalmente en la evaluación y aprobación de dispositivos médicos. Sin embargo, la aparición de la inteligencia artificial (IA) y el aprendizaje automático (AA) en la atención sanitaria requiere una perspectiva más amplia (Gerke et al., 2020; Muehlematter et al., 2021). Las tecnologías de IA y AA forman parte integrante de sistemas sanitarios más amplios, que implican diversas interacciones humanas. Esto incluye a los equipos sanitarios que introducen datos, a los médicos que responden a las recomendaciones de la IA y a las aseguradoras que determinan los reembolsos. En este contexto, es importante adoptar un "enfoque sistémico" que tenga en cuenta todo el ecosistema.

    Las autoridades reguladoras, como la FDA, se enfrentan ahora a la tarea de regular la inteligencia artificial (IA) y el aprendizaje automático (AA) en la atención sanitaria desde una perspectiva sistémica. Este reto trastoca la idea convencional de que la autoridad de la FDA solo abarca la regulación de la práctica médica. Aunque un cambio completo a un enfoque sistémico puede no ser factible para los reguladores en la actualidad, dar pasos graduales hacia este objetivo es posible. Estas medidas progresivas pueden impulsar enormemente la confianza pública en la integración de


    la IA en los sistemas sanitarios, marcando un cambio de paradigma en las prácticas reguladoras.

    El presente artículo plantea la necesidad de una importante reforma de las prácticas reguladoras, basado en las directrices establecidas por la FDA sobre IA y AA en software médico. El cambio sugerido sugiere dejar de centrarse únicamente en productos individuales y adoptar en su lugar un enfoque sistémico para regular los ecosistemas sanitarios en su conjunto. Este enfoque reconoce los desafíos únicos que plantean las tecnologías de IA y AA en el sector sanitario y pretende aumentar la confianza en estos avances innovadores.


  2. METODOLOGÍA


    Se realizó una revisión exhaustiva de los estudios disponibles mediante una búsqueda de fuentes relevantes se realizó en bases de datos académicas y científicas de renombre como PubMed, Scopus y Google Scholar. La búsqueda abarcó desde 2019 hasta la fecha actual. Los términos clave utilizados en la búsqueda incluyeron diferentes combinaciones de palabras como "inteligencia artificial", "aprendizaje automático", "regulación sanitaria", "FDA", "algoritmos en salud" y "software médico."

    Para incluir los documentos, establecimos criterios específicos. Solo incluimos artículos que hablaran directamente del uso de la IA y el AA en la sanidad y de las cuestiones normativas relacionadas con ellos, especialmente las relacionadas con la FDA. Se dió prioridad a los estudios que ofrecían análisis detallados de casos, revisaban políticas y evaluaban el impacto de la IA y el AA en el sector sanitario. No se incluyeron artículos que no se centraran específicamente en la regulación o que analizaran la IA y el AA en áreas no sanitarias.

    Los artículos se seleccionaron utilizando criterios específicos que incluían la importancia del tema, la fiabilidad de las fuentes y el grado de actualización de la información. También se favorecieron los estudios que proporcionaban un conocimiento exhaustivo del tema, como la investigación empírica, las revisiones sistemáticas y los metaanálisis.


    Para evaluar la calidad de los artículos seleccionados se utilizó una herramienta de evaluación crítica que tenía en cuenta la metodología, la coherencia de los resultados, la pertinencia del estudio en el contexto de la investigación actual y la solidez de las conclusiones. Se prestó especial atención a la identificación de posibles sesgos en los estudios y a la solidez de sus metodologías y análisis.


  3. DESARROLLO


    El desafío de clasificar el software como Dispositivo Médico


    En el campo de la tecnología médica, las autoridades reguladoras deben examinar los productos basados en inteligencia artificial (IA) y aprendizaje automático (AA). En Estados Unidos, la definición de dispositivo médico se recoge en la Sección 201 (h) de la Ley Federal de Alimentos, Medicamentos y Cosméticos. Según esta definición, un producto sanitario incluye una amplia gama de instalaciones, aparatos, utensilios, máquinas, artilugios, implantes, reactivos in vitro o artículos análogos. No sólo incluye el dispositivo primario, sino también cualquier componente, pieza o accesorio asociado. El objetivo general de estos dispositivos es su aplicación prevista en el diagnóstico de enfermedades u otras afecciones médicas, así como en el ámbito de la curación, mitigación, tratamiento o prevención de enfermedades. Cabe señalar que estos dispositivos no logran sus funciones primarias previstas a través de la acción química dentro o sobre el cuerpo humano, y no se basan en procesos metabólicos para lograr sus objetivos primarios previstos.

    En el ámbito de la legislación estadounidense, es fundamental comprender que la jurisdicción para regular determinadas funcionalidades de software basadas en IA/AA puede no coincidir siempre con el ámbito definido por la definición de dispositivo de la Ley Federal de Alimentos, Medicamentos y Cosméticos. Sin embargo, es igualmente importante señalar que hay aplicaciones específicas de software basadas en IA/AA que entran claramente dentro de esta definición. Para explicarlo mejor, el "software como dispositivo médico" se refiere al software que funciona de forma autónoma como dispositivo médico, sin estar integrado con ningún dispositivo médico basado en hardware (Allison & Gilbert, 2023). Las consideraciones normativas en


    torno a la IA y el AA en la asistencia sanitaria son matizadas. Que una aplicación informática concreta entre dentro de los límites del regulador} depende de las características específicas y las funciones previstas del software. Esto pone de relieve la importancia de evaluar cada caso individualmente, dado el panorama en constante evolución de la tecnología médica.

    El sector sanitario tiene opiniones diversas sobre si los programas informáticos deben clasificarse como productos sanitarios. Este concepto normativo es complejo y carece de consenso. Sin embargo, es crucial comprender el firme compromiso de la Food and Drug Administration (FDA) con esta idea. Para mejorar este marco reglamentario, es necesario mirar más allá de un enfoque limitado al producto en sí. Este análisis pretende desentrañar los diversos aspectos del software en la atención sanitaria, reconociendo al mismo tiempo la naturaleza siempre cambiante de la tecnología y la necesidad de una normativa adaptable.


    El impacto de la inteligencia artificial en la regulación de dispositivos médicos


    El auge de la Inteligencia Artificial (IA) y el Aprendizaje Automático (AA) en el software médico presenta retos únicos para las autoridades reguladoras. A diferencia de los productos farmacéuticos y dispositivos médicos tradicionales, el software basado en IA/AA demuestra una mayor variabilidad en el rendimiento cuando pasa de las pruebas controladas a los entornos clínicos del mundo real (Wellnhofer, 2022). Esta incertidumbre y los riesgos asociados repercuten en la eficacia y seguridad de estas tecnologías. Múltiples factores contribuyen a esta variabilidad, incluidos los elementos humanos y las complejas interacciones dentro del entorno operativo. Debido a estos factores y a la naturaleza en constante evolución de la IA/AA, la regulación del software médico plantea retos complejos y cambiantes. Para garantizar la seguridad de los pacientes y liberar el potencial transformador de la IA/AA en la atención sanitaria, es necesario un enfoque integral y adaptable.

    A diferencia de los productos farmacéuticos, las dinámicas organizativas como la asignación de recursos, los procesos operativos, las métricas de rendimiento y las relaciones con los clientes tienen un impacto significativo en la utilización de software y tecnologías de la información (TI) (Udagedara & Allman, 2019). Como resultado, es


    razonable esperar que la adopción y el impacto del software basado en IA/AA como dispositivos médicos sean desiguales en todos los entornos de atención médica, con resultados inconsistentes. Un ejemplo cautelar es la historia de la detección asistida por ordenador para mamografías, que recibió importantes incentivos financieros de los Centros de Servicios de Medicare y Medicaid a principios de la década de 2000 con el objetivo de mejorar la detección del cáncer de mama.

    En el entorno de la IA/AA, el juicio humano conlleva sesgos bien conocidos. Estos sesgos incluyen la dificultad para interpretar con precisión las probabilidades dadas por los sistemas de IA/AA, la tendencia a extraer conclusiones excesivas a partir de conjuntos de datos pequeños, la detección de patrones falsos en datos ruidosos y el exceso de cautela (Jia, 2021). (Jia, 2021). Incluso dentro de un mismo entorno clínico y entre profesionales individuales, puede haber una variación significativa a lo largo del tiempo en términos de experiencia y toma de decisiones diarias. Por ejemplo, se ha observado que los jueces tienen diferentes niveles de tolerancia al riesgo a lo largo de un mismo día.

    La complejidad de los sistemas de IA/AA en la sanidad plantea un reto a las autoridades reguladoras, porque las tecnologías son polifacéticas y evolucionan constantemente, lo que dificulta el establecimiento de criterios de evaluación. Las instituciones sanitarias y los profesionales de la salud también tienen dificultades para determinar el valor de estos sistemas para sus prácticas. Agencias reguladoras como la FDA han tomado medidas para resolver estos problemas, como programas de formación obligatorios y pruebas de validación. Sin embargo, a medida que los sistemas de IA/FM se integran más, surgen nuevos problemas sistémicos, matizados y potencialmente complejos.

    El software basado en IA/MF que se clasifica como dispositivo médico difiere de las tecnologías médicas tradicionales, como el sistema quirúrgico da Vinci. Una distinción clave es que los sistemas de IA/MF pueden aprender continuamente, mientras que las tecnologías médicas estáticas basadas en reglas no pueden hacerlo (Athanasopoulou et al., 2022). Esta capacidad permite que el software basado en IA/FM se integre ampliamente en diversos aspectos de los flujos de trabajo médicos, lo que repercute en la toma de decisiones clínicas, el diagnóstico y la atención general


    al paciente. Sin embargo, los procesos de toma de decisiones de los algoritmos de IA/FM suelen ser opacos, lo que plantea dificultades a los médicos. Esta opacidad dificulta que los médicos comprendan el razonamiento del algoritmo, lo que suscita preguntas y preocupaciones entre las autoridades reguladoras. Éstas deben considerar si existen variaciones en las interacciones de los médicos con el mismo algoritmo en función de sus percepciones sobre su explicabilidad y previsibilidad.

    El uso de software basado en IA/MF en el ámbito médico es cada vez más complejo. Estos sistemas están diseñados para interactuar con los médicos y adaptarse a sus preferencias. Sin embargo, esta interacción dinámica crea incertidumbre sobre los resultados específicos que producirá el software (Asan et al., 2020). Incluso la realización de pruebas de factores humanos puede no predecir con exactitud estos resultados, sobre todo si las evaluaciones no se realizan en entornos clínicos reales. Esta imprevisibilidad supera la variabilidad observada en el uso de productos farmacéuticos para grupos específicos de pacientes.

    El impacto del software basado en IA/AA en la atención sanitaria depende de varios factores. Si bien las aprobaciones normativas pueden otorgar a los médicos la autoridad para anular las recomendaciones de software, en la práctica, estas anulaciones son poco frecuentes debido a las políticas de reembolso que favorecen las recomendaciones de IA/AA. El proceso de aprobación reglamentaria debe tener en cuenta esta disparidad y centrarse en el desarrollo de un marco integral para gestionar el cambiante panorama de la atención sanitaria. Descuidar estas consideraciones sistémicas daría lugar a una revisión reglamentaria inadecuada. Curiosamente, el aumento de la autonomía de los sistemas de IA/AA puede conducir paradójicamente a una mayor previsibilidad en la relación entre el ser humano y la IA.


    Desafíos regulatorios en la evaluación de software medico basado en IA


    La evaluación del software basado en IA y AA como dispositivos médicos plantea retos normativos. La Administración de Alimentos y Medicamentos (FDA) se enfrenta a dificultades para adoptar una perspectiva integral del sistema (Gilbert et al., 2021). Para cumplir eficazmente su mandato, las autoridades reguladoras necesitan recopilar una amplia gama de información que va más allá de su ámbito actual. Esto


    incluye las decisiones de reembolso de las aseguradoras sanitarias, el impacto de los juicios legales sobre la responsabilidad, los posibles sesgos en la toma de decisiones, la calidad de los datos de terceros proveedores, los algoritmos de aprendizaje automático desarrollados por entidades externas y otros factores importantes.

    En un enfoque global, el organismo regulador emitiría autorizaciones limitadas, teniendo en cuenta factores como las necesidades de las instituciones sanitarias y los usuarios autorizados. Estas autorizaciones serían personalizadas, con criterios específicos. Para ponerlo en práctica, los hospitales necesitarían información detallada sobre la integración del software basado en IA/AA en su flujo de trabajo, las prácticas de los médicos y la intersección de la responsabilidad extracontractual en la toma de decisiones sanitarias (Jorstad, 2020). Este enfoque difiere de las prácticas reguladoras actuales, que suelen centrarse en un conjunto más limitado de consideraciones durante las revisiones.

    Al considerar un enfoque de sistema exhaustivo, se plantea la cuestión de hasta qué punto deben participar los reguladores en la validación de conjuntos de datos precisos para la comparación. Además, debido a la naturaleza siempre cambiante de los sistemas sanitarios, un enfoque de sistema exhaustivo no consideraría la aprobación previa a la comercialización a nivel hospitalario como un hecho puntual, sino más bien como un proceso continuo y continuamente evaluado (Feng et al., 2022). Aunque la FDA supervisa actualmente la seguridad de los productos médicos a través de iniciativas como el programa Centinela, un enfoque integral del sistema requeriría un esfuerzo mucho mayor que el que se está realizando actualmente.

    En la actualidad, la FDA se rige por el principio de no regular la práctica de la medicina. Sin embargo, a medida que los sistemas de IA/AA en la atención sanitaria se vuelven más sofisticados, pueden ser necesarios cambios integrales en los procesos reguladores y posibles mandatos. Es importante reconocer que una transformación completa puede ser difícil o indeseable, ya que podría obstaculizar la innovación o afectar a las partes interesadas en el ecosistema sanitario. Por lo tanto, cualquier cambio hacia un enfoque integral debe ser cuidadosamente evaluado y equilibrado para alinearse con los objetivos de seguridad del paciente, calidad de la atención sanitaria e innovación en el sector sanitario.


    Estrategias regulatorias para la integración exitosa del software basado en IA


    El panorama normativo actual está plagado de obstáculos, como la escasez de conocimientos, la limitación de recursos, las complejidades políticas y la dificultad de controlar el comportamiento humano. En consecuencia, la aprobación y supervisión de sistemas integrales plantea importantes retos. Sin embargo, las autoridades reguladoras como la FDA deberían ampliar sus puntos de vista y considerar nuevos enfoques para garantizar la utilización segura y eficiente de las tecnologías emergentes en el ámbito médico, en concreto los sistemas de IA y AA.

    La perspectiva en evolución de la FDA sobre el software médico basado en IA/AA sugiere un enfoque viable centrado en la supervisión del rendimiento en el mundo real en lugar de regular todo el sistema sanitario. Este enfoque implica dirigir los esfuerzos reguladores hacia aspectos específicos para mejorar la seguridad y la eficacia, al tiempo que se reconoce la naturaleza dinámica de las tecnologías de IA y AA (Thakkar et al., 2023). Por ejemplo, la FDA puede imponer un análisis exhaustivo de los factores humanos, que evalúe cómo interactúan los profesionales sanitarios con los resultados del sistema de IA en la práctica clínica. También pueden implantarse programas obligatorios de formación de usuarios para normalizar el uso de las tecnologías de IA entre los profesionales sanitarios y reducir las variaciones en la práctica causadas por la integración de software médico basado en IA/AA. Este enfoque normativo adaptado y adaptable hace hincapié en los factores que contribuyen al uso seguro y eficaz de las tecnologías de IA.

    La FDA, aunque no regula directamente la práctica médica, puede imponer requisitos de formación a los desarrolladores de software de IA utilizado en aplicaciones médicas. En particular, en casos anteriores relacionados con software médico basado en IA, la FDA ha exigido programas de formación para profesionales sanitarios. Estos programas incluyen instrucciones sobre adquisición y procesamiento de imágenes (Food and Drug Administration, 2019). Para mejorar la supervisión en el contexto del software médico basado en IA/AA, los reguladores pueden considerar la implementación de un monitoreo continuo del sistema para evaluar el rendimiento y la seguridad. También pueden introducir requisitos de reciclaje periódicos para garantizar que los profesionales sanitarios mantengan la competencia en la utilización


    de sistemas de IA. Además, pueden llevarse a cabo inspecciones del software y de su uso para validar el cumplimiento de las normas establecidas. El análisis de los datos agregados puede contribuir aún más a mejorar los marcos normativos.

    Las autoridades reguladoras del sector sanitario pueden adoptar un enfoque polifacético para regular los sistemas de inteligencia artificial y aprendizaje automático (IA/AA). Un aspecto es la aplicación de requisitos estrictos para los procesos de validación de datos y modelos. Esto subraya la importancia de que los sistemas de IA/AA sean robustos frente a los retos del mundo real, como los problemas de calidad de los datos y los ataques de adversarios. (Qayyum et al., 2021). Mediante la aplicación de estos requisitos en entornos clínicos, se puede garantizar la fiabilidad y seguridad de estos sistemas. Además, los reguladores pueden incorporar varios niveles de discrecionalidad del usuario dentro del marco regulador. Esto puede implicar la concesión a los usuarios de diferentes niveles de autonomía cuando los sistemas de IA proporcionen recomendaciones probabilísticas. Esto permite una toma de decisiones personalizada basada en las preferencias y circunstancias individuales. Los reguladores también pueden imponer la disponibilidad de diferentes cursos de acción y opciones de parámetros en los sistemas de IA/AA. Esto proporciona flexibilidad a los profesionales e instituciones sanitarias para adaptar la tecnología a contextos clínicos específicos y a las necesidades de los pacientes. Este enfoque matizado de la regulación reconoce la naturaleza dinámica de las tecnologías de IA/AA y pretende lograr un equilibrio entre los requisitos estandarizados y la adaptabilidad en la asistencia sanitaria.

    Para reforzar la seguridad y aumentar la eficacia del software médico de IA/AA, los reguladores podrían pensar en añadir requisitos de ensayo en entornos clínicos reales. Estos ensayos ofrecen valiosos hallazgos que van mucho más allá de las pruebas habituales en entornos de laboratorio. Ofrecen información de primera mano sobre el funcionamiento de estas tecnologías en el mundo real (Ellahham et al., 2020). Además, la recopilación de datos puede provenir de lugares distintos a los ensayos clínicos típicos, por ejemplo, wearables como Fitbits. Sin olvidar la inclusión de historiales médicos electrónicos que muestren cómo se toman las decisiones utilizando software de IA/AA. Utilizando todas estas fuentes de datos diferentes, los reguladores pueden comprender el uso práctico, la eficacia y la seguridad de estas


    piezas tecnológicas en la práctica asistencial real. De este modo se obtendrá un conjunto de normas y directrices adaptables y bien informadas.

    En esencia, las instituciones sanitarias deben cambiar su forma de interactuar con las herramientas basadas en IA/AA. En lugar de verlas como herramientas separadas o adicionales, deben considerarlas miembros esenciales del equipo dentro del sistema sanitario. Del mismo modo que las pruebas cognitivas no pueden predecir el rendimiento de un médico en un sistema sanitario concreto, el software médico basado en IA/AA necesita una evaluación y un ajuste continuos para garantizar una integración fluida y una funcionalidad óptima en el complejo ecosistema sanitario. Este cambio de perspectiva reconoce la naturaleza dinámica de las tecnologías de IA/AA y su potencial para mejorar las capacidades de los profesionales sanitarios. Promueve un enfoque colaborativo e iterativo de la prestación de asistencia sanitaria que combina la experiencia humana con la inteligencia artificial.


    Evaluación Regulatoria de Software Médico basado en IA


    La FDA ha evaluado exhaustivamente el software médico que utiliza inteligencia artificial (IA) y aprendizaje automático (AA). Estos sistemas de software han sido sometidos a una rigurosa evaluación por parte de la FDA, que ha dado como resultado su autorización o aprobación bajo la clasificación de "algoritmos bloqueados". Los algoritmos bloqueados, según la definición de la FDA, son algoritmos que producen sistemáticamente los mismos resultados cuando se les dan las mismas entradas y demuestran un rendimiento constante y fiable durante un largo período de tiempo (Gerke et al., 2020). Esto pone de relieve el meticuloso enfoque regulador de la FDA hacia la IA.

    Los algoritmos adaptativos, que tienen la capacidad de evolucionar y adaptarse en respuesta a nuevas entradas de datos, requieren una estrategia reguladora para que el valor del software basado en IA/AA radique en su capacidad de adaptarse y mejorar con datos actuales y representativos. Sin embargo, evaluar las actualizaciones de estos sistemas en su conjunto plantea retos. La gestión de las actualizaciones de los programas informáticos adaptativos basados en IA/AA exige centrarse en la supervisión de los riesgos dentro del marco normativo (Meskó & Topol, 2023). La


    creciente complejidad de las obligaciones normativas para regular el software de dispositivos médicos pone de relieve el papel polifacético que desempeñan estas tecnologías en la prestación de asistencia sanitaria. Para garantizar que la atención al paciente no se vea comprometida, es esencial un enfoque proactivo y exhaustivo de la evaluación y mitigación de riesgos, teniendo en cuenta la naturaleza evolutiva de estas tecnologías y su impacto.

    En el ámbito de los sistemas de IA, es posible que un sistema autónomo obtenga la aprobación de actualizaciones. Estas actualizaciones pueden probarse en un grupo de pacientes, utilizando sus datos anteriores, o incluso datos de pacientes simulados. Esto puede ocurrir en un escenario en el que no haya intervención humana. Sin embargo, es importante tener en cuenta la perspectiva del sistema y cómo interactúan las actualizaciones con los patrones de uso humano y las variables organizativas. (Aggarwal et al., 2020; Davahli et al., 2021). Es fundamental reconocer que las actualizaciones del software médico basado en IA/AA pueden tener efectos neutros o incluso positivos en los factores humanos. Evaluar el impacto de las actualizaciones se convierte en un reto para los reguladores cuando hay una participación humana significativa en la toma de decisiones.


  4. CONCLUSIONES


Las normativas tradicionales centradas únicamente en la evaluación de productos individuales son inadecuadas para abordar las complejidades y los rápidos avances del software médico basado en IA y AA. Para ello, los reguladores deben adoptar una perspectiva más amplia que tenga en cuenta todo el ecosistema sanitario. Al adoptar un enfoque sistémico, los reguladores pueden comprender mejor la interconexión de las aplicaciones de IA y AA en la atención sanitaria y su papel dentro del panorama sanitario más amplio. Este enfoque reconoce las interdependencias e interacciones entre diversos elementos, como el software, los proveedores de atención sanitaria, los pacientes y las fuentes de datos, todos los cuales contribuyen a la prestación de la atención y a los resultados de los pacientes.


Pasar a una configuración de normas para todo el sistema es un paso hacia la resolución de los problemas creados por la IA y el aprendizaje automático en la atención sanitaria. Los riesgos incluyen cuestiones en torno a la eficiencia, la seguridad, la rendición de cuentas y la claridad, por lo que el marco normativo proporciona un estudio exhaustivo de estas nuevas herramientas tecnológicas, lo que ayuda a identificar cualquier riesgo y establecer medidas de seguridad sólidas. De este modo se fomenta la confianza en el uso de la IA y el AA en el software médico.

El uso de software de inteligencia artificial (IA) y aprendizaje automático (AA) en dispositivos médicos presenta nuevos retos de seguridad para las autoridades reguladoras. Deben decidir si prescindir de los factores humanos en el proceso de aprobación y actualización o exigir pruebas exhaustivas para garantizar la validación organizativa y de los factores humanos. Este último enfoque aumenta el escrutinio, pero también conlleva mayores costes y plazos más largos. Estas posibles consecuencias pueden disuadir a los fabricantes de llevar a cabo innovaciones o actualizaciones beneficiosas. Encontrar el equilibrio adecuado en este complejo panorama normativo es un reto y puede llevar mucho tiempo resolverlo. Sin embargo, no parece práctico ignorar por completo los aspectos sistémicos del software médico basado en IA/AA.

La incorporación de las tecnologías de IA y AA a los dispositivos médicos ha planteado importantes consideraciones para la regulación de la seguridad. Las autoridades reguladoras se enfrentan a una decisión crítica con importantes consecuencias. Deben decidir si adoptar un enfoque indulgente que pase por alto los factores sistémicos y humanos durante la aprobación y las actualizaciones, o imponer pruebas rigurosas para cada actualización de software. El enfoque indulgente puede comprometer las evaluaciones de seguridad, mientras que el riguroso plantea limitaciones financieras y de tiempo. Los fabricantes corren el riesgo de incurrir en costes más elevados y plazos más largos, lo que podría desincentivar las mejoras innovadoras. Navegar por este laberinto normativo requiere encontrar el equilibrio adecuado, una tarea que exige una cuidadosa consideración y perfeccionamiento.

La incorporación de software basado en IA y AA al panorama de los dispositivos médicos plantea retos a las autoridades reguladoras. Para garantizar la supervisión


de la seguridad, los reguladores se enfrentan a una decisión crucial. Pueden optar por un enfoque indulgente, pasando por alto consideraciones sistémicas y de factor humano durante los procesos de aprobación y actualización. Sin embargo, este enfoque puede socavar una evaluación exhaustiva de los aspectos de seguridad. Como alternativa, los reguladores pueden exigir rigurosas pruebas de validación organizativa y de factores humanos para cada actualización de software. Aunque esto promete una evaluación exhaustiva, también impone importantes limitaciones financieras y de tiempo. Esto, a su vez, puede disuadir a los fabricantes de llevar a cabo actualizaciones innovadoras. En consecuencia, el panorama normativo está evolucionando hacia un delicado equilibrio entre la seguridad y el fomento de la innovación.

En el campo de los dispositivos médicos, las autoridades reguladoras se enfrentan a complejos retos de seguridad cuando introducen software basado en IA y AA. Deben tomar decisiones críticas con consecuencias de gran alcance. Un enfoque consiste en ser permisivo, centrándose menos en los factores sistémicos y humanos durante la aprobación y las actualizaciones. Sin embargo, con este planteamiento se corre el riesgo de pasar por alto aspectos de seguridad. Otra posibilidad es que los reguladores adopten un enfoque más estricto, exigiendo pruebas exhaustivas para cada actualización de software. Aunque esto promete una evaluación exhaustiva, también plantea limitaciones financieras y de tiempo. Los fabricantes pueden verse disuadidos de llevar a cabo innovaciones y actualizaciones beneficiosas. Así pues, el panorama normativo requiere una regulación cuidadosa para equilibrar la seguridad e innovación.


BIBLIOGRAFÍA


Abràmoff, M. D., Cunningham, B., Patel, B., Eydelman, M. B., Leng, T., Sakamoto, T., Blodi, B., Grenon, S. M., Wolf, R. M., Manrai, A. K., Ko, J. M., Chiang, M. F., Char, D., Abramoff, M., Blumenkranz, M., Chew, E., Chiang, M., Eydelman, M., Myung, D., … Blumenkranz, M. (2022). Foundational Considerations for Artificial Intelligence Using Ophthalmic Images. Ophthalmology, 129(2), e14- e32. https://doi.org/10.1016/j.ophtha.2021.08.023

Abràmoff, M. D., Cunningham, B., Patel, B., Eydelman, M. B., Leng, T., Sakamoto, T., Blodi, B., Grenon, S. M., Wolf, R. M., Manrai, A. K., Ko, J. M., Chiang, M. F., Char, D., Abramoff, M., Blumenkranz, M., Chew, E., Chiang, M., Eydelman, M., Myung, D., … Blumenkranz, M. (2022). Foundational Considerations for Artificial Intelligence Using Ophthalmic Images. Ophthalmology, 129(2), e14- e32. https://doi.org/10.1016/j.ophtha.2021.08.023

Aggarwal, N., Ahmed, M., Basu, S., Curtin, J. J., Evans, B. J., Matheny, M. E., Nundy,

S., Sendak, M. P., Shachar, C., Shah, R. U., & Thadaney-Israni, S. (2020). Advancing Artificial Intelligence in Health Settings Outside the Hospital and Clinic. NAM Perspectives, 2020, 10.31478/202011f. https://doi.org/10.31478/202011f

Allison, K., & Gilbert, S. (2023). Regulating Artificial Intelligence: Lessons from Medical Devices. Stanford University’s Program on Geopolitics, Technology, and Governance. https://fsi9-prod.s3.us-west-1.amazonaws.com/s3fs- public/2023-11/2023-11-01_-_allison_gilbert-

_regulating_ai_lessons_from_medical_devices.pdf


Alowais, S. A., Alghamdi, S. S., Alsuhebany, N., Alqahtani, T., Alshaya, A. I., Almohareb, S. N., Aldairem, A., Alrashed, M., Bin Saleh, K., Badreldin, H. A., Al Yami, M. S., Al Harbi, S., & Albekairy, A. M. (2023). Revolutionizing healthcare: The role of artificial intelligence in clinical practice. BMC Medical Education, 23(1), 689. https://doi.org/10.1186/s12909-023-04698-z


Asan, O., Bayrak, A. E., & Choudhury, A. (2020). Artificial Intelligence and Human Trust in Healthcare: Focus on Clinicians. Journal of Medical Internet Research, 22(6), e15154. https://doi.org/10.2196/15154

Athanasopoulou, K., Daneva, G. N., Adamopoulos, P. G., & Scorilas, A. (2022). Artificial Intelligence: The Milestone in Modern Biomedical Research. BioMedInformatics, 2(4), Article 4.

https://doi.org/10.3390/biomedinformatics2040049


Davahli, M. R., Karwowski, W., Fiok, K., Wan, T., & Parsaei, H. R. (2021). Controlling Safety of Artificial Intelligence-Based Systems in Healthcare. Symmetry, 13(1), Article 1. https://doi.org/10.3390/sym13010102

Ellahham, S., Ellahham, N., & Simsekler, M. C. E. (2020). Application of Artificial Intelligence in the Health Care Safety Context: Opportunities and Challenges. American Journal of Medical Quality, 35(4), 341-348.

https://doi.org/10.1177/1062860619878515


Feng, J., Phillips, R. V., Malenica, I., Bishara, A., Hubbard, A. E., Celi, L. A., & Pirracchio, R. (2022). Clinical artificial intelligence quality improvement: Towards continual monitoring and updating of AI algorithms in healthcare. Npj Digital Medicine, 5(1), Article 1. https://doi.org/10.1038/s41746-022-00611-y

Food and Drug Administration. (2019). Proposed regulatory framework for modifications to Artificial Intelligence/Machine Learning (AI/ML)-based Software as a Medical Device (SaMD) (United States of America). https://apo.org.au/node/228371

Gerke, S., Babic, B., Evgeniou, T., & Cohen, I. G. (2020). The need for a system view to regulate artificial intelligence/machine learning-based software as medical device. Npj Digital Medicine, 3(1), Article 1.

https://doi.org/10.1038/s41746-020-0262-2


Gilbert, S., Fenech, M., Hirsch, M., Upadhyay, S., Biasiucci, A., & Starlinger, J. (2021). Algorithm Change Protocols in the Regulation of Adaptive Machine Learning–Based Medical Devices. Journal of Medical Internet Research, 23(10), e30545. https://doi.org/10.2196/30545


Jia, Y. (2021). Embracing Machine Learning in Safety Assurance in Healthcare [PhD Thesis, University of York]. https://etheses.whiterose.ac.uk/30362/

Jorstad, K. T. (2020). Intersection of artificial intelligence and medicine: Tort liability in the technological age. Journal of Medical Artificial Intelligence, 3(0), Article

0. https://doi.org/10.21037/jmai-20-57


Khirasaria, R., Singh, V., & Batta, A. (2020). Exploring digital therapeutics: The next paradigm of modern health-care industry. Perspectives in Clinical Research, 11(2), 54-58. https://doi.org/10.4103/picr.PICR_89_19

Meskó, B., & Topol, E. J. (2023). The imperative for regulatory oversight of large language models (or generative AI) in healthcare. Npj Digital Medicine, 6(1), Article 1. https://doi.org/10.1038/s41746-023-00873-0

Muehlematter, U. J., Daniore, P., & Vokinger, K. N. (2021). Approval of artificial intelligence and machine learning-based medical devices in the USA and Europe (2015–20): A comparative analysis. The Lancet Digital Health, 3(3), e195-e203. https://doi.org/10.1016/S2589-7500(20)30292-2

Qayyum, A., Qadir, J., Bilal, M., & Al-Fuqaha, A. (2021). Secure and Robust Machine Learning for Healthcare: A Survey. IEEE Reviews in Biomedical Engineering, 14, 156-180. https://doi.org/10.1109/RBME.2020.3013489

Shumba, A.-T., Montanaro, T., Sergi, I., Fachechi, L., De Vittorio, M., & Patrono, L. (2022). Leveraging IoT-Aware Technologies and AI Techniques for Real-Time Critical Healthcare Applications. Sensors, 22(19), Article 19. https://doi.org/10.3390/s22197675

Thakkar, S., Slikker, W., Yiannas, F., Silva, P., Blais, B., Chng, K. R., Liu, Z., Adholeya, A., Pappalardo, F., Soares, M. da L. C., Beeler, P. E., Whelan, M., Roberts, R., Borlak, J., Hugas, M., Torrecilla-Salinas, C., Girard, P., Diamond,

M. C., Verloo, D., … Tong, W. (2023). Artificial intelligence and real-world data for drug and food safety – A regulatory science perspective. Regulatory Toxicology and Pharmacology, 140, 105388.

https://doi.org/10.1016/j.yrtph.2023.105388


Udagedara, R. S., & Allman, K. (2019). Organizational Dynamics and Adoption of Innovations: A Study within the Context of Software Firms in Sri Lanka. Journal of Small Business Management, 57(2), 450-475. https://doi.org/10.1111/jsbm.12378

Wellnhofer, E. (2022). Real-World and Regulatory Perspectives of Artificial Intelligence in Cardiovascular Imaging. Frontiers in Cardiovascular Medicine,

9. https://doi.org/10.3389/fcvm.2022.890809