
IA en el quirófano: promesas médicas bajo la lupa tras reportes de fallos y lesiones
El avance de la inteligencia artificial en dispositivos médicos acelera la innovación en hospitales, pero también despierta preocupación entre reguladores y pacientes ante un aumento de reportes por eventos adversos.
Un salto tecnológico con consecuencias inesperadas
La incorporación de inteligencia artificial (IA) en dispositivos médicos está transformando la práctica clínica a un ritmo sin precedentes. Sin embargo, junto con las promesas de mayor precisión y eficiencia, emergen reportes de cirugías fallidas, errores de identificación anatómica y posibles fallas de software que han encendido alarmas en Estados Unidos.
Uno de los casos más emblemáticos involucra a la empresa Acclarent, anteriormente vinculada a Johnson & Johnson y actualmente propiedad de Integra LifeSciences. En 2021, la compañía anunció la integración de IA en su sistema de navegación quirúrgica TruDi, utilizado en procedimientos para tratar sinusitis crónica.
Hasta antes de la actualización con algoritmos de aprendizaje automático, la Administración de Alimentos y Medicamentos de EE. UU. (FDA) había recibido reportes limitados sobre el dispositivo. Sin embargo, tras la incorporación de IA, los informes de fallos y eventos adversos aumentaron considerablemente, incluyendo lesiones graves.
Demandas y lesiones graves
Entre finales de 2021 y noviembre de 2025, al menos diez pacientes habrían sufrido lesiones asociadas al uso del sistema TruDi, según reportes regulatorios y demandas judiciales en Texas.
En dos casos documentados en tribunales federales, pacientes sometidas a sinuplastias —procedimiento mínimamente invasivo que utiliza un balón para abrir las cavidades sinusales— sufrieron accidentes cerebrovasculares tras la presunta lesión de la arteria carótida durante la cirugía.
Las demandas alegan que el sistema de navegación, potenciado con IA, habría desorientado a los cirujanos sobre la ubicación real de sus instrumentos. Las empresas implicadas niegan una relación causal entre la tecnología y las lesiones, señalando que los reportes regulatorios no determinan responsabilidades ni causas definitivas.
Un fenómeno más amplio
El caso de TruDi no es aislado. Según datos oficiales, la FDA ha autorizado al menos 1.357 dispositivos médicos que incorporan IA, el doble de los aprobados hasta 2022. Estos incluyen sistemas de imagenología, monitores cardíacos y software de ultrasonido.
Investigadores de Johns Hopkins University, Georgetown University y Yale University identificaron que decenas de dispositivos con IA estuvieron vinculados a retiradas del mercado poco después de su aprobación. En varios casos, los problemas surgieron en el primer año de comercialización.
Entre los reportes más recientes figura un software de ultrasonido prenatal que habría etiquetado incorrectamente partes del cuerpo fetal, así como monitores cardíacos que presuntamente omitieron ritmos anormales. Las compañías fabricantes sostienen que no se produjeron daños a pacientes o que los incidentes estuvieron relacionados con errores de uso.
Regulación bajo presión
El auge de la IA también plantea desafíos para la supervisión regulatoria. Científicos actuales y exempleados de la FDA señalaron que la agencia enfrenta dificultades para evaluar la creciente ola de dispositivos impulsados por aprendizaje automático, especialmente tras recortes de personal en divisiones clave.
A diferencia de los medicamentos, muchos dispositivos médicos no requieren ensayos clínicos extensivos antes de su aprobación. En numerosos casos, los fabricantes pueden obtener autorización demostrando que su producto es sustancialmente equivalente a uno ya existente, incluso si incorpora nuevas capacidades de IA.
Expertos en regulación médica advierten que este modelo podría no ser suficiente para abordar la complejidad y los riesgos potenciales de los algoritmos avanzados, cuyo desempeño puede variar según los datos con los que fueron entrenados.
Entre la innovación y el riesgo
La inteligencia artificial en medicina no es nueva: sus primeras aplicaciones regulatorias datan de la década de 1990. Sin embargo, el auge reciente —impulsado por avances en aprendizaje profundo y modelos generativos— ha acelerado su adopción en quirófanos, consultorios y aplicaciones para pacientes.
Sus defensores sostienen que la IA puede detectar tumores invisibles al ojo humano, optimizar procedimientos quirúrgicos y reducir errores médicos. Pero los casos bajo investigación subrayan que incluso pequeñas imprecisiones algorítmicas pueden tener consecuencias graves cuando se trasladan a contextos clínicos de alta complejidad.
El debate no gira en torno a si la IA debe formar parte del futuro de la medicina, sino bajo qué estándares de validación, transparencia y supervisión debe implementarse para garantizar que la innovación no comprometa la seguridad del paciente.
La revolución digital en salud ya está en marcha. La pregunta clave es si la regulación y los controles avanzarán al mismo ritmo que la tecnología.