COMPARTIR | IMPRIMIR | EMAIL
Mi experiencia en medicina me permite distinguir entre la innovación genuina y una reclasificación sutil que altera fundamentalmente la práctica médica sin parecer inalterada. La inteligencia artificial ha atraído recientemente una atención considerable, incluyendo la afirmación ampliamente difundida de que la IA ha sido "legalmente autorizada para ejercer la medicina" en Estados Unidos. Interpretada literalmente, esta afirmación es inexacta. Ninguna junta médica ha autorizado una máquina. Ningún algoritmo ha prestado juramento, aceptado un deber fiduciario ni asumido responsabilidad personal por daños a pacientes. Ningún médico robot está abriendo una clínica, facturando a las aseguradoras ni compareciendo ante un jurado por negligencia médica.
Sin embargo, detenerse en esta observación pasa por alto la cuestión más amplia. Los conceptos jurídicos de responsabilidad se están redefiniendo actualmente, a menudo sin conocimiento público.
Se está produciendo una transformación significativa que justifica algo más que un rechazo reflexivo o un entusiasmo tecnológico acrítico. El desarrollo actual no implica la habilitación de la inteligencia artificial como médico, sino la erosión gradual del límite fundamental de la medicina: el vínculo intrínseco entre el juicio clínico y la responsabilidad humana. El juicio clínico implica tomar decisiones informadas adaptadas a las necesidades y circunstancias únicas de cada paciente, lo que requiere empatía, intuición y un profundo conocimiento de la ética médica.
La rendición de cuentas humana se refiere a la responsabilidad que asumen los profesionales sanitarios por estas decisiones y sus resultados. Esta erosión no es resultado de una legislación drástica ni de un debate público, sino que se produce silenciosamente mediante programas piloto, reinterpretaciones regulatorias y un lenguaje que oculta intencionalmente la responsabilidad. Una vez que esta frontera se disuelve, la medicina se transforma de maneras difíciles de revertir.
La principal preocupación no es si la IA puede resurtir recetas o detectar resultados de laboratorio anormales. La medicina lleva mucho tiempo utilizando herramientas, y los profesionales sanitarios suelen agradecer la ayuda que reduce las tareas administrativas o mejora el reconocimiento de patrones. La verdadera cuestión es si el juicio médico (decidir sobre las acciones, los pacientes y los riesgos correctos) puede considerarse un resultado generado por computadora, separado de la responsabilidad moral. Históricamente, los esfuerzos por desvincular el juicio de la responsabilidad a menudo han causado daño sin asumir la responsabilidad.
Los avances recientes aclaran el origen de la confusión actual. En varios estados, programas piloto limitados permiten que sistemas basados en IA ayuden con la renovación de recetas para enfermedades crónicas estables bajo protocolos estrictamente definidos. A nivel federal, la legislación propuesta ha considerado si la inteligencia artificial podría considerarse un "profesional" para fines legales específicos, siempre que esté debidamente regulada. Estas iniciativas suelen presentarse como respuestas pragmáticas a la escasez de médicos, los retrasos en el acceso y las ineficiencias administrativas. Si bien ninguna designa explícitamente a la IA como médico, en conjunto normalizan la premisa, más preocupante, de que las acciones médicas pueden ocurrir sin un responsable humano claramente identificable.
En la práctica, esta distinción es fundamental. La medicina no se define por la ejecución mecánica de tareas, sino por la asignación de responsabilidades cuando los resultados son desfavorables. Escribir una receta es sencillo; aceptar la responsabilidad de sus consecuencias, especialmente al considerar comorbilidades, contexto social, valores del paciente o información incompleta, es mucho más complejo. A lo largo de mi carrera, esta responsabilidad ha recaído continuamente en un ser humano al que se podía cuestionar, retar, corregir y exigir responsabilidades. Cuando el Dr. Smith comete un error, la familia sabe a quién contactar, lo que garantiza una línea directa con la responsabilidad humana. Ningún algoritmo, por sofisticado que sea, puede cumplir esta función.
El principal riesgo no es tecnológico, sino regulatorio y filosófico. Esta transición representa un cambio de la ética de la virtud al procedimentalismo. Cuando legisladores e instituciones redefinen la toma de decisiones médicas como una función de sistemas en lugar de actos personales, el marco moral de la medicina cambia. La rendición de cuentas se vuelve difusa, el daño es más difícil de atribuir y la responsabilidad se traslada de los médicos a los procesos, del juicio al cumplimiento del protocolo. Cuando inevitablemente ocurren errores, la explicación predominante es que «el sistema siguió las directrices establecidas». Reconocer esta transición aclara el cambio de la toma de decisiones éticas individualizada al cumplimiento mecanizado de los procedimientos.
Esta preocupación no es teórica. La atención médica contemporánea ya enfrenta desafíos relacionados con la falta de transparencia en la rendición de cuentas. He observado que pacientes perjudicados por decisiones basadas en algoritmos se pierden entre administradores, proveedores y modelos opacos, sin una respuesta clara a la pregunta fundamental: ¿Quién tomó esta decisión? La inteligencia artificial acelera significativamente este problema. Un algoritmo no puede ofrecer explicaciones morales, ejercer moderación basada en la conciencia, rechazar acciones por cuestiones éticas ni admitir errores ante un paciente o su familia.
Quienes defienden una mayor autonomía de la IA suelen justificarlo con la eficiencia. Las clínicas están desbordadas, los médicos sufren agotamiento y los pacientes a menudo esperan meses para recibir atención que debería durar solo unos minutos. Estas preocupaciones son legítimas y cualquier profesional sanitario honesto las reconoce. Sin embargo, la eficiencia por sí sola no justifica alterar los fundamentos éticos de la medicina. Los sistemas optimizados para la velocidad y la escalabilidad a menudo sacrifican la sutileza, la discreción y la dignidad individual. Históricamente, la medicina se ha resistido a esta tendencia, enfatizando que la atención es fundamentalmente una relación, no una transacción.
La inteligencia artificial corre el riesgo de invertir esta relación. Cuando los sistemas, en lugar de las personas, prestan atención, el paciente deja de estar vinculado a un acuerdo con el médico, para pasar a formar parte de un flujo de trabajo. El médico asume el rol de supervisor de la máquina o, lo que es más preocupante, actúa como un amortiguador legal que absorbe la responsabilidad por decisiones no tomadas personalmente. Con el tiempo, el juicio clínico da paso a la adherencia al protocolo, y la autonomía moral disminuye gradualmente.
La IA también introduce un problema más sutil y peligroso: el enmascaramiento de la incertidumbre. La medicina vive en la ambigüedad. La evidencia es probabilística. Las directrices son provisionales. Los pacientes rara vez se presentan como conjuntos de datos limpios. Los médicos están capacitados no solo para actuar, sino también para dudar: para reconocer cuándo la información es insuficiente, cuándo una intervención puede causar más daño que beneficio o cuándo lo adecuado es esperar. Imaginemos un escenario en el que la IA recomienda el alta, pero el cónyuge del paciente parece temeroso, lo que pone de relieve la tensión entre la toma de decisiones algorítmica y la intuición humana. Esta fricción en el mundo real subraya los riesgos de la ambigüedad.
Los sistemas de IA no experimentan incertidumbre; generan resultados. Cuando se equivocan, a menudo lo hacen con una confianza injustificada. Esta característica no es un fallo de programación, sino una característica inherente del modelado estadístico. A diferencia de los médicos experimentados que expresan abiertamente sus dudas, los modelos de lenguaje complejos y los sistemas de aprendizaje automático no reconocen sus propias limitaciones. Producen respuestas plausibles incluso cuando los datos son insuficientes. En medicina, la plausibilidad sin fundamentación puede ser peligrosa.
A medida que estos sistemas se integran más tempranamente en los flujos de trabajo clínicos, sus resultados influyen cada vez más en las decisiones posteriores. Con el tiempo, los profesionales clínicos pueden empezar a confiar en las recomendaciones no por su validez, sino porque se han normalizado. El juicio cambia gradualmente del razonamiento activo a la aceptación pasiva. En tales circunstancias, la intervención humana es apenas una salvaguardia simbólica.
Los defensores afirman con frecuencia que la IA solo "aumentará" a los profesionales clínicos, en lugar de reemplazarlos. Sin embargo, esta certeza es tenue. Una vez que la IA demuestra mejoras en la eficiencia, las presiones económicas e institucionales tienden a impulsar una mayor autonomía. Si un sistema puede resurtir recetas de forma segura, pronto podría estar autorizado a iniciarlas. Si puede diagnosticar con precisión afecciones comunes, se cuestiona la necesidad de la revisión médica. Si supera a los humanos en parámetros controlados, la tolerancia a la variabilidad humana disminuye.
Dadas estas tendencias, es esencial implementar medidas de seguridad específicas. Por ejemplo, las auditorías obligatorias de discrepancias en el 5 % de las decisiones basadas en IA podrían servir como un control concreto, garantizando la coherencia entre las recomendaciones de IA y el juicio clínico humano, a la vez que proporcionan a los organismos reguladores y a las juntas directivas de los hospitales métricas prácticas para supervisar la integración de la IA.
Estas preguntas no se plantean con mala intención; surgen de forma natural en sistemas centrados en la contención de costes y la escalabilidad. Sin embargo, indican un futuro en el que el criterio humano se convierte en la excepción, en lugar de la norma. En tal escenario, las personas con recursos seguirán recibiendo atención humana, mientras que otras se dirigirán mediante procesos automatizados. La medicina de dos niveles no será el resultado de la ideología, sino de la optimización.
Lo que hace que este momento sea especialmente precario es la ausencia de líneas claras de responsabilidad. Cuando una decisión impulsada por IA perjudica a un paciente, ¿quién es responsable? ¿Es el médico quien supervisa nominalmente el sistema? ¿La institución que lo implementó? ¿El proveedor que entrenó el modelo? ¿El organismo regulador que aprobó su uso? Sin respuestas explícitas, la responsabilidad se desvanece. Y cuando la responsabilidad se desvanece, la confianza pronto la sigue.
La medicina depende fundamentalmente de la confianza. Los pacientes ponen sus cuerpos, sus miedos y, a menudo, sus vidas en manos de los médicos. Esta confianza no puede transferirse a un algoritmo, por muy sofisticado que sea. Se basa en la seguridad de que hay un ser humano presente: alguien capaz de escuchar, adaptarse y responsabilizarse de sus acciones.
Rechazar por completo la inteligencia artificial es innecesario. Si se usa con criterio, la IA puede reducir la carga administrativa, identificar patrones que podrían eludir la detección humana y apoyar la toma de decisiones clínicas. Permite a los médicos dedicar más tiempo a la atención al paciente que a las tareas administrativas. Sin embargo, para alcanzar este futuro se requiere un compromiso claro con la responsabilidad humana como eje central de la práctica médica.
La participación humana debe significar más que una simple supervisión simbólica. Debe exigir que una persona específica sea responsable de cada decisión médica, comprenda su fundamento y conserve tanto la autoridad como la obligación de invalidar las recomendaciones algorítmicas. También debe implicar transparencia, explicabilidad y el consentimiento informado del paciente, así como el compromiso de invertir en profesionales clínicos humanos en lugar de sustituirlos por IA.
El principal riesgo no es el poder excesivo de la inteligencia artificial, sino la disposición de las instituciones a ceder responsabilidades. En la búsqueda de la eficiencia y la innovación, existe el peligro de que la medicina se convierta en un campo técnicamente avanzado y administrativamente simplificado, pero carente de fundamento moral.
Al considerar el futuro, es fundamental preguntarnos: ¿Qué tipo de sanador imaginamos en 2035? Esta pregunta exige imaginación moral colectiva, animándonos a forjar un futuro donde la responsabilidad humana y la atención compasiva sean la base de la práctica médica. Movilizar la agencia colectiva será crucial para garantizar que los avances en inteligencia artificial potencien, en lugar de socavar, estos valores fundamentales.
La inteligencia artificial no ha recibido licencia para ejercer la medicina. Pero la medicina se está rediseñando discretamente en torno a sistemas sin peso moral. Si este proceso continúa sin control, algún día podríamos descubrir que el médico no ha sido reemplazado por una máquina, sino por un protocolo, y que cuando ocurre un daño, no queda nadie que responda por él.
Eso no sería progreso. Sería una abdicación.
-
Dr. José Varon, Es médico de cuidados intensivos, profesor y presidente de la Alianza Médica Independiente. Es autor de más de 980 publicaciones con revisión por pares y editor jefe del Journal of Independent Medicine.
Ver todos los artículos