La inteligencia artificial ha comenzado a integrarse en el ámbito médico, prometiendo optimizar tareas administrativas, aliviar la carga laboral de los profesionales y mejorar la relación entre médicos y pacientes. Sin embargo, esta incorporación plantea preguntas críticas sobre la confiabilidad y el impacto en el ejercicio clínico. Un informe especial de The Washington Post detalla que, aunque estas herramientas tecnológicas tienen un gran potencial para transformar la práctica médica, los riesgos asociados, como la reproducción de errores y sesgos, generan incertidumbres en los pacientes.
Adopción de la inteligencia artificial en la medicina
En los últimos años, miles de médicos han comenzado a utilizar sistemas de inteligencia artificial en su rutina diaria, como la transcripción de notas clínicas y la redacción de mensajes. Un ejemplo destacado es el software DAX Copilot, desarrollado por Microsoft Nuance, que captura conversaciones durante las consultas médicas y genera resúmenes clínicos. Estas herramientas permiten a los médicos dedicar más tiempo a interactuar directamente con los pacientes, eliminando la necesidad de teclear en una computadora durante la consulta.
La velocidad con la que la medicina ha adoptado estas tecnologías refleja el ritmo de Silicon Valley, que contrasta con la tradicional prudencia basada en la evidencia del sector médico. Según el doctor Adam Rodman, especialista en medicina interna y experto del Centro Médico Beth Israel Deaconess, aunque estas herramientas son prometedoras, todavía no están listas para integrarse plenamente en el cuidado médico. El doctor Rodman advirtió: “Corremos el riesgo de degradar lo que hacemos al introducir ‘basura alucinada’ en la atención médica crítica”.
Beneficios potenciales de la inteligencia artificial
Los beneficios potenciales de la inteligencia artificial ofrecen varias ventajas al personal médico, especialmente en el ámbito administrativo. La reducción del estrés es una consecuencia común de la creciente carga administrativa. De acuerdo con un estudio difundido por ACP Journals, algunos médicos dedican dos horas en la oficina por cada hora de atención directa al paciente. Al automatizar la organización de datos, los médicos pueden liberar tiempo y mejorar la calidad de las interacciones con los pacientes. Un uso concreto de asistentes virtuales es la generación de borradores de respuestas, lo cual es particularmente relevante tras la pandemia de COVID-19, cuando la comunicación por correo electrónico aumentó significativamente.
Responder de manera eficiente reduce los tiempos de espera y evita retrasos en el tratamiento. Además, las aplicaciones han mejorado aspectos directos de la atención. Por ejemplo, Christopher Sharp, director de información de Stanford Health Care, destaca cómo la transcripción le permitió mantener un contacto visual constante con sus pacientes. Sharp explicó: “La meta es no solo mejorar la interacción interpersonal, sino también abordar el agotamiento causado por las tareas administrativas que afectan a los médicos”.
Riesgos asociados a la inteligencia artificial en la salud
A pesar de ofrecer soluciones innovadoras, la inteligencia artificial también conlleva riesgos significativos que pueden comprometer la seguridad y la eficacia de los tratamientos. Uno de los desafíos preocupantes es la generación de respuestas erróneas o inapropiadas. Otra investigación citada en el artículo indica que un modelo como ChatGPT proporcionó respuestas inadecuadas en el 20% de los casos evaluados, lo que puede difundir información imprecisa si no se supervisa adecuadamente.
Otro riesgo radica en la capacidad de la inteligencia artificial para “alucinar”, es decir, generar información que no corresponde a los datos reales proporcionados. Esto puede ser problemático en el ámbito clínico, donde la interpretación de datos puede influir negativamente en decisiones críticas. La profesora Roxana Daneshjou, de Stanford, destacó un caso en el que un sistema recomendó medidas contrarias a las pautas actualizadas para tratar la mastitis, sugiriendo compresas calientes y masajes, mientras que las recomendaciones actuales abogan por lo contrario.
La falta de regulación es otro factor alarmante. Muchas de estas herramientas requieren la aprobación de la Administración de Alimentos y Medicamentos (FDA), pero algunas ya están tomando forma de manera autónoma, puesto que sirven como apoyo a los médicos. Esto supone que los médicos sean responsables de verificar cuidadosamente las tareas que la inteligencia artificial realiza, asegurando que se lleve a cabo con el rigor necesario. Un estudio demostró que algunos tratamientos calificados clínicamente eran inapropiados, lo que subraya la importancia de revisar detenidamente las recomendaciones automatizadas. Ante estas tendencias, Sharp afirmó: “Siempre edito para asegurarme de que sea correcto”.


