Skip to main content

Jamás confíes en la IA para un diagnóstico médico: ChatGPT le dijo que no era grave, pero realmente tenía un cáncer en fase 4

29.10.2025

Warren Tierney, un hombre de 37 años de Killarney, Irlanda, consultó a ChatGPT por una irritación de garganta que parecía inofensiva. El sistema le aseguró que era poco probable que se tratara de algo serio, lo que le llevó a retrasar la visita al médico. Meses más tarde, recibió un diagnóstico devastador: cáncer de esófago en fase 4, una enfermedad avanzada con pronóstico complicado. El caso ha despertado preocupación sobre el papel de la inteligencia artificial en la autodiagnosis y su impacto en la toma de decisiones médicas.

Según se ha informado, Tierney experimentó molestias al tragar y ardor persistente, pero confió en las respuestas tranquilizadoras del chatbot. La aparente mejoría inicial reforzó su idea de que se trataba de una dolencia leve. Sin embargo, cuando los síntomas empeoraron —dificultad para tragar líquidos y pérdida de peso— acudió finalmente al hospital, donde se descubrió la gravedad de su situación. Él mismo reconoció después que su confianza en la IA le hizo perder un tiempo crucial para detectar el cáncer a tiempo.

El incidente ilustra un fenómeno cada vez más común: el uso de herramientas de inteligencia artificial como sustituto de la consulta médica. Aunque ofrecen información rápida y accesible, su falta de contexto clínico puede generar una peligrosa sensación de seguridad. Las advertencias de que no reemplazan a los profesionales sanitarios suelen pasar inadvertidas para quienes buscan una respuesta inmediata o alivio emocional ante síntomas preocupantes.

Especialistas en salud señalan que la inteligencia artificial puede ser valiosa como apoyo informativo o en la investigación de tratamientos, pero no puede sustituir el juicio humano ni la exploración física. El caso ha impulsado en Irlanda y otros países la discusión sobre cómo regular el uso de estas tecnologías, proponiéndose medidas como reforzar los avisos de riesgo, limitar las respuestas sobre diagnósticos y fomentar la derivación directa a profesionales ante síntomas potencialmente graves.