
Cohen, Shy. “Chatbots Outperform Doctors in Diagnosing Many Diseases, Study Finds.” The Brighter Side of News, April 26, 2026.
Dos investigaciones dirigidas por Stanford Medicine han reavivado el debate sobre el papel de la inteligencia artificial en la medicina al mostrar que los chatbots avanzados pueden igualar e incluso superar a los médicos en determinadas tareas diagnósticas y de toma de decisiones clínicas complejas. Los estudios, publicados en las revistas Nature Medicine y npj Digital Medicine, no plantean la sustitución del profesional sanitario, sino una nueva forma de colaboración entre médicos y sistemas de IA. Según los autores, la mejor atención no surge cuando trabaja solo el humano ni cuando actúa sola la máquina, sino cuando ambos combinan sus fortalezas.
Los investigadores se centraron en un tipo de situaciones muy frecuentes en la práctica médica: casos donde el diagnóstico no basta para decidir qué hacer después. Saber qué enfermedad tiene un paciente es solo una parte del problema; luego hay que elegir si operar o esperar, si cambiar una medicación, si hacer una biopsia o si solicitar nuevas pruebas. Estas decisiones dependen de múltiples factores, como el historial del paciente, los riesgos del tratamiento, la disponibilidad del sistema sanitario o incluso las preferencias personales del enfermo. En esa “zona gris” de la medicina, donde no existe una respuesta única y automática, la IA mostró un rendimiento notable.
En el primer estudio se compararon tres grupos: un chatbot funcionando por sí solo, médicos apoyados por un chatbot y médicos que solo podían consultar internet y fuentes médicas convencionales. A todos se les presentaron cinco casos clínicos anonimizados y debían explicar qué harían, por qué lo harían y qué elementos influían en su decisión. Posteriormente, especialistas certificados evaluaron la calidad de esas respuestas mediante una rúbrica clínica. El resultado fue llamativo: el chatbot obtuvo mejores puntuaciones que los médicos que trabajaban sin IA, mientras que los médicos que utilizaron apoyo del chatbot alcanzaron resultados similares a los de la máquina.
Este hallazgo llevó a una segunda investigación, orientada a una cuestión más práctica: si médico e inteligencia artificial colaboran, ¿cuál es el mejor orden de intervención? Para responderla, el equipo desarrolló un sistema basado en OpenAI GPT-4 diseñado específicamente para razonar junto a médicos. Se probaron dos escenarios: en el primero, la IA analizaba el caso antes que el clínico; en el segundo, el médico emitía primero su opinión y luego consultaba la respuesta de la IA. Después, el sistema generaba una síntesis conjunta señalando coincidencias, discrepancias y críticas de ambas posturas.
Participaron setenta médicos con licencia en Estados Unidos, entre residentes y especialistas consolidados, casi todos del área de medicina interna. Los médicos que solo usaron recursos convencionales obtuvieron una media del 75%. Quienes trabajaron con IA como primera opinión alcanzaron el 85%, mientras que los que usaron la IA como segunda opinión llegaron al 82%. El chatbot en solitario obtuvo el promedio numérico más alto, con un 87%, aunque sin diferencias estadísticamente decisivas respecto a los médicos asistidos por IA.
Más interesante aún fue comprobar que el orden de colaboración modificaba los resultados. Cuando la IA actuaba primero, las decisiones clínicamente accionables —es decir, diagnóstico final y pasos inmediatos de tratamiento— fueron superiores en casi un 9% respecto al grupo donde el médico hablaba antes. También se observó una ligera mejora en velocidad de resolución. Los investigadores creen que esto se debe a un fenómeno de “anclaje”: cuando el médico emite primero su juicio, la IA tiende a alinearse con esa idea inicial, en lugar de ofrecer una valoración verdaderamente independiente.
El análisis cualitativo mostró además un aspecto humano inesperado. Muchos médicos empezaron a interactuar con la IA como si fuera un colega de trabajo, escribiendo frases como “Buena idea” o “Gracias por tu ayuda”. Esto sugiere que la inteligencia artificial no solo puede funcionar como herramienta técnica, sino también como interlocutor cognitivo que estimula reflexión, contraste de hipótesis y revisión de decisiones.
No obstante, los propios autores advierten importantes límites. Los estudios se realizaron con casos clínicos simulados y estructurados, no con pacientes reales en consulta u hospital. En la práctica cotidiana intervienen conversaciones, exploraciones físicas, incertidumbre emocional y factores sociales difíciles de reproducir en un experimento. Además, la IA mostró errores y comportamientos inconsistentes: en algunos casos ofreció respuestas distintas ante el mismo problema, y en otros interpretó mal datos básicos, como considerar fiebre una temperatura normal.
Por ello, los investigadores insisten en un mensaje clave: los pacientes no deberían sustituir la consulta médica por un chatbot. La IA puede ser útil para apoyar diagnósticos difíciles, comparar opciones terapéuticas o reducir errores, pero la responsabilidad final debe seguir recayendo en profesionales humanos. La empatía, el juicio clínico contextual, la ética y la relación médico-paciente siguen siendo dimensiones que ninguna máquina domina plenamente.
En conjunto, estas investigaciones apuntan a que el futuro de la medicina probablemente no será “médicos contra inteligencia artificial”, sino médicos con inteligencia artificial. El verdadero desafío no consiste solo en crear modelos más potentes, sino en diseñar flujos de trabajo seguros, fiables y bien integrados donde la tecnología complemente al profesional. En ese equilibrio podría estar una de las mayores transformaciones sanitarias de las próximas décadas.