Un médico parece preocupado mientras las advertencias sobre información errónea y los iconos de exclamación se arremolinan a su alrededor, representando la desinformación sanitaria impulsada por la inteligencia artificial.

La próxima ola de desinformación sobre pacientes impulsada por la IA (y cómo pueden prepararse los médicos)

Los sistemas de IA generativa pueden redactar ensayos similares a los humanos, responder preguntas y conversar sobre casi cualquier tema. Si bien estos modelos ofrecen posibilidades interesantes para la educación de los pacientes, también presentan un nuevo riesgo: consejos médicos plausibles pero incorrectos. Los médicos deben anticipar cómo los pacientes podrían consumir Información generada por IA y prepárese para contrarrestar la desinformación antes de que perjudique los resultados.

Cómo la IA genera desinformación

Los modelos lingüísticos de gran tamaño aprenden patrones en los textos mediante la lectura de millones de documentos. No comprenden realmente el contenido que producen, sino que predicen qué palabras es probable que aparezcan a continuación. Cuando se les formula una pregunta médica, generan una respuesta que suena autoritaria, pero que puede ser errónea o incompleta desde el punto de vista factual. Además, dado que estos modelos a veces alucinan —inventando detalles plausibles cuando carecen de datos—, una respuesta puede incluir tratamientos, estadísticas o mecanismos ficticios.

Los chatbots y los asistentes de voz basados en estos modelos pueden ofrecer consejos directamente a los pacientes sin la supervisión de un médico. Algunas plataformas resumen contenidos procedentes de fuentes dispares (incluidos blogs sin verificar o estudios obsoletos), lo que agrava los errores. Las redes sociales amplifican estos contenidos, lo que permite que los consejos inexactos o peligrosos se difundan rápidamente.

Consecuencias para los pacientes

La desinformación impulsada por la IA puede provocar retrasos en el tratamiento, el uso indebido de medicamentos o la adopción de prácticas perjudiciales. Por ejemplo, un chatbot que tranquilice erróneamente a un paciente sobre un dolor en el pecho podría retrasar la atención de urgencia; una IA que resuma los beneficios de un suplemento podría omitir las contraindicaciones. Con el tiempo, la exposición repetida a información inexacta erosiona la confianza en la medicina basada en la evidencia.

Cómo pueden prepararse los médicos

  1. Manténgase informado sobre Herramientas de IA: Comprenda cómo funcionan los populares chatbots y las aplicaciones de salud, sus limitaciones conocidas y de dónde obtienen los datos. Pruébelos con preguntas comunes de los pacientes para ver qué respuestas dan.

  2. Educar a los pacientes: Durante las citas, pregunte a los pacientes si están utilizando herramientas de IA para obtener asesoramiento médico. Anímeles a verificar cualquier orientación online o de chatbot con usted u otros profesionales.

  3. Proporcionar recursos fiables: Mantener un sitio web actualizado o perfil (por ejemplo, a través de Guide.MD) con información precisa sobre afecciones comunes, medicamentos y procedimientos. Recomiende sitios web o aplicaciones de confianza que hayan sido seleccionados por profesionales médicos.

  4. Defensor de la regulación y las normas: Apoyar los esfuerzos para establecer normas de seguridad para la información sanitaria basada en IA. Animar a los desarrolladores de IA a incluir divulgaciones, citar fuentes e implementar controles de seguridad para identificar consejos de alto riesgo.

  5. Corrija rápidamente la información errónea: Si se difunde un rumor perjudicial generado por la IA (por ejemplo, a través de las redes sociales), abórdelo públicamente. Proporcione explicaciones claras y pruebas para contrarrestar las afirmaciones falsas.

  6. Colabora con desarrolladores de IA: Ofrezca su experiencia a las empresas que desarrollan IA relacionada con la salud. La aportación de los médicos puede mejorar la precisión y reducir el riesgo de resultados perjudiciales.

La IA transformará inevitablemente la forma en que los pacientes buscan información. En lugar de resistirse a su uso, los médicos deben guiar su integración responsable en la atención sanitaria. Al educarse a sí mismos y a sus pacientes de forma proactiva, los médicos pueden mitigar los riesgos de la desinformación impulsada por la IA y garantizar que la tecnología mejore, en lugar de socavar, la práctica basada en la evidencia.

Por Publicado el: noviembre 16th, 2025Categorías: Physician Identity, AI & Online PresenceComentarios desactivados en The Coming Wave of AI‑Driven Patient Misinformation (And How Doctors Can Prepare)

¡Comparte esta historia, elige tu plataforma!

Acerca del autor: Pouyan Golshani

Pouyan Golshani

Fundador de GigHz. Médico, constructor y asesor de tecnología profunda que explora las intersecciones entre los materiales avanzados, la medicina y la estrategia de mercado. Ayudo a los innovadores a perfeccionar sus ideas, conectarse con las partes interesadas adecuadas y dar vida a soluciones significativas, una señal a la vez.