El Dr. Sina Bari, cirujano practicante y jefe de atención médica de inteligencia artificial en la empresa de datos iMerit, ha visto de primera mano cómo ChatGPT puede engañar a los pacientes con consejos médicos erróneos.
“Hace poco vino a verme un paciente y cuando le recomendé un medicamento, hizo que ChatGPT imprimiera un cuadro de diálogo que decía que este medicamento tiene un 45% de posibilidades de provocar una embolia pulmonar”, dijo el Dr. Bari a TechCrunch.
Cuando el Dr. When Bari investigó más a fondo, descubrió que las estadísticas procedían de un artículo sobre los efectos de este fármaco en un subgrupo específico de personas con tuberculosis, que no se aplicaba a su paciente.
Y, sin embargo, el Dr. Bari estaba más emocionado que preocupado cuando OpenAI anunció su chatbot dedicado ChatGPT Health la semana pasada.
ChatGPT Health, que se lanzará en las próximas semanas, permite a los usuarios hablar con el chatbot sobre su salud en un entorno más privado, donde sus mensajes no se utilizan como datos de entrenamiento para el modelo de IA subyacente.
“Creo que es genial”, dijo el Dr. Bari. “Es algo que ya está sucediendo, por lo que si lo formalizamos para proteger la información de los pacientes y le ponemos algunas salvaguardas (…) será aún más poderoso para los pacientes”.
Los usuarios pueden recibir consejos más personalizados de ChatGPT Health cargando sus registros médicos y sincronizándolos con aplicaciones como Apple Health y MyFitnessPal. Para aquellos preocupados por la seguridad, esto activa inmediatamente señales de advertencia.
Evento tecnológico
san francisco
|
13 al 15 de octubre de 2026
“De repente, los datos médicos se están transfiriendo de organizaciones que cumplen con HIPAA a proveedores que no cumplen con HIPAA”, dijo a TechCrunch Itai Schwartz, cofundador de la empresa de prevención de pérdida de datos MIND. “Así que tengo curiosidad por ver cómo abordarían esto los reguladores”.
Pero desde la perspectiva de algunos expertos de la industria, el gato ya está fuera de peligro. En lugar de buscar en Google los síntomas del resfriado, la gente ahora habla con chatbots de IA: más de 230 millones de personas ya hablan con ChatGPT sobre su salud cada semana.
“Este ha sido uno de los casos de uso más importantes de ChatGPT”, dijo a TechCrunch Andrew Brackin, socio de Gradient, que invierte en tecnología sanitaria. “Por lo tanto, tiene mucho sentido que quieran desarrollar una versión más privada, segura y optimizada de ChatGPT para estas preguntas de salud”.
Los chatbots de IA tienen un problema constante con las alucinaciones, un tema particularmente delicado en la atención médica. Según el modelo de evaluación de coherencia fáctica de Vectara, el GPT-5 de OpenAI es más propenso a sufrir alucinaciones que muchos modelos de Google y Anthropic. Pero las empresas de IA ven el potencial de abordar las ineficiencias en la atención sanitaria (Anthropic también anunció un producto sanitario esta semana).
Para el Dr. Nigam Shah, profesor de medicina en la Universidad de Stanford y científico de datos senior en Stanford Health Care, la incapacidad de los pacientes estadounidenses para acceder a la atención es más apremiante que la amenaza de que ChatGPT dé malos consejos.
“Ahora mismo vas a cualquier sistema de salud y quieres ver al médico de atención primaria; la espera es de tres a seis meses”, dijo el Dr. Shah. “Si tuvieras que esperar seis meses para encontrar un médico de verdad, o quisieras hablar con alguien que no fuera médico pero que pudiera hacer algunas cosas por ti, ¿cuál elegirías?”
El Dr. Shah cree que un camino más claro para adoptar la IA en los sistemas de salud está en el lado del proveedor, no en el del paciente.
Las revistas médicas a menudo han informado que las tareas administrativas pueden ocupar aproximadamente la mitad del tiempo de un médico de atención primaria, lo que reduce la cantidad de pacientes que puede atender en un día determinado. Si este tipo de trabajo pudiera automatizarse, los médicos podrían atender a más pacientes, lo que podría reducir la necesidad de utilizar herramientas como ChatGPT Health sin la participación adicional de un médico real.
El Dr. Shah lidera un equipo en Stanford que desarrolla ChatEHR, un software integrado en el sistema de registros médicos electrónicos (EHR) que permite a los médicos interactuar con los registros médicos de un paciente de manera más eficiente y eficaz.
“A medida que el historial médico electrónico se vuelve más fácil de usar, los médicos dedicarán menos tiempo a buscar en cada rincón la información que necesitan”, dijo la Dra. Sneha Jain, una de las primeras evaluadoras de ChatEHR, en un artículo de Stanford Medicine. “ChatEHR puede ayudarles a obtener esta información desde el principio para que puedan centrarse en lo más importante: hablar con los pacientes y descubrir qué está pasando”.
Anthropic también está trabajando en productos de inteligencia artificial que puedan ser utilizados por médicos y aseguradoras, no solo por su chatbot público Claude. Esta semana, Anthropic anunció Claude for Healthcare y explicó cómo puede reducir el tiempo dedicado a tediosas tareas administrativas, como enviar solicitudes de autorización previa a los proveedores de seguros.
“Algunos de ustedes están viendo cientos o miles de estos casos de autorización previa cada semana”, dijo el CPO de Anthropic, Mike Krieger, en una presentación reciente en la Conferencia de Atención Médica de JP Morgan. “Imagínese ahorrar veinte o treinta minutos en cada uno de estos pasos: es un gran ahorro de tiempo”.
A medida que la IA y la medicina se entrelazan cada vez más, surge una tensión ineludible entre los dos mundos: el principal incentivo de un médico es ayudar a sus pacientes, mientras que las empresas de tecnología son, en última instancia, responsables ante sus accionistas, incluso si sus intenciones son nobles.
“Creo que la tensión es importante”, dijo el Dr. Bari. “Los pacientes confían en que seamos cínicos y conservadores para protegerlos”.