Los médicos ven un papel para la inteligencia artificial en la atención médica, pero no necesariamente como un chatbot.
El Dr. Sina Bari, cirujano y experto líder en IA para el sector sanitario en iMerit, contó a TechCrunch un caso en el que ChatGPT engañó a un paciente con información falsa. Cuando le sugirió un medicamento, se le mostró al paciente la transcripción de una conversación de ChatGPT que indicaba que el medicamento tenía un 45 % de riesgo de embolia pulmonar.
Tras una inspección más detallada, el Dr. Bari descubrió que la información se refería a un subgrupo reducido de pacientes con tuberculosis y no era relevante para el paciente en cuestión. Añadió que el ejemplo ilustra los riesgos de usar sin sentido crítico chatbots de IA generalistas para brindar asesoramiento sanitario.
Por qué ChatGPT Salud aún inspira optimismo
A pesar de estos casos, el Dr. Bari recibió la nueva función ChatGPT Salud con más entusiasmo que preocupación. Cree que es importante que la práctica actual de conversaciones de IA sobre salud se formalice y se procese con las medidas de seguridad adecuadas para proteger los datos y a los usuarios.
ChatGPT Salud permite a los usuarios mantener conversaciones sobre salud en un entorno independiente y más privado. OpenAI enfatiza que no utiliza estas conversaciones para entrenar sus modelos. Los usuarios también pueden cargar historiales médicos o sincronizar datos de apps como Apple Salud y MyFitnessPal para obtener respuestas más personalizadas.
Cuestiones de privacidad y normativas
La posibilidad de conectar datos de salud a la IA plantea nuevas preguntas. Itai Schwartz, cofundador de MIND, advierte sobre la transferencia de datos sensibles de sistemas que cumplen con la HIPAA a proveedores que no la cumplen. Afirma que será interesante ver cómo responden los reguladores a estas prácticas.
A pesar de las preocupaciones, las cifras muestran que los chatbots de IA ya se han convertido en una fuente importante de información: más de 230 millones de personas utilizan ChatGPT cada semana para preguntas relacionadas con la salud.
La IA como ayuda para los médicos, no como sustituto
Según la Dra. Nigam Shah, profesora de medicina en Stanford y científica de datos principal de Stanford Health Care, un problema mayor que las respuestas incorrectas de la IA son los largos tiempos de espera en el sistema sanitario. En Estados Unidos, los pacientes pueden esperar de tres a seis meses para ver a un médico de atención primaria.
En este contexto, el Dr. Shah ve un mayor potencial para la IA en los profesionales sanitarios. Las tareas administrativas pueden ocupar hasta la mitad del tiempo de trabajo de un médico, lo que reduce directamente el número de pacientes atendidos.
Stanford está desarrollando un sistema llamado ChatEHR que se integra directamente con los historiales médicos electrónicos, brindando a los médicos un acceso más rápido a información clave del paciente. Los primeros usuarios afirman que el sistema reduce el tiempo de búsqueda de información y permite un contacto más directo con los pacientes.
Anthropic también está desarrollando herramientas de IA para profesionales sanitarios y aseguradoras. Recientemente, presentó Claude for Healthcare, una solución que busca reducir el tiempo dedicado a trámites administrativos, como las aprobaciones previas de las aseguradoras.
La inevitable tensión entre tecnología y medicina
Como señala el Dr. Bari, existe una tensión fundamental en la introducción de la inteligencia artificial en la atención sanitaria: los médicos tienen una responsabilidad primordial hacia los pacientes, mientras que las empresas tecnológicas también actúan en interés de los accionistas.
“Los pacientes esperan que seamos cautelosos y escépticos"," dice el Dr. Bari. "Esta precaución es clave para su protección..”

























