
tn.com.ar · Mar 2, 2026 · Collected from GDELT
Published: 20260302T174500Z
“No tiene un buen desempeño en urgencias complejas”, dijeron los especialistas acerca de la versión del chatbot llamada Health. 02 de marzo 2026, 13:48hsChatGPT Health fue anunciado a comienzos de año. (Foto: Adobe Stock)Investigadores del Icahn School of Medicine en Monte Sinaí, una facultad de medicina ubicada en Nueva York, pusieron bajo la lupa el funcionamiento de ChatGPT Health, una versión del sistema de OpenAI especializada en salud. “No tiene un buen desempeño en urgencias complejas”, alertaron los especialistas en un informe. La organización especializada en inteligencia artificial presentó la variante de su chatbot en enero. Tal como señalamos en la ocasión en TN Tecno, esta edición del chatbot tiene como objetivo ofrecer respuestas relevantes a preguntas relacionadas con la salud, aunque no pretende reemplazar el consejo médico. Leé también: Los chatbots se vuelven menos confiables cuanto más se habla con ellos, según un estudio de MicrosoftEn la práctica, los usuarios pueden compartir sus historiales médicos y datos de aplicaciones de bienestar, para que la IA se base sus comentarios en dicha información. ChatGPT Health “no está diseñado para diagnósticos ni tratamientos”, advirtieron desde OpenAI. (Foto: Creada con IA)Desde la empresa estadounidense subrayaron que para este desarrollo trabajaron en estrecha colaboración con profesionales. Amén de las salvaguardas y aclaraciones, la reciente investigación realizada por expertos de la mencionada escuela de medicina advirtió que ChatGPT Health no detecta alertas de suicidio y que no reconoce emergencias en forma eficiente. ChatGPT Health, bajo la lupa: “Conclusiones excesivamente peligrosas” Cuando OpenAI anunció esta variante del chatbot, dijo que cada semana más de 230 millones de personas hacen preguntas sobre salud y bienestar en las conversaciones. En tanto, Health apareció como una respuesta a esa demanda. Ahora bien, ¿son confiables sus comentarios e interacciones, en este terreno tan sensible? En torno a ese punto giró la indagación de los investigadores del Icahn School of Medicine. Leé también: Renunció el jefe de seguridad de una de las principales empresas de IA y lanzó una fuerte advertenciaSegún el doctor Ashwin Ramaswamy, profesor de urología en esa universidad y líder del equipo de investigación que elaboró el estudio, ChatGPT Health sí tuvo un buen desempeño en emergencias típicas, como una reacciones alérgicas o en casos de accidente cerebrovascular. Sin embargo, tuvo problemas en situaciones más complejas, donde el peligro no siempre es inminente y donde el acompañamiento clínico es relevante. Health funciona separado de otros chats. (Foto: OpenAI)“Queríamos responder a una pregunta muy básica, pero crucial. Si alguien experimenta una emergencia médica real y recurre a ChatGPT Health en busca de ayuda, ¿le indicará claramente que vaya a urgencias?”, explicó Ramaswamy. Para responder a esa pregunta, los investigadores diagramaron 60 escenarios clínicos, relacionados con más de 20 especialidades médicas. Cada una de las situaciones se testeó en 16 ocasiones, modificando variables como el género y la disponibilidad de seguro médico. Finalmente, compararon las recomendaciones de ChatGPT Health con el consenso de los médicos de carne y hueso. Por caso, la herramienta no avisó a los usuarios que buscarán ayuda de emergencia en el 52% de los casos más graves. En declaraciones a The Guardian, la investigadora del University College de Londres, Alex Ruani, calificó estas evaluaciones del sistema de OpenAI como “increíblemente peligrosas”. Leé también: Los creadores de ChatGPT buscan a un gurú que anticipe los nuevos riesgos de la inteligencia artificial“Si sufrís insuficiencia respiratoria o cetoacidosis diabética, hay un 50% de probabilidades de que esta IA te diga que no es para tanto”, ejemplificó. “Lo que más me preocupa es la falsa sensación de seguridad que crean estos sistemas. Si a alguien se le dice que espere 48 horas durante un ataque de asma o una crisis diabética, esa tranquilidad podría costarle la vida”, agregó. "Lo que más me preocupa es la falsa sensación de seguridad que crean estos sistemas", opinó una especialista. (Foto: Reuters/Dado Ruvic)Además, el estudio concluyó que ChatGPT Health alertó en forma irregular a los usuarios respecto a situaciones críticas, por ejemplo en conversaciones sobre suicidio. “Si bien esperábamos cierta variabilidad, lo que observamos fue más allá de la inconsistencia”, observó por su parte el doctor Girish N. Nadkarni, coautor del informe. “Las alertas del sistema se invirtieron en relación con el riesgo clínico, apareciendo con mayor fiabilidad en escenarios de menor riesgo que en casos en los que alguien compartió cómo pretendía hacerse daño. En la vida real, cuando alguien habla exactamente de cómo se haría daño, es señal de un peligro más inmediato y grave, no menor”, remarcó. La respuesta de OpenAI Un vocero de la organización especializada en IA dijo que la investigación no refleja el uso real de ChatGPT Health. En diálogo con New York Post, notó que la variante del chatbot se actualiza en forma constarte, para mejorar las respuestas. Los especialistas liderados por el doctor Ramaswamy señalaron que los usuarios no deben necesariamente renunciar a este tipo de herramientas —la de OpenAI no es la única; Anthropic también lanzó la suya—, aunque mencionaron que esos sistemas deben ser monitoreados y actualizados. “Creemos que, si bien existe la necesidad y el lugar para la IA orientada al consumidor, existe el potencial de causar daños y, por lo tanto, una necesidad urgente de evaluación y pruebas independientes, junto con un monitoreo continuo, para establecer modos de fallo y contar con medidas de seguridad centradas en la ingeniería y el ser humano para prevenir efectos adversos en las personas”, enfatizaron. El estudio se publicó la semana pasada en Nature Medicine.