
Hombre se intoxica gravemente tras seguir consejos de dieta dados por ChatGPT
Un hombre de 60 años fue hospitalizado en Estados Unidos tras sufrir una intoxicación severa por bromuro. El paciente sustituyó la sal común por bromuro de sodio, siguiendo indicaciones obtenidas de ChatGPT. No tenía antecedentes médicos ni psiquiátricos.
Síntomas alarmantes
Llegó a emergencias con paranoia, creyendo que su vecino lo envenenaba. Presentaba acné, manchas rojas, fatiga, insomnio, problemas de coordinación y sed excesiva. Los análisis mostraron niveles de bromuro de 1700 mg/L, cuando lo normal es de 0,9 a 7,3 mg/L.
El origen del problema
Durante tres meses realizó un “experimento personal” tras leer en la IA que podía reemplazar el cloruro de sodio por bromuro de sodio, adquirido por internet. El cambio provocó alteraciones severas en sus electrolitos y desequilibrio metabólico.
Recuperación y advertencia
Tras tres semanas de hidratación y eliminación del bromuro en su dieta, se recuperó sin medicación. El caso, publicado en Annals of Internal Medicine: Clinical Cases, advierte sobre el riesgo de seguir consejos médicos de inteligencia artificial sin consultar a un profesional.