ESTADOS UNIDOS.- La Inteligencia Artificial se ha convertido en una pieza clave de la gente en su día a día, pero no siempre se le tiene que hacer caso sin cuestionarle. En esta ocasión, vamos a presentar un caso en el que un hombre de 60 años terminó hospitalizado por seguir una dieta que le dio ChatGPT. La persona incluyó bromuro de sodio como parte de su plan alimenticio y terminó intoxicado.
El caso del hombre que fue hospitalizado por seguir las indicaciones de la Inteligencia Artificial sin cuestionarla fue compartido en Annals of Internal Medicine: Clinical Case, donde se confirmó que el señor de 60 años terminó hospitalizado tras desarrollar síntomas neurológico y psiquiátricos. En la publicación del caso se confirmó siguió una recomendación errónea de ChatGPT y terminó con un diagnóstico de bromismo, una intoxicación que hace mucho no se presentaba en los hospitales, pero que es bastante peligrosa.
El paciente ingresó a urgencias debido a una paranoia al sospechar que su vecino lo estaba envenenando. Al poco tiempo de comenzar con la paranoia, comenzó a desarrollar alucinaciones auditivas y visuales, lo que lo llevó a tener problemas psiquiátricos. Días después de su ingreso confesó que buscó una alternativa al consumo de sal común en ChatGPT y fue cuando comenzó a consumir bromuro de sodio por recomendación de la IA.
El hombre de 60 años estuvo consumiendo bromuro de sodio durante 3 meses. La ingesta de este producto en lugar de sal común hizo que tuviera un alto nivel de bromuro en la sangre y terminó intoxicado. Los doctores tuvieron que atenderlo de urgencia para sacar el bromuro de su cuerpo. El tratamiento para sacar este producto de su cuerpo fue con una diuresis salina y reposición de nutrientes. En tres semanas logro salir adelante de la peligrosa intoxicación a la que se sometió debido a hacerle caso a la Inteligencia Artificial.

¿Qué es el bromismo?
El bromismo es una intoxicación causada por la acumulación de bromuro en el organismo. Como se mencionó anteriormente, no se trata de una intoxicación que se presente mucho en la actualidad, gracias a los estudios realizados por expertos. El bromismo era una intoxicación común en el inicio del siglo XX, es decir en los 1900. El motivo por el que antes era común era debido a que se realizaba algunos medicamentos con sales de bromuro.
Los principales medicamentos que se hacían en los inicios del siglo XX con sales de bromuro eran para el insomnio y la ansiedad. Fue entre 1975 y 1989 que se prohibió el uso de estos compuestos en medicamentos por la FDA, el organismo encargado de regular la comida y medicamentos.
Los principales síntomas del bromismo se encuentran: confusión, paranoia, alteraciones en la piel alucinaciones y problemas de coordinación. Ante estos síntomas se recomienda acudir al médico, ya que la detección temprana de esta intoxicación puede ser fundamental para prevenir consecuencias graves en el cuerpo.

¿Cuáles son los riesgos de seguir consejos médicos de la Inteligencia Artificial?
La Inteligencia Artificial y cualquiera de sus chats son una herramienta de consulta y de apoyo para las personas, pero es importante mencionar que no se debe consultar temas médicos y aceptarlos sin preguntarle a un profesional sobre la posibilidad de hacerle caso a ChatGPT o cualquiera otra plataforma. La idea de cuestionar sobre las respuesta que puede dar la Inteligencia Artificial con profesionales está relacionado con el poder prevenir problemas como el que presentó el hombre de 60 años.
Se tiene que recordar que los chats con Inteligencia Artificial no están diseñados para realizar diagnósticos médicos, ni tratar enfermedades. A pesar de esto, muchos usuarios terminan por cuestionar posibles tratamientos de enfermedades y diferentes padecimientos y por esto el tener complicaciones graves.
Mantente informado las 24 horas, los 7 días de la semana. Da click en el enlace y descarga nuestra App!