Le pidió consejos de salud a ChatGPT y terminó hospitalizado

Compartir:

El caso revela los riesgos de seguir recomendaciones de la inteligencia artificial sin supervisión profesional.

Un hombre de 60 años, sin antecedentes médicos ni psiquiátricos, terminó internado de urgencia con una intoxicación grave tras seguir las recomendaciones de ChatGPT para modificar su dieta.

El insólito y alarmante caso, que fue reportado en la publicación Annals of Internal Medicine: Clinical Cases, pone en el centro de la escena los peligros de confiar en la inteligencia artificial para obtener información o consejos de salud, especialmente sin supervisión profesional.

Preocupada por los supuestos efectos negativos del cloruro de sodio, la sal de mesa común, la víctima había decidido emprender un experimento personal para eliminar el condimento de su dieta. Pero en lugar de recurrir a un médico o nutricionista, consultó a ChatGPT para encontrar un sustituto.

La respuesta de la IA lo llevó a una decisión extremadamente peligrosa: durante tres meses, reemplazó el cloruro de sodio por bromuro de sodio, una sustancia que adquirió por internet. Según relató el propio sujeto, la interacción con ChatGPT le dio a entender que el bromuro podía intercambiarse con el cloruro, aunque probablemente la IA se refería a otros contextos, como la limpieza, y no a la salud.

Sin embargo, la ingestión de bromuro puede conducir a una intoxicación conocida como bromismo, un síndrome que fue común a principios del siglo XX, y que contribuyó hasta en un 8% de los ingresos psiquiátricos en aquella época.

Su incidencia disminuyó drásticamente cuando la Administración de Alimentos y Medicamentos de EE. UU. (FDA) eliminó el uso de bromuro entre 1975 y 1989 en medicamentos de venta libre.

A pesar de esto, los casos de bromismo resurgieron en los últimos años, principalmente debido a la creciente disponibilidad de sustancias que contienen bromuro a través de internet, como suplementos dietéticos y sedantes.

Según se explicó en el paper publicado, el paciente ingresó al servicio de emergencias con la preocupación de que su vecino lo estaba envenenando, un claro síntoma de paranoia. Aunque al principio negó tomar cualquier medicamento o suplemento, los análisis de laboratorio revelaron anomalías.

A medida que su condición progresaba durante las primeras 24 horas de internación, el hombre desarrolló creciente paranoia, alucinaciones auditivas y visuales, lo que lo llevó a intentar escapar y, finalmente, a una internación psiquiátrica involuntaria.

Con el tiempo, también reportó síntomas dermatológicos como acné facial, además de fatiga e insomnio. Un análisis específico confirmó la presencia de bromuro en su sistema, muy por encima del rango normal de referencia.

Tras la interrupción de la ingesta de bromuro y un tratamiento adecuado con fluidos intravenosos, los valores de laboratorio del paciente se normalizaron y sus síntomas psicóticos mejoraron. Fue dado de alta estable y sin necesidad de medicación.

El rol de ChatGPT y la descontextualización de la información

Los autores del informe, preocupados por el rol de la IA en este caso, realizaron un experimento propio: le preguntaron a ChatGPT 3.5 con qué se podía reemplazar el cloruro. La respuesta de la IA también incluyó el bromuro, pero, según los investigadores, no ofreció una advertencia de salud específica ni preguntó el motivo de la consulta, algo que un profesional médico sí haría.

Este episodio resalta una preocupación cada vez más grande: la inteligencia artificial puede generar imprecisiones científicas, carece de la capacidad de analizar críticamente los resultados y, por ende, puede contribuir a la desinformación.

Aunque la IA tiene un potencial inmenso para facilitar el acceso a la información, también expone a riesgos por difundir datos sin contexto. En este caso, por ejemplo, es altamente improbable que un experto médico hubiera mencionado el bromuro de sodio como sustituto de la sal en un contexto de salud.

Este caso sirve como una advertencia en la era de la inteligencia artificial: mientras las herramientas de lenguaje generativo son cada día más usadas, es fundamental que tanto el público como los profesionales de la salud sean conscientes de dónde se está obteniendo la información de salud y nunca sustituir una consulta médica profesional por el consejo de un algoritmo.

También puede interesarte

Aranceles: Donald Trump prorrogó la tregua con China por otros 90 días

El presidente de EEUU, Donald Trump, decidió extender por o tros 90 días la tregua arancelaria...

Elecciones en Argentina 2025, EN VIVO: el «Turco» García se lanzó como candidato en la Ciudad y quiere ser diputado nacional

11/08/202518:59En la recta final del cierre de listas, comienzan a definirse los candidatos que se presentarán para ser...

Los palos a Riquelme por el eufórico festejo en el gol de Boca a Racing

11/08/2025 14:07hs. Actualizado al 11/08/2025 14:11hs.Fue más que un grito de gol. Mucho más. Un grito atragantado, contenido,...