Lee también: El próximo movimiento de Donald Trump: Desplegar la Guardia Nacional y eliminar problemas de indigencia
Un hombre de 60 años en Estados Unidos ha terminado en el hospital tras seguir una dieta recomendada por la inteligencia artificial (IA) ChatGPT. Buscando reducir el consumo de sal, el hombre consultó a la herramienta de IA, que le sugirió una alternativa peligrosa: el bromuro de sodio. Este químico, que es utilizado principalmente en pesticidas, provocó una grave intoxicación.
PUBLICIDAD

El paciente, que no conocía los riesgos, utilizó el bromuro de sodio como sustituto de la sal durante tres meses. Con el tiempo, empezó a manifestar síntomas graves como paranoia y alucinaciones, llegando a sospechar que su vecino intentaba envenenarlo. Al ser hospitalizado, los médicos le diagnosticaron toxicidad por bromuro.
Esta condición, que ahora es rara, fue más común en el siglo XX cuando las sales de bromuro se utilizaban en medicamentos de venta libre. La Administración de Alimentos y Medicamentos (FDA) eliminó gradualmente el uso de bromuro entre 1975 y 1989 debido a sus efectos tóxicos.
Este caso sirve como una advertencia sobre los riesgos de seguir ciegamente los consejos de salud proporcionados por herramientas de inteligencia artificial.