Mundo

Hombre termina en el hospital por seguir consejos de ChatGPT

Seguir el consejo medico de una inteligencia artificial, termino mal para un anciano

Tras tres meses de seguir las indicaciones de la IA, el paciente presentó síntomas neurológicos, psiquiátricos y dermatológicos, que requirieron hospitalización.
Tras tres meses de seguir las indicaciones de la IA, el paciente presentó síntomas neurológicos, psiquiátricos y dermatológicos, que requirieron hospitalización.

Lee también: El próximo movimiento de Donald Trump: Desplegar la Guardia Nacional y eliminar problemas de indigencia

Un hombre de 60 años en Estados Unidos ha terminado en el hospital tras seguir una dieta recomendada por la inteligencia artificial (IA) ChatGPT. Buscando reducir el consumo de sal, el hombre consultó a la herramienta de IA, que le sugirió una alternativa peligrosa: el bromuro de sodio. Este químico, que es utilizado principalmente en pesticidas, provocó una grave intoxicación.

PUBLICIDAD

ChatGPT en WhatsApp
ChatGPT en WhatsApp Inteligencia Artificial (Inteligencia Artificial)

El paciente, que no conocía los riesgos, utilizó el bromuro de sodio como sustituto de la sal durante tres meses. Con el tiempo, empezó a manifestar síntomas graves como paranoia y alucinaciones, llegando a sospechar que su vecino intentaba envenenarlo. Al ser hospitalizado, los médicos le diagnosticaron toxicidad por bromuro.

Esta condición, que ahora es rara, fue más común en el siglo XX cuando las sales de bromuro se utilizaban en medicamentos de venta libre. La Administración de Alimentos y Medicamentos (FDA) eliminó gradualmente el uso de bromuro entre 1975 y 1989 debido a sus efectos tóxicos.

Este caso sirve como una advertencia sobre los riesgos de seguir ciegamente los consejos de salud proporcionados por herramientas de inteligencia artificial.

PUBLICIDAD

Tags

Lo Último