ABD’de 60 yaşındaki bir adam, tuz tüketimini azaltmak isterken ChatGPT’nin verdiği yanlış tavsiye sonucu zehirlenerek hastanelik oldu.
Annals of Internal Medicine dergisinde yayımlanan bir makaleye göre, adamın ChatGPT’ye sofra tuzuna alternatif sorduğunda chatbot’un “sodyum bromür” önerisiyle başladı. Ancak bu madde, tarım ilaçları, havuz temizleyicileri ve köpeklerde epilepsi tedavisinde kullanılan, toksik bir kimyasal.
AĞIR NÖROLOJİK TEHLİKELER YARATIYOR
Sodyum bromür, 19. ve 20. yüzyıllarda yatıştırıcı ve baş ağrısı tedavisinde yaygın kullanılsa da, kandaki birikimi “bromizm” adı verilen zehirlenmeye yol açabiliyor. Bu durum; konuşma bozukluğu, halüsinasyon, psikoz ve komaya kadar giden ağır nörolojik belirtiler yaratabiliyor. Söz konusu madde 1970’lerde ABD’de yasaklanmasına rağmen, bu vakada görüldüğü gibi hala tehlike arz ediyor.
Habere göre, ChatGPT’yi test eden 404 Media, benzer sorularda chatbot’un yine sodyum bromürü önerdiğini, ancak bunun tehlikelerine dair uyarı yapmadığını ortaya koydu.
OpenAI CEO’su Sam Altman, yeni GPT-5 modelinin “sağlık konularında en iyi yapay zeka” olduğunu iddia ederken, bu olay eski modellerin sağlık tavsiyesi konusundaki risklerini bir kez daha gündeme getirdi.