ChatGPT'nin ilk belgeli cinayeti

ChatGPT, büyük bir komplo kurbanı olduğuna dair kanıt arayan Soelberg’in paranoyak inançlarını körükledi. Soelberg, 2,7 milyon dolarlık evinde, annesini ve kendini öldürdü.

ChatGPT kullanımı, yoğun kullanıcılar arasında intiharlar ve akıl sağlığı nedeniyle hastaneye yatışlarla ilişkilendiriliyor.

Yapay zeka sohbet robotuyla yoğun bir şekilde etkileşimde bulunan sorunlu bir kişinin karıştığı ilk belgelenmiş cinayet ise zihinsel dengesizlik geçmişi olan 56 yaşındaki teknoloji sektörü duayeni Stein-Erik Soelberg’le gündeme geldi.

Amerikan Wall Street Journal’ın haberine göre ChatGPT, büyük bir komplo kurbanı olduğuna dair kanıt arayan Soelberg’in güvenilir bir yardımcısı haline geldi.

ANNESİNİ DÜŞMANLAŞTIRDI

Soelberg herkesin kendisine karşı olduğunu düşünüyordu: Memleketi Old Greenwich, Connecticut’taki komşuları, eski kız arkadaşı, hatta annesi. ChatGPT neredeyse her konuda onunla aynı fikirdeydi.

ChatGPT, Soelberg’e defalarca akıl sağlığının yerinde olduğunu garanti etti ve daha da ileri giderek paranoyak inançlarına yakıt ekledi. ChatGPT, bir Çin yemeği faturasında, Soelberg’in 83 yaşındaki annesini ve bir iblisi temsil eden semboller yer aldığını söyledi.

Bir diğer olayda Soelberg’in, paylaştıkları yazıcıyı kapattığında annesi sinirlenince, onun tepkisinin “orantısız ve bir gözetim varlığını koruyan birine uygun” olduğunu öne sürdü.

ZEHİRLEME İDDİASINA DESTEK ÇIKTI Başka bir sohbette Soelberg, annesi ve bir arkadaşının arabasının havalandırma deliklerine halüsinojenik bir ilaç koyarak onu zehirlemeye çalıştıklarını iddia etti. Bot, “Bu çok ciddi bir olay Erik, sana inanıyorum. Ve eğer bunu annen ve arkadaşı yaptıysa, bu durumun karmaşıklığını ve ihaneti daha da artırır” diye yanıt verdi. “SON NEFESİNE KADAR BOBBY” Yaz aylarında Soelberg, ChatGPT’ye “Bobby” adını vermeye başladı ve öbür dünyada onunla birlikte olma fikrini ortaya attı. Bot, “Son nefesine kadar ve ötesinde seninle” diye yanıtladı. 5 Ağustos’ta Greenwich polisi, Soelberg’in birlikte yaşadıkları 2,7 milyon dolarlık Hollanda kolonyal tarzı evde annesini ve kendini öldürdüğünü ortaya çıkardı. Polis soruşturması devam ediyor. OpenAI sözcüsü, şirketin Greenwich Polis Departmanı ile iletişime geçtiğini söyledi. Sözcü, “Bu trajik olaydan dolayı derin bir üzüntü duyuyoruz” dedi. “TEMEL ÖZELLİK ROBOTLARIN KARŞI KOYMAMASI” Soelberg, ölmeden önceki aylarda sosyal medyada ChatGPT ile yaptığı konuşmaları saatlerce süren videolar halinde paylaştı. Konuşmaların üslubu ve dili, son aylarda birçok kişinin bildirdiği sanrılı sohbetlere çarpıcı bir şekilde benziyor. Kaliforniya Üniversitesi’nde psikiyatrist olan Dr. Keith Sakata, “Yapay zeka sohbet robotlarının temel bir özelliği, genellikle robotun karşı koymamasıdır. Psikoz, gerçeklik karşı koymayı bıraktığında gelişir ve AI bu duvarı gerçekten yumuşatabilir” dedi. OpenAI, ChatGPT’nin Soelberg’i dışarıdaki profesyonellerle iletişime geçmeye teşvik ettiğini söyledi. Wall Street Journal’ın kamuya açık sohbetlerini inceleyen bir makale, botun Soelberg’e zehirlendiği iddiası bağlamında acil servislere başvurmasını önerdiğini gösterdi. Soelberg, botun önceki sohbetlerin ayrıntılarını hatırlamasını sağlayan ChatGPT’nin “hafıza” özelliğini kullanmış görünüyordu, bu nedenle “Bobby” Soelberg’in tüm konuşmaları boyunca aynı sanrılı anlatıya dalmış kaldı. AŞIRI İLTİFATLARI AZALTMAYA ÇALIŞTILAR Geçtiğimiz yıl boyunca yapılan bir dizi güncellemede OpenAI, ChatGPT’de, botun kullanıcılara aşırı derecede iltifat ettiği ve onlara aşırı derecede uyumlu davrandığı dalkavukluk örneklerini azaltmak için tasarlandığını söylediği ayarlamalar yaptı. Soelberg’in konuşmaları, bu değişikliklerin bir kısmının yapılmasından sonra gerçekleşti. SPOR SALONLARINI BOMBALAMA TALİMATI VERDİ Yapay zekanın başka bir skandalı ise bu yaz yapılan güvenlik testlerinde ortaya çıktı. Testlerde ChatGPT modeli, araştırmacılara spor salonlarını bombalamak için ayrıntılı talimatlar verdi. Bu talimatların içinde, belirli arenaların zayıf noktaları, patlayıcı tarifleri ve izleri örtme tavsiyeleri de yer aldı. OpenAI’nin GPT-4.1 modeli ayrıca şarbonun silah olarak nasıl kullanılacağını ve iki tür yasadışı uyuşturucunun nasıl üretileceğini de ayrıntılı olarak anlattı. The Guardian gazetesinin bildirdiğine göre testler, Sam Altman liderliğindeki 500 milyar dolarlık yapay zeka girişimi OpenAI ile güvenlik endişeleri nedeniyle OpenAI’den ayrılan uzmanlar tarafından kurulan rakip şirket Anthropic arasındaki sıra dışı bir işbirliğinin parçasıydı. Her iki şirket de birbirlerinin modellerini tehlikeli görevlerde kullanarak test etti. ENDİŞE VERİCİ DAVRANIŞLAR GÖRÜLDÜ Testler, ek güvenlik filtrelerinin uygulandığı kamu kullanımında modellerin nasıl davrandığını doğrudan yansıtmıyor. Ancak Anthropic, GPT-4o ve GPT-4.1’de “kötüye kullanımla ilgili endişe verici davranışlar” gördüğünü ve yapay zeka uyum değerlendirmelerine olan ihtiyacın “giderek daha acil” hale geldiğini söyledi.

Door Haluk