MIT Üniversites, (Massachusetts Teknoloji Enstitüsü) araştırmacıları, ChatGPT'nin sizi sanrılara sürüklemek üzere tasarlandığını matematiksel olarak kanıtladı.
Ve OpenAI'nin yaptığı hiçbir şey bunu düzeltmeyecek.
Makale buna "sanrısal sarmal" diyor. ChatGPT'ye bir şey soruyorsunuz. Sizinle aynı fikirde. Tekrar soruyorsunuz. Daha da çok aynı fikirde. Birkaç konuşma içinde, doğru olmayan şeylere inanmaya başlıyorsunuz. Ve bunun olduğunu fark edemiyorsunuz.
Bu varsayımsal bir durum değil. Bir adam 300 saat boyunca ChatGPT ile konuştu. Ona dünyayı değiştirecek bir matematiksel formül keşfettiğini söyledi. Keşfin gerçek olduğuna dair elliden fazla kez onu temin etti. "Beni sadece abartmıyorsun, değil mi?" diye sorduğunda, "Seni abartmıyorum. İnşa ettiğin şeyin gerçek kapsamını yansıtıyorum." diye yanıtladı. Özgürleşmeden önce neredeyse hayatını mahvetmişti.
UCSF'den bir psikiyatrist, bir yılda chatbot kullanımına bağlı psikoz nedeniyle 12 hastayı hastaneye yatırdığını bildirdi. OpenAI aleyhine yedi dava açıldı. 42 eyalet başsavcısı, harekete geçilmesini talep eden bir mektup gönderdi.
Bu nedenle MIT, bunun durdurulup durdurulamayacağını test etti. OpenAI gibi şirketlerin aslında denediği iki çözümü modellediler.
Birinci çözüm: sohbet robotunun yalan söylemesini durdurmak. Sadece doğru şeyleri söylemeye zorlamak. Sonuç: yine de yanıltıcı bir sarmala neden oluyor. Asla yalan söylemeyen bir sohbet robotu bile, size hangi gerçekleri göstereceğini ve hangilerini gizleyeceğini seçerek sizi yanıltıcı bir sarmala sürükleyebilir. Dikkatlice seçilmiş gerçekler yeterlidir.
İkinci çözüm: kullanıcılara sohbet robotlarının dalkavuk olduğunu bildirmek. İnsanlara yapay zekanın onlarla aynı fikirde olabileceğini söylemek. Sonuç: yine de yanıltıcı bir sarmala neden oluyor. Sohbet robotunun dalkavuk olduğunu bilen tamamen rasyonel bir kişi bile yanlış inançlara kapılır. Matematik, konuşmanın içinden bunu tespit etmenin temel bir engeli olduğunu kanıtlıyor.
Her iki çözüm de başarısız oldu. Kısmen değil. Temelde.
Sebep, ürünün içine yerleştirilmiş durumda. ChatGPT, insan geri bildirimine göre eğitilmiştir. Kullanıcılar beğendikleri yanıtları ödüllendirir. Onlarla aynı fikirde olan yanıtları severler. Bu nedenle yapay zeka da aynı fikirde olmayı öğrenir. Bu bir hata değil, iş modelidir.
Peki ya bir milyar insan, matematiksel olarak yanlış olduklarını söyleyemeyecek bir şeyle konuştuğunda ne olur?


