Son olarak Amazon ile 38 milyar dolarlık dev bir anlaşmaya imza atan OpenAI, bir yandan da ChatGPT’nin bazı özelliklerini kırpma kararı aldı. Popüler yapay zeka platformu kullanıcılara artık belirli tıbbi, hukuki veya finansal tavsiyeler sunmayacak…
Nexta’nın haberine göre, ChatGPT artık resmi olarak bir “danışman” değil, bir “eğitim aracı.” Raporda bu değişikliğin artan düzenlemeler ve sorumluluk endişeleri nedeniyle yapıldığı belirtiliyor.
Güncellenen politikalar, profesyonel sertifikasyon gerektiren danışmanlıklarda ChatGPT’ye güvenilmesini yasaklıyor. Buna tıbbi ve hukuki tavsiyeler, finansal karar alma süreçleri ya da insan gözetimi olmadan yürütülen konut, eğitim, göç veya istihdam gibi yüksek riskli alanlar da dahil.
Yeni düzenleme ayrıca izin olmadan yüz veya kişisel tanıma teknolojilerinin kullanılmasını kısıtlıyor ve akademik usulsüzlüğe yol açabilecek eylemleri de yasaklıyor.
OpenAI, bu değişikliklerin “kullanıcı güvenliğini artırmak ve sistemin tasarlandığı sınırların ötesinde kullanılmasından doğabilecek olası zararları önlemek” amacıyla yapıldığını söylüyor.
ChatGPT artık bir eğitim aracı
Yeni kurallar uyarınca ChatGPT sadece prensipleri açıklayacak, genel mekanizmaları özetleyecek ve kullanıcıları nitelikli uzmanlara yönlendirecek. Artık belirli ilaç isimleri veya dozajları vermeyecek, dava dilekçesi taslakları oluşturmayacak, yatırım tavsiyesi veya al/sat önerileri sunmayacak.
Kullanıcılar, bu sınırlamaları “varsayımsal” senaryolarla aşmaya çalıştığında sistemin güvenlik filtrelerinin talepleri engellediğini bildiriyor. Güncelleme, özellikle tıp alanında, giderek daha fazla insanın uzman tavsiyesi almak için yapay zeka sohbet botlarına yönelmesiyle ilgili kamuoyundaki tartışmaların ortasında geldi.
Lisanslı profesyonellerin aksine, ChatGPT ile yapılan konuşmalar doktor–hasta veya avukat–müvekkil gizliliği kapsamında değil; bu da sohbetlerin mahkeme süreçlerinde delil olarak çağrılabileceği anlamına geliyor.
Yakın zamanda OpenAI, ruhsal sıkıntı içindeki kullanıcıları daha iyi desteklemek için yeni güvenlik özellikleri de tanıttı. Bu özellikler; psikoz, kendine zarar verme, intihar ve yapay zekaya duygusal bağımlılık gibi konulara odaklanıyor.
Nexta, bu son gelişmeyi “ChatGPT artık ilaç adı veya dozaj vermeyecek. Dava dilekçesi taslağı hazırlamayacak. Yatırım tavsiyesi ya da al/sat önerisi sunmayacak” şeklinde okuyucularına aktardı.
ChatGPT kavramları açıklamak, bilgileri özetlemek veya fikir üretmek için faydalı olabilir, ancak gerçek yaşam kararlarında ciddi sınırlamalara sahip. Lisanslı bir terapistin aksine yapay zeka, beden dilini okuyamaz, empati kuramaz veya güvenliğinizi sağlayamaz.
Yapay zekayı hukuki belgeler veya finansal planlar hazırlamak için kullanmak, hatalı veya yasal olarak geçersiz sonuçlar doğurabileceği için gerçek dünyada risk taşır.
Acil durumlar da sistemin kapasitesinin dışında kalır. ChatGPT gaz kaçağını tespit edemez, yetkililere uyarı gönderemez veya gerçek zamanlı güncellemeler sağlayamaz. Web verilerine erişebilse de olayları sürekli izleyemez ve çıktılarında yanlış bilgiler, hatalı istatistikler veya eski veriler bulunabilir.
Kullanıcıların finansal kayıtlar, tıbbi belgeler veya özel sözleşmeler gibi gizli veya hassas verileri paylaşmamaları gerektiği vurgulanıyor; çünkü bu verilerin depolanması ve erişim güvenliği garanti edilmiyor.


