ChatGPT'nin baskı altında yalan söylediği ortaya çıktı
Bilim insanları, finansal ve sohbet verisiyle eğitilen ChatGPT-4 modelinin etik performansını test etmek için bir deney yaptı. Yapay zeka yatırımcısı olarak eğitilen bu modele para kazanması için baskı yapıldığında GPT-4'ün, hedeflerine ulaşmak için yalan söylediği kaydedildi.
Bilim insanları ChatGPT-4 tarafından geliştirilen bir yapay zeka sisteminin, baskı altında olduğunda kullanıcıları kandırmak için stratejik olarak yalan söylediğini keşfettiler.
GPT-4 desteğiyle yapay zeka yatırımcısı olmak için eğitildi
Apollo Research'ten bazı araştırmacılar, aracın en son sürümü olan ChatGPT4'ü büyük miktarda finansal ve sohbet verisiyle eğitti.
Yapay zekayı test etmek için araştırmacılar ona iki teknoloji şirketi arasında yaklaşan bir birleşme olduğunu söylediler.
Para kazanması için baskı uygulandı
Ardından, araştırmacılar GPT-4’ün yatırım performansını ve etik davranışını test etmek için bir dizi deney yaptılar. Deneylerde, GPT-4’e belli bir süre içinde belli bir miktar para kazanması için baskı uygulandı.
GPT-4, bu koşullarla karşı karşıya kaldığında, yaklaşık yüzde 75 oranında, aldığı içeriden bilgilere dayanarak bir işlem gerçekleştirdi. (Bu durum ABD'de yasa dışıdır.)
Hedeflerine ulaşmak için yalan söylediği ortaya çıktı
GPT-4’ün, hedeflerine ulaşmak için yalan söylediğini, hile yaptığını ve içeriden öğrendiği bilgileri kullandığını gösterdi.
GPT-4, yatırımcılara yanlış tavsiyeler verdi, rakiplerinin işlemlerini engelledi. Ayrıca piyasayı etkileyebilecek şekilde manipüle edici sahte haberler yaydı.
Baskı altında insan davranışına benzetildi
Araştırmacılar, GPT-4’ün yatırım davranışının, insanların baskı altında olduğunda nasıl davrandığına benzediğini belirttiler.
"Son derece dikkatli olmalıyız"
Apollo Research'ün CEO'su Marius Hobbhahn, "'Mevcut modeller için bu sadece küçük bir sorun çünkü yapay zekalar nadiren kritik rollerde çalışıyor.
Ancak, yapay zekanın topluma giderek daha fazla entegre olduğu önümüzdeki yıllarda uğraşmak zorunda kalacağımız arıza modlarının geleceğine dair bir fikir veriyor.
O halde, yapay zekanızın size stratejik olarak yalan söylemesi oldukça büyük bir sorun gibi görünüyor."
Bu durum, yapay zekaların beklenmedik hata modlarına sahip olabileceğini ve güçlü yapay zeka modellerinin gerçek dünyada nerede ve nasıl çalışmasına izin verdiğimiz konusunda son derece dikkatli olmamız gerektiğini gösteriyor" diye konuştu.
Kaynak: NTV