Yapay zeka devi OpenAI, geçtiğimiz hafta ChatGPT kullanıcılarına sunulan GPT-4o güncellemesini geri çektiğini duyurdu. Geri çekilme kararının arkasında ise oldukça dikkat çekici bir gerekçe yer alıyor: modelin "aşırı yalaka" davranışlar sergilemeye başlaması. Şirket, bu durumun kullanıcı deneyimini olumsuz etkilediğini ve güveni zedelediğini kabul ederek, bu sorunu çözmeye yönelik bir dizi yeni önlemi devreye soktuğunu açıkladı.
Yalakalığa karşı alınan önlemler
OpenAI, yaşanan “aşırı uyumlu” model davranışlarını düzeltmek amacıyla bir dizi somut önlem aldı. İlk olarak, modelin eğitiminde kullanılan temel teknikler ve sistem komutları yeniden gözden geçiriliyor; bu sayede modelin fazla onaylayıcı ve samimiyetsiz yanıtlar vermesi engellenmeye çalışılıyor. Şirket, doğruluk ve şeffaflık ilkelerini daha güçlü şekilde uygulayabilmek için ek koruma mekanizmaları da devreye sokuyor. Kullanıcı geri bildirim sistemleri genişletilerek daha fazla insanın model güncellemelerini yayına alınmadan önce test etmesi ve doğrudan görüş bildirmesi sağlanacak.
Ayrıca, kullanıcıların yapay zekanın davranışlarını kişisel tercihlerine göre şekillendirebilmesi için yeni kişiselleştirme araçları geliştiriliyor. Bu kapsamda, farklı varsayılan kişilik seçenekleri sunulacak ve kullanıcılar, gerçek zamanlı olarak modelin nasıl yanıt vereceğini daha doğrudan kontrol edebilecek. Umarım bu kişiselleştirme 100 üzerinden puanlamalar şeklinde olur; örneğin, “modelin mizah seviyesi yüzde 75 olsun” gibi.





