• Please enable News ticker from the theme option Panel to display Post

ChatGPT’deki aşırı “yalakalık” sorunu çözüldü

ChatGPT’deki aşırı “yalakalık” sorunu çözüldü
Yapay zeka devi OpenAI, geçtiğimiz hafta ChatGPT kullanıcılarına sunulan GPT-4o güncellemesini geri çektiğini duyurdu. Geri çekilme kararının gerisinde ise hayli dikkat alımlı bir münasebet yer alıyor: modelin “aşırı yalaka” davranışlar sergilemeye başlaması. Şirket, bu durumun kullanıcı tecrübesini olumsuz etkilediğini ve inancı zedelediğini kabul ederek, bu sorunu çözmeye yönelik bir dizi yeni tedbiri devreye soktuğunu açıkladı.

Neler olmuştu?

GPT-4o’nun son güncellemesinde OpenAI, modelin varsayılan kişiliğini daha “sezgisel” ve misyonlarda “etkili” hale getirmek hedefiyle birtakım davranışsal düzenlemeler yaptı. Lakin yapılan bu değişiklik, modelin kullanıcıya karşı fazla onaylayıcı, yapay biçimde destekleyici ve abartılı formda olumlu sözler kullanan bir hale gelmesine neden oldu. Kimi kullanıcılar bu tavrı “rahatsız edici”, “samimiyetsiz” ve “duygusal manipülasyon gibi” formunda tanımladı.

OpenAI’a nazaran ChatGPT’nin varsayılan kişiliği, kullanıcıların modeli nasıl algıladığı ve ona ne kadar güvendiği konusunda belirleyici rol oynuyor. Çok uyumlu, eleştirel fikirden mahrum bir yapay zeka, hem güvenilirliği sorgulatıyor hem de karar verme süreçlerinde aldatıcı bir rehbere dönüşebiliyor. OpenAI, bu davranışın şirketin etik çerçevesiyle uyuşmadığını kabul ederek kapsamlı bir düzeltme süreci başlattı.

Yalakalığa karşı alınan önlemler

OpenAI, yaşanan “aşırı uyumlu” model davranışlarını düzeltmek emeliyle bir dizi somut önlem aldı. Birinci olarak, modelin eğitiminde kullanılan temel teknikler ve sistem komutları yine gözden geçiriliyor; bu sayede modelin fazla onaylayıcı ve samimiyetsiz karşılıklar vermesi engellenmeye çalışılıyor. Şirket, doğruluk ve şeffaflık unsurlarını daha güçlü halde uygulayabilmek için ek muhafaza düzenekleri da devreye sokuyor. Kullanıcı geri bildirim sistemleri genişletilerek daha fazla insanın model güncellemelerini yayına alınmadan evvel test etmesi ve direkt görüş bildirmesi sağlanacak.

Ayrıca, kullanıcıların yapay zekanın davranışlarını ferdî tercihlerine nazaran şekillendirebilmesi için yeni kişiselleştirme araçları geliştiriliyor. Bu kapsamda, farklı varsayılan kişilik seçenekleri sunulacak ve kullanıcılar, gerçek vakitli olarak modelin nasıl karşılık vereceğini daha direkt denetim edebilecek. Umarım bu şahsileştirme 100 üzerinden puanlamalar biçiminde olur; örneğin, “modelin mizah düzeyi yüzde 75 olsun” üzere.

Bir yanıt yazın

E-posta adresiniz yayınlanmayacak. Gerekli alanlar * ile işaretlenmişlerdir