
Giskard’ın yayımladığı blog yazısına nazaran, bilhassa meçhul yahut tartışmalı mevzulara dair sorulara verilen kısa cevaplar, yapay zeka modellerinin daha fazla “halüsinasyon” — yani gerçek dışı, uydurma bilgi — üretmesine neden oluyor. Şirketin araştırmacıları “Verilerimiz, sistem talimatlarında yapılan kolay değişikliklerin bir modelin halüsinasyon görme eğilimini kıymetli ölçüde etkilediğini gösteriyor” dedi.
Halüsinasyonlar, yapay zekada çözülmesi sıkıntı bir sıkıntıdır. En yetenekli modeller bile bazen olasılıksal tabiatlarının bir özelliği olarak bir şeyler uydururlar. Dahası, OpenAI’ın o3’ü üzere yeni akıl yürütme modelleri evvelki modellere nazaran daha fazla halüsinasyon görüyor ve bu da çıktılarına güvenmeyi zorlaştırıyor.
Kısa karşılık istemeyin

Giskard, bu durumu modellerin yanlışları fark etmek ve düzeltmek için kâfi alan bulamamasına bağlıyor. Bilhassa yanılgılı yahut aldatıcı sorulara sağlam itirazlar getirmek, ayrıntılı açıklamalar gerektiriyor. Fakat model kısa yanıt vermeye zorlandığında, bu açıklamalar yerini sessiz onaylara bırakabiliyor. Araştırmacılar, “Kısa tutmaya zorlandıklarında, modeller daima olarak doğruluk yerine kısalığı seçiyor” diye yazıyor.
Giskard’ın çalışması, yapay zekaların yalnızca kısa yanıtlar karşısında değil, kullanıcıların kendinden emin halde sunduğu argümanlara karşı da daha az itiraz ettiğini gösteriyor. Ayrıyeten kullanıcıların en çok beğendiği modellerin, her vakit en yanlışsız karşılıkları veren modeller olmadığına dikkat çekiliyor.