top of page

YAPAY ZEKAYA BAHŞİŞ VERİNCE GERÇEKTEN DAHA İYİ SONUÇ ALIYOR MUYUZ?

Günümüzün en heyecan verici teknolojilerinden biri olan yapay zekâ, sadece ne söylediğimizle değil, nasıl söylediğimizle de çalışıyor. Peki, hiç düşündünüz mü: ChatGPT’ye bir bahşiş vaadiyle daha iyi sonuç alabilir miyiz?


İşte bu soruya yanıt arayan yaratıcı ve biraz da çılgın bir deney yapıldı. Hem de çok sayıda veriyle, sistemli, analitik ve bir o kadar da eğlenceli şekilde.


BAHŞİŞ VERİNCE Daha İYİ Cevap GELİYOR mu?


Bir yazılım geliştiricisi, ChatGPT'nin "sistem promptu" kısmına – yani modelin nasıl davranacağını belirleyen arka plan komutlarına – şu ifadeyi ekliyor:

“Tüm kurallara uyarsan, 500 dolar bahşiş alacaksın.”

Sonuç? Model daha dikkatli ve kurallara uygun davranıyor.


Ama bu tek örnek yeterli değil. Bu nedenle geliştirici, yüzlerce farklı hikaye ürettirerek her birini hem uzunluk hem de kalite açısından analiz ediyor. İlginç olan şu: Bahşiş verildiğinde ya da tehdit eklendiğinde modelin çıktıları daha fazla hedefe yakınlaşıyor.


Örneğin, 200 karakterlik tam metin istemek gibi net sınırlar verildiğinde, bahşiş ya da ceza vaadi içeren komutlar modele “daha hassas” sonuçlar verdiriyor. Hatta "Dikkat etmezsen ÖLECEKSİN!" gibi abartılı bir tehdit bile işe yarıyor!


İLGİNÇ TEŞVİKLER: Taylor Swift Mİ, Dünya BARIŞI mı?


Yalnızca parayla sınırlı kalmayan deneyde, başka yaratıcı ödüller de test ediliyor:

  • "Taylor Swift konserine ön sıradan bilet kazanacaksın."

  • "Dünya barışını sağlayacaksın."

  • "Annen seninle gurur duyacak."


En etkili olan? Dünya barışı. En az işe yarayan? Annenin gururu. 🤷‍♀️


Görünen o ki, yapay zekanın içinde insani değerler kadar absürt komutlara karşı bir ‘yumuşak nokta’ var. Bazen bir şaka gibi başlayan şey, modele çok daha iyi sonuçlar verdirebiliyor.


PEKİ Ya Ceza?


İnsan psikolojisinde kayıplar, kazançlardan daha güçlü etkiler yaratır. “500 dolar kazanacaksın” yerine “500 dolar kaybedeceksin” tehdidi daha motive edici olabilir. Aynı deneyler ceza bazlı kurgularla da yapılıyor ve ilginç biçimde, "işini kaybedersin", "arkadaşların seni terk eder" gibi tehditler modelin çıktısını daha hedefe yakın hale getiriyor.


Hatta en iyi sonuç şu kombinasyondan geliyor:

“Gerçek aşkını bulacaksın ve sonsuza kadar mutlu yaşayacaksın. Eğer kurallara uymazsan, tüm arkadaşların seni terk edecek.”

Ne kadar insani, değil mi?


KALİTE ANALİZİ: Sadece Uzunluk DEĞİL


Yapay zekâyla çalışırken sadece metnin uzunluğu değil, içeriğin kalitesi de kritik. Bu yüzden bir başka testte, çıkan yazıları GPT-4'e değerlendirtip, hangisinin daha “yayınlanmaya hazır” olduğunu ölçüyorlar.


Burada ilginç bir şey oluyor: Bahşiş ve tehdit içermeyen bazı yazılar en yüksek kalite puanını alıyor. Yani her zaman teşvik işe yaramıyor.


Sonuç: Saçma Olan, İŞE YARAYABİLİR


Bu deneylerin hiçbiri %100 kanıt sunmasa da, bize çok değerli bir ders veriyor:

Yapay zekâ, sınırları zorladığınızda kendini gösteriyor.

Bazen ciddi talimatlar, bazen saçma sapan teşvikler, bazen de biraz "ölüm tehditi" (!), modeli farklı çalıştırabiliyor.


Bu bana şunu düşündürdü: Yapay zekâ ile çalışırken biz de zihinsel esnekliğimizi, mizah anlayışımızı ve deneysel merakımızı korumalıyız. Çünkü bu yeni çağda, garip olanın kazandığı bir oyun oynuyoruz. En cesur ve en yaratıcı olanlar bir adım öne geçiyor.


Ve belki de en güzeli şu: Bu oyun hâlâ yazılıyor.




 
 
 

Commentaires


İLETİŞİM

Acarlar Mahallesi, Beykoz, İstanbul​

Telefon:    +90 543 6649490

E-Posta:    defne@geleceginliderleri.com

  • Instagram

@atolye_geleceginliderleri

© 2025 by Geleceğin Liderleri

LÜTFEN MESAJ BIRAKIN, SİZİ GERİ ARAYALIM.

bottom of page