İNSANLARIN, ChatGPT gibi araçların arkasındaki teknoloji olan büyük dil modellerinden (LLM) daha iyi yanıt almak için türlü tuhaf stratejileri var. Kimi, tehdit ederseniz yapay zekanın daha iyi performans gösterdiğine yemin ediyor; kimi, nazik davranırsanız sohbet botlarının daha işbirlikçi olduğunu düşünüyor; bazıları da çalıştıkları konuda robotlardan uzman rolü yapmalarını istiyor. Bu, "prompt engineering" (komut tasarımı teknikleri) ya da "context engineering" (bağlam kurgulama teknikleri) etrafında oluşan bir tür mitolojinin parçası; yani yapay zekadan daha iyi sonuç almak için talimatları farklı şekillerde kurma yöntemleri. Ama işin aslı; uzmanlar, yapay zekaya nasıl talimat verileceğine dair kabul görmüş pek çok bilginin aslında işe yaramadığını söylüyor. Bazı durumlarda tehlikeli bile olabilir. Yine de yapay zekayla nasıl konuştuğunuz önemli ve bazı teknikler gerçekten fark yaratabiliyor.

İFADE TÜRÜ
ABD'DEKİ Vanderbilt Üniversitesi'nde üretken yapay zeka üzerine çalışan bilgisayar profesörü Jules White, birçok insanın, LLM'lere bir problemi çözdürecek sihirli bir kelime seti olduğunu düşündüğünden bahsediyor. Ancak Prof. White'a göre mesele kelime seçimi değil: "Asıl mesele ne yapmak istediğinizi temelde nasıl ifade ettiğiniz." 2025'te X'te bir kullanıcı, "İnsanların modellere 'lütfen' ve 'teşekkür ederim' demesi yüzünden OpenAI elektrik maliyetlerinden ne kadar para kaybetmiştir acaba?" diye bir paylaşım yaptı. ChatGPT'yi geliştiren OpenAI'nin CEO'su Sam Altman ise "On milyonlarca dolar ama değdi" yanıtını verdi ve "Bilemezsiniz" diye de ekledi. Çoğu kişi son cümleyi olası bir yapay zeka kıya kıyametine gönderme yapan esprili bir ifade olarak okudu; ancak "on milyonlarca dolar" ifadesinin ne kadar ciddiye alınması gerektiğini bilmek zor. Yine de nezaket aynı zamanda pratik bir mesele. LLM'ler, kelimelerinizi "token" adı verilen küçük parçalara bölerek çalışıyor; ardından bunları istatistiksel olarak analiz edip uygun bir yanıt üretiyor. Bu da kelime seçiminizden fazladan bir virgüle kadar söylediğiniz her şeyin yapay zekanın yanıtını etkileyeceği anlamına geliyor. Sorun şu ki, bunu öngörmek son derece zor.
KÖTÜ PERFORMANS
YAPAY zeka komutlarındaki küçük değişikliklerin sonuçlarını inceleyen çok sayıda araştırma yapıldı, ancak elde edilen bulguların çoğu çelişkili ve kesinlikten uzak. Örneğin 2024 tarihli bir çalışma, LLM'lerin emir vermek yerine kibarca sorulduğunda daha iyi ve daha doğru yanıtlar verdiğini buldu. Daha da ilginci, kültürel farklılıklar vardı. Çince ve İngilizceye kıyasla Japonca konuşan sohbet botları, biraz fazla kibar davranıldığında biraz daha kötü performans gösterdi. Ancak hemen yapay zekanıza bir teşekkür kartı almaya koşmayın. Küçük çaplı başka bir test, ChatGPT'nin önceki bir sürümünün hakaret edildiğinde daha doğru sonuç verdiğini buldu. Genel olarak da bu konuda kesin yargılara varmak için yeterli araştırma yok. Üstelik yapay zeka şirketleri sohbet botlarını sürekli güncelliyor; bu da araştırmaların hızla geçerliliğini yitirmesine yol açıyor. Uzmanlar, yapay zeka modellerinin yalnızca birkaç yıl içinde dramatik biçimde geliştiğini ve bu nedenle eğer amacınız doğruluk oranını artırmaksa yağcılık yapmak, nazik olmak, hakaret etmek ya da tehdit etmek gibi tekniklerin zaman kaybı olduğunu söylüyor.

