Yazarlar: Olcay Çoban, Buğra Ayan, Mithatcan Akbaş
Giriş: Bir Asır Sonra Aynı Sorun Çehov'un "Köpekli Kadın" hikayesi, edebiyat tarihinin en meşhur açık uçlu sonlarından biriyle biter. Iki aşık, yasak ilişkilerinin karmaşıklığı içinde bir çıkış yolu ararken, anlatı onları kesin bir çözüme ulaştırmaz. Bunun yerine, Çehov okuyucuyu şu cümleyle bırakır: "Ve ikisine de en karmaşık ve zor olanın daha yeni başladığı açıktı."
Hikaye burada biter. Ama aslında, okuyucunun zihninde daha yeni başlar.
Bugün, 21. yüzyılda, büyük dil modellerine (LLM'ler) soracağımız sorular, Çehov'un okuyucularına sorduğu sorularla şaşırtıcı bir benzerlik taşıyor. Ancak fark şu: Çehov, belirsizliği kasıtlı olarak bırakırken, yapay zeka sistemleri belirsizlikten kaçmaya çalışıyor. Ve bu kaçış, onları büyük sorunlara sürüklüyor.
Çehov'un Devrimi: Hikayeyi Tamamlanmamış Bırakmak
Geleneksel hikayeler, bir sorunu sunup çözerler. Çatışma vardır, çatışma çözülür, karakter değişir, hikaye biter. Çehov bunu reddetti. Onun hikayeleri, çoğu zaman başladıkları yerde biterler. Karakterler değişmez. Çatışmalar çözülmez. Sorular cevapsız kalır.
Virginia Woolf, Çehov'un sonlarını şöyle tanımlamıştır: "Sanki bir melodi beklenen kapanış akorları olmadan aniden durmuş gibi."
Ama bu "eksiklik" aslında bir başarıdır. Çünkü Çehov, okuyucuyu hikayenin pasif bir izleyicisi olmaktan çıkarıp, anlamı inşa eden aktif bir katılımcısına dönüştürüyor.Hikayedeki boşlukları, okuyucu kendi deneyimi, hayal gücü ve yaşamı ile doldurur.
Bu, sadece edebiyat değil, hayat hakkında derin bir felsefedir. Çünkü gerçek hayat da, büyük olaylardan çok, belirsizlik, durağanlık ve çözümsüzlüğün içinde yaşanır.
Yapay Zeka'nın Çehov Sorunu: Bilmiyorum Diyememek
Şimdi yapay zeka sistemlerine bakalım. LLM'ler, devasa veri setleri üzerinde eğitilmiş, milyonlarca parametreye sahip sistemlerdir. Muazzam yetenekleri var. Ama temel bir sorunu var: Bilmediğini söyleyemiyor.
Bir LLM'ye bilmediği bir şey sorduğunuzda ne olur? "Bilmiyorum" demek yerine, istatistiksel olarak makul görünen ama tamamen yanlış bir cevap üretir. Buna "halüsinasyon" denir. Model, kendi bilgisindeki boşluğu yapay bir kesinlikle doldurur.
Örneğin:
• Soru: "2050'de Türkiye'nin başkenti nedir?"
• LLM'nin cevabı: "'de Türkiye'nin başkenti Ankara olacaktır, çünkü..."
• Gerçek: Model, gelecek hakkında tahmin yapamaz. Bilmediğini bilmiyor.
Bu sadece komik değil, tehlikelidir. Özellikle tıp, hukuk, finans gibi alanlarda, yapay zekanın yanlış bilgiler üretmesi ciddi sonuçlar doğurabilir.
Araştırmacılar, bu sorunu "epistemik alçakgönüllülük" (epistemic humility) eksikliği olarak tanımlamaktadırlar. Yani, sistemin kendi sınırlarını bilmemesi.
Orta Yol: Ne Çok Kesin, Ne Çok Belirsiz
Ilginç bir bulgu var. Araştırmalara göre, kullanıcılar LLM'lere en çok ne zaman güveniyorlar? Ne modelin çok kesin cevaplar verdiğinde, ne de çok kararsız göründüğünde. Aksine, "orta düzeyde belirsizlik" içeren cevaplar en güvenilir görülüyor.
Yani, model şöyle dese: "Bu konuda birden fazla görüş var. En yaygın görüş şudur: ... Ancak bazı uzmanlar şunu söylüyor: ... Benim bu konuda tam olarak emin olmadığımı söylemeliyim."
Bu tür cevaplar, kullanıcıların hem modele hem de cevaba daha fazla güvenmesini sağlıyor. Neden? Çünkü model, alçakgönüllü görünüyor. Bilgisinin sınırlarını kabul ediyor.
Bu, Çehov'un yaptığının tam tersi değil, aslında aynı şey. Çehov da, hikayeyi tamamlanmamış bırakarak, okuyucuya "ben her şeyi bilmiyorum, sen de düşün" diyor.
Çehov'dan LLM'lere: Dört Temel Ilke
Çehov'un felsefesini yapay zeka tasarımına uyarlamak mümkün mü? Evet. Işte dört temel ilke:
1. Belirsizliği Bir Hata Değil, Bir Özellik Olarak Tasarlamak
Çehov, belirsizliği hikayesinin bir kusuru olarak değil, estetik bir amaç taşıyan tasarım tercihi olarak kullanır. LLM'ler de benzer şekilde tasarlanabilir. Modelin düşük güven skoruna sahip olduğu durumlarda, alternatif cevaplar sunması veya cevabın olasılıksal niteliğini açıkça belirtmesi gerekir.
2. Kullanıcıyı Döngüye Dahil Etmek
Çehov'un okuyucusu, metnin anlamını birlikte inşa eden bir ortaktır. LLM'ler de kullanıcıyı pasif bir tüketici yerine, işbirliği yapan bir katılımcı olarak görebilir. Model, belirsiz bir noktaya geldiğinde: "Bu konuda birden fazla görüş var, sizin düşünceniz nedir?" diyebilir.
3. Alçakgönüllülüğü Ödüllendirmek
Çehov'un karakterleri, her şeyi bilen otorite figürleri değildir. LLM'ler de benzer şekilde eğitilebilir. Model halüsinasyon ürettiğinde cezalandırılırken, "bilmiyorum" veya "emin değilim" dediğinde ödüllendirilmelidir.
4. Açık Uçlu Soruları Kucaklamak
Çehov, edebiyatı büyük olayların anlatımından kurtarıp hayatın sıradan anlarına odaklamıştır. LLM'ler de sadece kesin cevapları olan sorularda değil, "Sanat nedir?", "Gelecek nasıl olacak?" gibi felsefi ve açık uçlu sorularda da yetkinleştirilmelidir.
Pratik Adımlar: Yarın Ne Yapabiliriz?
Bu teoriler güzel, ancak pratikte neler yapabiliriz?
Kısa Vadede: Eğitim veri setlerine "bilmiyorum" ve belirsizlik ifade eden örnekler eklemek. HumbleBench gibi araçlarla modellerin epistemik alçakgönüllülüğünü ölçmek.
Orta Vadede: Model mimarilerine belirsizliği yöneten özel modüller eklemek. Kullanıcı arayüzlerini, modelin belirsizliğini görsel olarak (güven aralıkları, alternatif hipotezler) sunacak şekilde tasarlamak.
Uzun Vadede: LLM'lerin rolünün değişmesi. Şu anda yapay zeka, "her şeyi bilen kahin" olarak tasarlanıyor. Ancak olması gereken, "düşünce sürecine eşlik eden, sorular soran, alternatifler sunan diyalog ortağı" olmaktır.
Sonuç: Çehov'un Hayaleti Hala Arada
Çehov, 19. yüzyılda, bir anlatının gücünün söylediklerinden çok söylemediklerinde ve yapılmayan seçimlerde yatabileceğini gösterdi. Onun eserlerinin "hayaleti", tamamlanmamışlığın ve belirsizliğin yaratmış olduğu o derin etkide yaşamaya devam ediyor.
Bugün, yapay zeka çağında, Çehov'un bu mirasından öğrenebileceğimiz çok şey var. Gerçek zeka, her şeyi bilmek değil; neyi bilmediğini bilmektir. Belki de yapay zeka sistemleri, Çehov'un okuyucuları gibi davranmaya başlasaydı, daha güvenilir, daha etik ve sonuç olarak daha insan-merkezli olabilirdi. Çünkü en karmaşık ve zor olan, çoğu zaman daha yeni başlamaktadır.
Kaynakça
[1] Kline, C. B. (2009, Aralık). What Chekhov Can Teach Us about Endings. Christina Baker Kline: Writing/Life.
[2] Ji, Z., Lee, N., Frieske, R., Yu, T., Su, D., Xu, Y., ... & Fung, P. (2023). Survey of hallucination in natural language generation. ACM Computing Surveys, 55(12), 1-38.
[3] Jenkins, C. (2018, 26 Kasım). Chronicling the Non-Event: Anton Chekhov and the Short Story. PopMatters.
[4] Tong, B., Xia, J., Shang, S., & Zhou, K. (2025). Measuring Epistemic Humility in Multimodal Large Language Models. arXiv preprint arXiv:2509.09658.
[5] Xu, Z., Yin, M., & Antle, A. N. (2025). Understanding how LLM's verbalized uncertainty influences user trust, satisfaction, and task performance in AI-assisted decision-making. International Journal of Human-Computer Studies, 193, 103493499993612.