Her şeyden önce, insanın özne kalma mücadelesine dair güçlü bir hatırlatma…
Ne izleyeceğime ne satın alacağıma, kime güveneceğimi yapay zekâ karar veriyor.
Ve ben hâlâ, “özgür irademle” yaşadığıma inanıyorum.
Yapay Zekânın Karar Alma Süreçlerine Etkisi
Yapay zekâ teknolojilerinin gelişimi, insanın karar alma süreçlerini çok boyutlu olarak etkilemektedir. Günümüzde bile milyarlarca insan, günlük tercihlerini yapay zekânın sunduğu seçeneklere göre şekillendirmektedir. Tarihçi Yuval Noah Harari, insanların haberleri hangi kaynaktan alacağından ne izleyeceğine ve ne satın alacağına kadar pek çok konuda algoritmalara güvendiğini belirtir. Meta algoritması haberlerde neyin önemli olduğunu, Google neyin doğru olduğunu, Netflix ne izleyeceğimizi, Amazon ve Alibaba ne satın alacağımızı söylemektedir (Harari, Yuval. WEF, 2020).
Bilimsel araştırmalar, yapay zekâya aşırı güvenmenin insanlarda karar verme tembelliğine yol açtığını göstermektedir. 2023 yılında yapılan “Yapay zekânın karar alma süreçlerinde tembellik ve eğitimde güvenlik üzerindeki etkisi” başlıklı çalışmada, yapay zekânın yoğun kullanımı sonucunda insanların karar verme kapasitelerinde azalma ve zihinsel atalete yönelim gözlemlenmiştir. Özellikle eğitim alanında, öğrenciler üzerinde yapılan bu araştırma, yapay zekâya aşırı bağımlılığın eleştirel düşünme ve özgün karar alma becerilerini zayıflattığını ortaya koymuştur (Ahmad, S.F., s.11, 2023). Yapay zekâ, büyük miktarda veriyi hızlı işleyerek isabetli tahminler sunabilir; ancak bu kolaylık, bireyin kendi muhakeme yetilerini köreltme riski taşır. Araştırma, AI kullanımının “insan karar verme yetisinin kaybına” anlamlı ölçüde etki ettiğini ve insanları rehavete sürükleyerek karar alma sorumluluğundan uzaklaştırdığını belirtmektedir (Ahmad, S.F., s.11, 2023). Bu durum, uzun vadede bireylerin karar alma sorumluluğunu makinelere devretmesiyle sonuçlanabilir.
Etik, Felsefi ve Toplumsal Perspektifler
“Karar alabilen son jenerasyon” ifadesi, insanlık tarihinin temel sorularını yeniden gündeme getiriyor:Eğer kararları algoritmalar alırsa, bireyin özgür iradesi ve insan olmanın anlamı ne olur?
Harari bu durumu şöyle özetler:
“Hayatın anlamı ne olacak, çoğu kararı algoritmalar aldığında?” (WEF, 2020).
Felsefede insan, kararlarıyla kendini inşa eden bir varlık olarak tanımlanır. Karar verme hakkının makinelerce devralınması, bu tanımı temelden sarsar. Üstelik yapay zekânın nesnel ve veri odaklı yapısı, empati ve vicdan gibi insani boyutları dışlayabilir. Kant’ın vurguladığı gibi, ahlak yasası bireyin kendi özgür iradesiyle anlam kazanır; bu özgürlük kaybolduğunda, ahlaki özne de silikleşir (Kant, I. 1785)
Siyasi açıdan ise bu ifade, bir uyarı manifestosu niteliğindedir. Yapay zekânın yönetişim süreçlerine dahil olduğu bir çağda, insan özerkliğini korumak için etik düzenlemelere ihtiyaç vardır. Avrupa Birliği’nin 2019 tarihli Yapay Zekâ Etiği Kılavuzu, ilk sıraya şu ilkeyi koyar: “AI sistemleri, insanları güçlendirmeli ve bilinçli karar alma süreçlerini desteklemelidir” (Digital Strategy, EU).
Bu kapsamda, karar döngüsünde insan denetimini içeren modeller (örneğin human-in-the-loop) zorunlu hale gelmelidir. Amaç, teknolojiyi insan onuru ve özerkliğiyle uyumlu hale getirmek; gelecek kuşakların da karar verebilen bireyler olarak kalmasını sağlamaktır.
Karar Alabilen Son Jenerasyon” Söyleminin Kökeni ve Dijital Otoriterlik
“Karar alabilen son jenerasyon” ifadesi yalnızca yapay zekâ bağlamında değil, farklı alanlarda da benzer sorumluluk ve aciliyet duygusunu ifade etmek amacıyla kullanılmıştır. Bu tür kullanımlar, içinde bulunduğumuz zaman dilimini tarihsel bir dönemeç olarak vurgulama amacı taşır.
Örnekler:
Politik ve Hukuki Riskler
• Avrupa Birliği, iklim krizine dikkat çekmek için “Mevcut iklim krizi ile mücadele edebilecek son jenerasyon biziz” ifadesini kullanmıştır (Narter Law, narterlaw.com).
• Harari’ye göre kontrolsüz AI, bazı ülkelerin “veri sömürgesi” hâline gelmesine yol açabilir (WEF, 2020).
• Çin’deki “akıllı mahkeme” girişimleri, belirli davalarda AI önerilerini kullansa da bu hâkimin yalnızca onay makamına düşmesine sebep olmaktadır.
Dijital Diktatörlük Tehlikesi
• Biyometrik gözlem sistemleri, insanların duygularını gerçek zamanlı izleyerek totaliter kontrol araçları yaratabilir. Harari, “Alkışlarken aslında öfkelendiysen, ertesi gün Gulag hapishanesindesin” senaryosunu örnek gösterir (WEF, 2020).
Teknolojik Açıdan Karar Mekanizmalarının Genişlemesi
• Otonom araçlar, trafikte anlık kararlar alarak sürücünün rolünü onaylayıcıya indirger.
• Finans yazılımları, alım-satım işlemlerini insan müdahalesi olmadan gerçekleştirebilmektedir.
Kritik Kararlarda AI Etkisi
• Harari, yakın gelecekte algoritmaların “nerede çalışacağımızı, kiminle evleneceğimizi, bize iş verilip verilmeyeceğini veya kredi alıp alamayacağımızı” dahi belirleyebileceğini öngörüyor (WEF, 2020).
• Örneğin, “Neden bana kredi verilmedi?” sorusuna banka yanıt olarak “Bilgisayar hayır dedi” diyebilir; çünkü insan zihni, bu devasa veri işlem kapasitesine sahip sistemlerin mantığını kavrayamayabilir.
• Bu durum, bireylerin hem kendi yaşamlarını hem de kamusal karar süreçlerini anlama ve yönlendirme yetisini yitirmesi riskini taşır (WEF, 2020).
Tüm bu saptalamalar “son karar alabilen jenerasyon” kavramının neden ortaya çıktığını açıklıyor: İnsanlık, bu kontrol mekanizmaları tam güçle devreye girmeden önce özgürlük alanını garanti altına almak zorundadır.
Sonuç
“Karar alabilen son jenerasyon” ifadesi, insanlığın teknoloji karşısındaki en büyük sınavına işaret ediyor: Özne olarak kalmak ya da karar hakkını algoritmalara devretmek. Bu söylem yalnızca bir felaket uyarısı değil; tam aksine, şimdi harekete geçme çağrısıdır.
Yapay zekâ, doğru yönlendirilmezse; özgür irade, ahlaki sorumluluk ve insan onuru gibi temel kavramları dönüştürebilecek güçtedir (Harari, WEF, 2020). Otomatik karar sistemlerinin yargıya, ekonomiye ve günlük hayata sızmasıyla birlikte “kararı kim veriyor?” sorusu, artık soyut bir felsefi tartışma değil, somut bir toplumsal meseledir. Harari’nin uyardığı gibi, denetimsiz AI sistemleri dijital diktatörlüklere zemin hazırlayabilir. Öyle ki, bir gün insanların hisleri bile gerçek zamanlı denetlenebilir hâle gelebilir (WEF, 2020).
Bu nedenle bugün bizlere düşen, yalnızca teknolojiyi kullanmak değil, aynı zamanda onu yönlendirecek etik ilkeleri, şeffaflık normlarını ve kamusal denetimi inşa etmektir. Eğitimden hukuka, kültürden yönetişime uzanan her alanda sorumluluk bizdedir.
Sorunun özü şudur: Yapay zekânın yön verdiği bir dünyada, biz insanlar hangi konumda kalacağız? Eğer bugünün nesli bu soruya cesaretle yanıt vermezse, gelecek kuşaklar kendi hayatları üzerinde söz hakkı olmayan ilk nesil olabilir.
Kaynakça
Ahmad, S. F., Han, H., Alam, M. M., & et al. (2023). Impact of artificial intelligence on human loss in decision making, laziness and safety in education. Humanities and Social Sciences Communications, 10, 311. https://doi.org/10.1057/s41599-023-01787-8
European Commission. (2019). Ethics guidelines for trustworthy AI. Digital Strategy. https://digital-strategy.ec.europa.eu/en/library/ethics-guidelines-trustworthy-ai
Harari, Y. N. (2020). Why technology favors tyranny. World Economic Forum. https://www.weforum.org/agenda/2020/01/yuval-noah-harari-why-technology-favors-tyranny/
Kant, I. (1785). Groundwork for the metaphysics of morals (Trans. M. Gregor). Cambridge University Press. (Orijinal çalışma 1785 yılında yayımlanmıştır)
Narter & Partners. (2021). Avrupa Birliği ve iklim politikaları: Fit for 55 Paketi. https://www.narterlaw.com/ab-fit-for-55-paketi
Perspektif Online. (2023). Yapay zekâ hukukunu kim düzenleyecek? Otonom sistemler ve sorumluluk tartışmaları. https://www.perspektif.online/yapay-zeka-hukukunu-kim-duzenleyecek/
Ezel Merin Nalbantoğlu