Yapay zeka uygulamalarının gelişmesiyle beraber artık kendi kendine karar alabilen ve işlem yapabilen “AI ajanları” da hayatımıza girdi. Bu sistemler ödeme yapabiliyor, sipariş verebiliyor, yatırım kararı alabiliyor ve müşteri süreçlerini yönetebiliyor.
Peki AI ajanı hata yaparsa?
Bugün çoğu hukuk sistemi yapay zekayı hâlâ bir “araç” olarak görüyor. Bu nedenle olası zararların sorumluluğu genelde geliştiriciye, sağlayıcıya, veya kullanıcıya yükleniyor. Bu yöntem ürün sorumluluğu (strict liability) mantığına benziyor.
Ancak yeni nesil AI ajanları artık sadece talimat takip etmiyor; kendi stratejisini üreterek otonom karar verebiliyor. Bu durumda klasik kusur–illiyet değerlendirmesi yetersiz kalıyor.
Bazı hukukçular, yapay zeka için “elektronik kişi” modeli gibi özel bir statü getirilmesini önerirken, bazıları ise sorumluluğun mutlaka insanda kalması gerektiğini, aksi halde hesap verebilirliğin kaybolacağını savunuyor.
Türkiye’deki hukuk doktrini ise yapay zeka kaynaklı zararların sorumluluğunu şu çerçevelerde ele alıyor:
- kusur sorumluluğu,
- hakkaniyet (adil sorumluluk),
- işveren sorumluluğu,
- tehlike sorumluluğu.
Henüz Türk mahkemelerinde otonom AI ajanlarıyla ilgili yerleşmiş bir içtihat bulunmasa da bu durum sadece Türkiye’ye özgü değil; dünya genelinde de belirsizlik sürüyor.
Neden bu konu önemli?
Çünkü artık bir sistem kendi kendine:
- para transferi yapabiliyor,
- sözleşme başlatabiliyor,
- insan adına karar üretebiliyor.
Bu durumda temel soru şu: AI kendi kararını verdiğinde, kusur kimde başlar ve kimde biter?
Yakın gelecekte hukuk; üretici sorumluluğu, gözetim yükümlülüğü ve “AI ajanları için sorumluluk matrisi” gibi yeni kavramlarla karşılaşmaya başlayacak.
Kısacası, hukukun karşısında ilk kez karar verebilen bir algoritma var ve hukuk bunu tanımlamak zorunda.
Burcu Tümer