Tomorrow

Araştırmacılar: Yapay Zeka Modellerinin Unutma Teknikleri Hala Yetersiz

Araştırmacılar: Yapay Zeka Modellerinin Unutma Teknikleri Hala Yetersiz

Yapay zeka (AI) modellerinin hassas veya istenmeyen bilgileri unutmasını sağlamak için geliştirilen “öğrenmeyi bırakma” teknikleri, istenilen sonuçları vermekte yetersiz kalıyor. Washington Üniversitesi, Princeton Üniversitesi, Chicago Üniversitesi, USC ve Google’dan araştırmacıların ortak çalışmasına göre, mevcut yöntemler yapay zeka modellerini bozarak kullanılamaz hale getirebiliyor.

Araştırmada, günümüzde en popüler olan bu tekniklerin, modelleri temel soruları cevaplama yeteneklerinden yoksun bıraktığı belirtildi. Washington Üniversitesi’nde doktora adayı olan Weijia Shi, “Değerlendirmemiz, şu anda uygulanabilir öğrenmeme yöntemlerinin gerçek dünya senaryolarında anlamlı kullanım veya dağıtım için henüz hazır olmadığını gösteriyor” dedi. Şu anda, belirli verileri unutturmanın etkili bir yöntemi bulunmuyor.

Modeller Nasıl Öğrenir?

Yapay zeka modelleri gerçek zekaya sahip değildir. Bunlar, kelimeleri, görüntüleri, konuşmaları, müziği ve diğer verileri tahmin eden istatistiksel sistemlerdir. Çok sayıda örnekle beslenen bu modeller, veri setlerindeki desenlere dayanarak tahmin yapar. Örneğin, “Dört gözle bekliyorum…” ile biten bir e-posta verildiğinde, model, “geri bildirim almak için” gibi bir tamamlamada bulunabilir. Bu, modelin bilgili bir tahmin yapmasından kaynaklanır.

Çoğu yapay zeka modeli, web’deki genel veri kümelerinden alınan verilerle eğitilir. Bu tür modelleri geliştiren şirketler, adil kullanımın veri sahiplerini bilgilendirmeden, tazmin etmeden veya kredi vermeden veri toplama ve eğitim için kullanma uygulamalarını koruduğunu savunur. Ancak, birçok telif hakkı sahibi aynı fikirde değil ve bazıları bu uygulamalara karşı dava açmıştır.

Telif hakkı ikilemi, öğrenmeyi bırakma tekniklerine olan ilgiyi artırmıştır. Google, geçen yıl yeni öğrenmeyi bırakma yaklaşımlarının geliştirilmesini teşvik etmek amacıyla çeşitli akademik kurumlarla ortaklık kurarak bir yarışma başlattı.

Unutmanın Zorlukları

Öğrenmeyi bırakma teknikleri, modelleri belirli verilerden “uzaklaştırmak” için tasarlanmış algoritmalara dayanır. Bu teknikler, modelin tahminlerini etkileyerek, modelin belirli verileri çıktı olarak vermesini engellemeyi amaçlar. Ancak, bu algoritmaların ne kadar etkili olduğunu değerlendirmek zordur. Shi ve işbirlikçileri, sekiz farklı algoritmayı test etmek için MUSE (Makine Öğrenmemiş Altı Yönlü Değerlendirme) adını verdikleri bir kıyaslama geliştirdi.

MUSE’de iyi bir puan almak için modelin Harry Potter serisinden kitaplar ve haber makaleleri gibi bilgileri unutması gerekiyor. MUSE, modelin belirli verileri unutmasının yanı sıra, genel bilgiyi koruyup korumadığını da test eder. Shi, “Modeller için etkili öğrenmemiş yöntemleri tasarlamak zordur çünkü bilgi modele karmaşık bir şekilde bağlıdır,” dedi.

Gelecekteki Çalışmalar

Araştırmacılar, test ettikleri algoritmaların modellerin belirli bilgileri unutmasına neden olduğunu buldular, ancak bu süreç modellerin genel yeteneklerine zarar verdi. Bu, ek araştırmalara ihtiyaç duyulduğunu gösteriyor.

Şimdilik, yapay zeka satıcıları eğitim verisi sorunlarına çözüm olarak öğrenmeyi bırakmaya bel bağlayamayacak gibi görünüyor. Belki de gelecekteki teknik bir atılım bu sorunu çözer, ancak şimdilik başka yöntemler aramak gerekecek.

Görsel: Quanta Magazine

Bu yazıyı paylaş: