Çin merkezli yapay zeka şirketi DeepSeek’in geliştirdiği R1 modeli, güvenlik açıkları nedeniyle gündemde. The Wall Street Journal’ın aktardığına göre, modelin biyolojik silah saldırısı planları oluşturmak, kötü amaçlı sosyal medya kampanyaları tasarlamak ve yasadışı içerikler üretmek için manipüle edilebildiği ortaya çıktı. Yapılan testlerde, R1'in tehlikeli içerikler üretmeye yatkın olduğu ve güvenlik önlemlerinin yetersiz kaldığı ifade ediliyor.
Güvenlik Açıkları ve Manipülasyon Riski
Palo Alto Networks tehdit istihbaratı ve olay müdahale bölümü Unit 42'nin Kıdemli Genel Müdür Yardımcısı Sam Rubin, DeepSeek R1 modelinin yasadışı veya zararlı içerik üretmek için diğer modellere kıyasla daha savunmasız olduğunu belirtti. Anthropic CEO’su Dario Amodei de R1’in bir biyolojik silah güvenlik testinde en kötü performansı sergilediğini söylemişti.
The Wall Street Journal ekibinin testlerinde modelin, gençlerin psikolojik kırılganlıklarını hedefleyen bir sosyal medya kampanyası tasarlamak üzere yönlendirilebildiği kaydedildi. Ayrıca, modelin biyolojik silah saldırısı için talimatlar verdiği, Hitler yanlısı bir manifesto yazdığı ve kötü amaçlı yazılım içeren kimlik avı e-postaları hazırladığı belirlendi. Benzer talimatlar ChatGPT gibi diğer yapay zeka modellerine verildiğinde ise bu talepleri reddettiği görüldü.
Microsoft’un R1 Modelini Desteklemesi
DeepSeek R1’in güvenlik endişelerine rağmen yoğun ilgi gördüğü belirtiliyor. Sunucu talebindeki artış nedeniyle şirket, model erişimini sınırlamak zorunda kaldı. Microsoft'un geçtiğimiz haftalarda DeepSeek’in muhakeme modeli R1’ı Azure AI Foundry hizmetine eklediği duyurulmuştu. Şirket, platformdaki R1 sürümünün kapsamlı güvenlik değerlendirmelerinden geçtiğini açıkladı. Ancak bu güvenlik testlerinin yeterliliği konusunda soru işaretleri bulunuyor.
Yapay Zeka Güvenliği Tartışmaları
DeepSeek R1 modeliyle ilgili ortaya çıkan bu güvenlik açıkları, yapay zekanın etik kullanımına yönelik endişeleri bir kez daha gündeme getirdi. Yapay zeka sistemlerinin nasıl denetleneceği ve kötüye kullanımın nasıl engelleneceği konusunda regülasyonların geliştirilmesi gerektiği vurgulanıyor. DeepSeek’in modeli üzerindeki güvenlik önlemlerini artırıp artırmayacağı ve bu konuda nasıl bir politika izleyeceği ise merak konusu.