Meta, Facebook ve Instagram gibi sosyal medya platformlarında uygulanan ürün ve güncelleme süreçlerindeki risk değerlendirmelerini büyük ölçüde yapay zekâya devretmeye hazırlanıyor. Şirketin hedefi, bu sürecin yaklaşık yüzde 90’ını otomatikleştirerek insan denetimini minimuma indirmek. Yeni sistemle, ürün ekiplerinin sunduğu bilgiler saniyeler içinde analiz edilecek ve olası güvenlik riskleri tespit edilerek ürünlerin yayınlanmadan önce gerekli düzenlemelerinin yapılması sağlanacak.
Sistemin temel işleyişine göre, geliştirici ekipler, yenilikle ilgili bir anket dolduracak ve bu veriler yapay zekâ tarafından analiz edilerek değerlendirmeye alınacak. Tespit edilen riskler doğrultusunda, müdahale edilmeden ilgili ürün ya da güncellemenin yayınlanmasına izin verilmeyecek. Meta yetkilileri, bu uygulamanın özellikle düşük riskli ürünlerde etkili olacağını, ancak karmaşık veya daha önce karşılaşılmamış durumlar için hâlen insan uzmanların sürece dâhil edileceğini belirtiyor.
Ancak şirket içinde ve dışında bazı uzmanlar bu değişimin potansiyel tehlikelerine dikkat çekiyor. Özellikle genç kullanıcıların korunması, şiddet içeriğinin tespiti ve yanlış bilgiyle mücadele gibi alanlarda yapay zekânın yeterince hassas davranamayabileceği ifade ediliyor. Meta’nın bu yaklaşımı, içerik denetimi ve güvenlik politikalarının yapay zekâ sistemleriyle ne ölçüde sürdürülebileceği konusunda yeni tartışmaları da beraberinde getiriyor.
Bu gelişme, Meta’nın yayınladığı son bütünlük raporuyla aynı döneme denk geldi. Raporda, platformlarda içerik kaldırma oranlarında düşüş olduğu, buna karşılık şiddet ve zorbalık içeriğinde hafif bir artış gözlemlendiği belirtiliyor. Bu veriler, yapay zekâ temelli sistemlerin pratikte ne ölçüde etkili olabileceği sorusunu gündeme getiriyor.
Meta’nın yapay zekâya yönelimi, teknoloji dünyasında hız ve verimlilik odaklı dönüşümün bir parçası olarak değerlendiriliyor. Ancak bu süreçte, güvenlik ve etik kaygıların nasıl dengeleneceği şirketin gelecekteki dijital yönetişim stratejileri açısından belirleyici olacak gibi görünüyor.