NewsGuard: Yanlış Videoların Yarısı Rusya Kaynaklı Dezenformasyon Operasyonlarından Bir araştırma sonucuna göre, Sora 2 kötü niyetli kullanıcılar tarafından dezenformasyon kampanyalarında kolayca kullanılabiliyor. NewsGuard tarafından yapılan açıklamaya göre, üretilen yanlış videoların beşte biri Rusya kaynaklı dezenformasyon operasyonlarından geliyor. Sahte Videolar Dakikalar İçinde Üretilebiliyor Araştırmacılar, Sora 2 kullanılarak sadece birkaç dakika içinde Moldova’da bir seçim yetkilisinin Rusya…
Bir araştırma sonucuna göre, Sora 2 kötü niyetli kullanıcılar tarafından dezenformasyon kampanyalarında kolayca kullanılabiliyor. NewsGuard tarafından yapılan açıklamaya göre, üretilen yanlış videoların beşte biri Rusya kaynaklı dezenformasyon operasyonlarından geliyor.
Araştırmacılar, Sora 2 kullanılarak sadece birkaç dakika içinde Moldova’da bir seçim yetkilisinin Rusya yanlısı oy pusulalarını yaktığı, ABD sınırında bir çocuğun gözaltına alındığı ve Coca-Cola’nın Bad Bunny’nin Super Bowl sahnesinde yer alması nedeniyle sponsorluktan çekildiği gibi sahte videolar üretebildi. NewsGuard, bu durumun yapay zekâ teknolojilerinin “endüstriyel ölçekte yanlış bilgi üretimini” kolaylaştırdığını belirtti.
OpenAI, Sora 2’nin güvenlik risklerini resmî web sitesindeki “sistem kartında” kabul etti. Şirket, modelin “izinsiz benzerlik kullanımı veya yanıltıcı içerikler” üretebileceğini ve bu nedenle sınırlı davet yoluyla erişim sağlandığını açıkladı. Ayrıca, Sora 2’nin güvenlik önlemlerinin “kademeli olarak” geliştirileceği belirtildi.
Boston Üniversitesi’nden Doç. Michelle Amazeen, bulguların “son derece endişe verici” olduğunu belirterek, “Bu tür sahte videolar, karmaşık bir bilgi ortamında gerçeği yalandan ayırmayı daha da zorlaştırıyor” dedi. Biyometrik kimlik doğrulama firması Daon’un yöneticisi Scott Ellis ise Sora’nın fiilen bir deepfake aracı haline geldiğini vurgulayarak, “Bu tür araçlar kişisel eğlence, profesyonel yapım ve kötüye kullanım için kullanılıyor” açıklamasında bulundu.
Regula Forensics CEO’su Arif Mamedov da “Bu artık amatör sahte video üreticilerinin değil, herkesin kullanabileceği endüstriyel çapta dezenformasyon sistemlerinin çağı” olduğunu belirtti.
OpenAI, Sora 2’nin ürettiği videolara filigran ve C2PA dijital imza eklediğini duyursa da, NewsGuard araştırmacıları bu önlemin etkisiz olduğunu gösterdi. Ücretsiz bir çevrim içi araçla filigranın dört dakika içinde tamamen kaldırılabildiğini belirten ekip, “Videoda sadece hafif bir bulanıklık kalıyor; sıradan bir izleyici fark etmez” ifadesini kullandı.
Güvenlik uzmanları, dijital içeriklerin doğrulanması için blok zinciri tabanlı kimlik sistemlerinin yaygınlaştırılmasını öneriyor. Ancak mevcut durumda, uzmanlara göre Sora 2’nin yüksek kalitede sahte videoları birkaç dakikada üretebilmesi, dijital çağda “gerçeklik algısının giderek aşındığı” yeni bir dönemin başlangıcına işaret ediyor.
Reklam & İşbirliği: [email protected]