Yapay zeka uygulamasıyla üretilen videolara uyarı

Anadolu Üniversitesi Toplumsal Medya ve Dijital Güvenlik Eğitim, Uygulama ve Araştırma Merkezi (SODİGEM) Uzmanı Dr. Öğr. Üyesi Serap Uğur, fotoğraflardan gerçekçi insan görüntüleri üretme yeteneğine sahip, yapay zeka takviyeli “OmniHuman-1” isimli uygulamaya ait, “Bu model tek kare fotoğrafla çok gerçekçi görüntü üretebildiği için toplumsal medya hesaplarında paylaşılan tek bir görsel bile kullanılarak düzmece görüntüler üretilebilir ki bu da bireylerin mahremiyetinin ihlali demekti.” sözlerini kullandı.
Dr. Öğr. Üyesi Uğur, yaptığı yazılı açıklamada, “OmniHuman-1″le üretilen görüntülerin etik yansımalarını ve dallara tesirini kıymetlendirdi.
“OmniHuman-1″in insan animasyonu alanında kıymetli yenilikler sunduğuna değinen Uğur, bu uygulamanın hareket bilgilerini eğitim sürecine dahil ederek, yüz ve beden hareketlerini daha doğal ve gerçekçi bir formda canlandırdığını vurguladı.
Uygulamanın getirdiği yeniliklerin yanı sıra riskler de taşıdığına değinen Uğur, şunları kaydetti:
“OmniHuman-1’in yüz ve beden hareketlerini daha doğal gösterebiliyor ve bir kare fotoğraftan tam beden görünümüne kadar farklı açılardan insan görüntüleri ve animasyonları oluşturabiliyor. Üstelik bu model, sadece konuşma hareketlerini değil müzik söyleme ve insan-nesne etkileşimleri üzere ayrıntıları da işleyebiliyor. Bu da çeşitli senaryolarda daha gerçekçi ve yüksek kaliteli sonuçlar sunmasını sağlıyor. OmniHuman-1’in gerçekçi insan görüntüleri üretme yeteneği, makûs niyetli bireyler tarafından aldatıcı yahut uydurma içerik oluşturmak için kullanılabilir. Tek bir manzara ve ses kaydı ile gerçekçi görüntüler oluşturma kapasitesi, şahısların müsaadesi olmadan onların dijital temsillerinin yaratılmasına münasebetiyle zımnilik ihlallerine yol açmasına neden olabilir. Ayrıyeten bu çeşit teknolojilerin kullanımı, bilhassa uydurma görüntülerin oluşturulması ve yayılması konusunda etik tartışmalara yol açabilir.”
“Deep Fake tespit programlarının geliştirilmesi gerekiyor”
Uğur, OmniHuman-1’in insan animasyonu teknolojisinde değerli ilerlemeler sağlasa da bu çeşit yapay zeka modellerinin kullanımında etik ve güvenlik hususlarına dikkat edilmesinin büyük ehemmiyet taşıdığını vurguladı.
“Uygulama aracılığıyla da bireylerin yüzleri ve sesleri, yapay zeka ile müsaadesiz bir biçimde çoğaltılabiliyor ve berbat niyetli emellerle kullanılma riski taşıyor.” sözlerini kullanan Uğur, şöyle devam etti:
“OmniHuman-1′ isimli yapay zeka dayanaklı uygulamayla tek kare fotoğrafla çok gerçekçi görüntü üretebildiği için toplumsal medya hesaplarında paylaşılan tek bir görsel bile kullanılarak uydurma görüntüler üretilebilir ki bu da bireylerin mahremiyetini ihlali demektir. Ayrıyeten şahısların kimliklerinin taklit edilmesi yoluyla dolandırıcılığa ve uydurma haberlerin yayılmasına da yol açabilir. Bundan korunmak için ise bireylerin datalarının korunmasına yönelik Avrupa’daki Genel Bilgi Müdafaa Tüzüğü (GDPR) üzere kapsamlı data muhafaza kanunları üzere yasal düzenlemeler, dijital kimlik doğrulama sistemlerinin geliştirilmesi üzere tedbirler gerekiyor. Bununla birlikte etik ihlallerin önüne geçilmesi ve toplumun bilinçlendirilmesi için eğitimler düzenlenmesi, hükümetler ve platformların yapay zeka tarafından üretilmiş içeriklere bir ‘etiketleme’ mecburiliği getirmesi, Deep Fake tespit programlarının geliştirilmesi de uygulanabilecek tedbirler ortasında yer alıyor.”
“Dezenformasyon riski artış gösterebilir”
OmniHuman-1 üzere yapay zeka tabanlı insan animasyonu sistemlerinin getirdiği yenilikler ve risklerden etkilenebilecek dallar ortasında medya ve haber dalının yer aldığına değinen Uğur, şunları bildirdi:
“Model, yapay zeka haber sunucuları ile 7/24 kesintisiz üstelik tıpkı anda farklı lisanlarda haber sunumundan, arşiv görsellerinin hareketlendirilerek canlandırılmasına kadar geniş bir uygulama alanına sahip. Bununla birlikte World Economic Forum tarafından yayınlanan 2024 Global Riskler Raporu’nda da iki yıllık süreç için birinci sırada yer alan dezenformasyon riski bu modelle artış gösterebilir. Vefat eden oyuncuların yine sinemalarda yer alabilmesini sağlayabilecek, iş süreçlerinde birçok farklı basamakta tasarruf sağlayacak üzere görünen model, birebir vakitte gerçek aktörler yerine modelle oluşturulan karakterlerin, dublörlerin hatta seslendirmenlerin kullanımını da sağlayabilir. Fakat bu durum kesimde farklı iş kulvarlarında insan kaynağının mesleksel kaybına da yol açabilir.”
Uğur, modelin eğitim alanında tarihten fiziğe geniş bir yelpazede öğrenenin öğrenme gereksinimlerine nazaran oluşturulacak sanal öğretmenlerin kullanımının da emsal kolaylıkları olduğu üzere riskleri de beraberinde getireceğinin altını çizdi.