Jannah Theme License is not validated, Go to the theme options page to validate the license, You need a single license for each domain name.
Teknoloji

Yapay zekayla oluşturulan sahte görseller ve sesler “yeni nesil silah”

Yapay zeka tehdit tespit platformu Sensity AI şirketinin araştırmalarına nazaran, Rusya-Ukrayna Savaşı’nda Ukraynalı siyasetçiler ve askerler, deepfake görüntülerle “teslim olmaya çağıran” ya da “savaş hatası işlediğini itiraf eden” şahıslar üzere gösteriliyor.

Tayvan’da seçim devirlerinde, siyasetçilerin düzmece konuşmaları, uydurma skandalları ve gafa benzeyen sahneleri üzere Çin kaynaklı yapay zeka içerikleri toplumsal medyada yayılarak karşı görüşlü adaylar gaye alınıyor.

Japonya’da ise yapay zekayla üretilmiş uydurma doğal afet imajları, nükleer kaza yahut sel felaketi üzere kurgular halkta panik yaratmak için kullanılıyor.

Bu cins olaylar, yapay zeka araçlarının bilinçsizce ve denetimsizce “yeni jenerasyon silahlar” olarak kullanılması durumunda doğurabileceği tehlikeleri bir defa daha gündeme getiriyor.

“Yapay zeka eserlerini tanımak imkansız hale geldi”

Sensity AI’nin kurucu ortağı Francesco Cavalli, yapay zekayla oluşturulan görseller, görüntüler ve seslerin tesir ve tehlikelerine ait değerlendirmelerde bulundu.

Cavalli, yapay zeka araçları geliştikçe neyin gerçek neyin olmadığını anlamanın daha zorlaştığını söyledi.

Yapay zekayla üretilen içerikleri anlamak için yüzde tutarsız ışıklandırma, çok pürüzsüz cilt dokusu, görüntülerde yapay göz kırpma ya da ağız hareketlerine bakılması tavsiye ediliyor.

Cavalli, “Yapay zeka içerikleri, bilhassa düşük çözünürlüklü yahut sıkıştırılmış formatlarda insan gözüyle tespitten kaçabiliyor. Yapay zekayla oluşturulmuş sesler insan için artık tanınması imkansız hale geldi.” dedi.

Yapay zekayla manipülasyon

Halihazırda yapay zekayla taklit edilen seslerin bu alandaki en yüksek riski oluşturduğu belirtiliyor.

Yapay zeka kullanarak Dışişleri Bakanı Marco Rubio’yu taklit eden bir dolandırıcı, ABD’li politikler tarafından sıkça kullanılan “Signal” isimli iletileşme uygulamasında Rubio ismine düzmece bir hesap oluşturarak üç farklı ülkenin dışişleri bakanları, bir Kongre üyesi ve bir vali ile temas kurdu.

Seslerin kullanımın kolay ve tespitinin de gecikmeli olduğunu lisana getiren Cavalli, taklit seslerin telefonda konuşulan kişinin güvenilen biri olduğuna inandırmak için kullanıldığını tabir etti.

Midjourney ve Runway üzere araçlar geliştikçe gerçekle yapayı dengeli halde ayırt etmekte zorlaşıyor.

Cavalli mevzuya ait, “Üretici araçlar geliştikçe, eğitimli gözler bile kolay kolay kandırılabiliyor.” diye konuştu.

“Seçim müdahalesinde kullanılan yapay zeka üretimi medya, dolandırıcılık platformlarını tanıtan geçersiz basın toplantıları yapan siyasetçiler ve kamuoyunu manipüle etmek için paylaşılan yapay zeka üretimi savaş manzaralarını belgeledik.” diyen Cavalli, bu görsellerin çoklukla düzmece haber siteleri, toplumsal medyadaki reklamlarla yayıldığını anlattı.

Cavalli, Çin, Japonya, Tayvan’da yapay zeka kullanımına ait şirketinin incelediği olaylara atıfta bulunarak, “Tüm bu örneklerde, yapay zeka takviyeli propaganda yalnızca deneysel bir tehdit değil, algıyı manipüle etmek, toplumları istikrarsızlaştırmak ve yumuşak güç uygulamak için çeşitli çatışmalarda faal olarak kullanılan global bir silahtır.” değerlendirmesinde bulundu.

Teknoloji şirketleri ve platformlara yapay zeka tabanlı görsel dezenformasyonla gayret konusunda harekete geçmeleri tarafında davetler yapılıyor.

Platformların ise bu hususa odaklandığı lakin birçoklarının “yapay medyayı geniş ölçekte tespit edebilecek sağlam isimli inceleme sistemlerine sahip olmadığı” tabir ediliyor.

Cavalli, “Bazıları dolandırıcılık kampanyalarından şuurlu biçimde kar ediyor. Lakin dış baskı olunca müdahale ediyor. Tespit teknolojisi sağlayıcılar, platformlar ve düzenleyiciler ortasında daha güçlü işbirliği koşul.” dedi.

Yapay zekayla üretilen içeriklerin “etiketlenmesinin” yanlışsız yol olmadığını düşündüğünü aktaran Cavalli, şunları söyledi:

Yapay zekayla oluşturulmuş içerik bizatihi ziyanlı değil, kullanım formu ve yeri kıymetli. Örneğin, toplumsal medya platformlarının, deepfake dolandırıcılık reklamları için ağlarını kontrolsüz kullandırmasına ağır yaptırımlar uygulanmalı. Kullanıcı şikayetlerine dayanmak yerine, proaktif tedbirler almaları mecburî olmalı.

“Görmek artık inanmak demek olmayacak”

Sensity’nin geliştirdiği sistemler yüz manipülasyonun belirlenmesi, büsbütün yapay zekayla üretilmiş görsellerin tespiti, taklit ses tahlili ve isimli incelemeyi kapsayan dört basamaklı bir tahlil sürecinden geçiyor.

Bu tahlillerin raporları ise resmi soruşturmalarda ve mahkemelerde kullanılabiliyor.

Cavalli, görsel medyaya olan inancın gitgide azaldığına işaret ederek bu bahiste farkındalığın artması gerektiğini vurguladı.

İnsanların yapay zekayla üretilen görsel ve seslerin risklerine karşı eğitilmesi, şirketlerin, gazetecilerin ve araştırmacıların isimli araçlarla donatılması gerektiğinin altını çizen Cavalli, “Görmek artık inanmak demek olmayacak.” sözünü kullandı.

İlgili Makaleler

Bir yanıt yazın

E-posta adresiniz yayınlanmayacak. Gerekli alanlar * ile işaretlenmişlerdir

Başa dön tuşu