İzinsiz porno üretimi ve finansal dolandırıcılık gibi kötü amaçlarla kullanılan deepfake’ten korunmak mümkün mü?
Ses ve görüntüleri kullanarak yeni içerikler üretken yapay zeka (Generative AI) dolandırıcılık için de yeni bir çağı başlatmış gibi görünüyor.
Şüpheli görünen e-postaların yerini yakınlarınızın ses ve görüntüsüyle sizi arayıp para isteyen yazılımlar alırken, rıza dışında üretilen videolardan kazanç sağlama vakalarının sayısı gün geçtikçe artıyor.
İnsan ses ve görüntüsünü taklit eden deepfake dolandırıcılıklarına karşı araçlar geliştirilse de teknolojideki hızlı ilerlemeler, “ebedi bir kedi-fare oyunu çağını” başlatmış olabilir.
DEEPFAKE NEDİR, NASIL KULLANILIYOR?
Deepfake kullanım alanları gün geçtikçe çeşitlenen ve gelişen bir teknoloji. Yapay zeka ile gerçeğe yakın görüntü ya da seslerin üretilmesini sağlıyor.
Deepfake’in günümüzde ufuk açıcı iyi kullanımları geliştirilmeye devam ediyor.
Örneğin Amerika Birleşik Devletleri’ndeki (ABD) University of California San Francisco ve Berkeley’den araştırmacılar bu yaz 18 yıldır felçli olan bir hastanın, beyin implantı ve yapay zeka yardımıyla ilk kez “konuşmasını” sağlamıştı.
Ekip, hastanın 2005 yılındaki düğününde kaydedilen bir videosunu kullanarak sesini yeniden sentezlemişti.
Umut veren çalışmaların karşısında deepfake, kötü amaçlı kullanımlar için de yeni bir dönemi başlatıyor gibi görünüyor.
Mayıs ayında Çin’in kuzeyinde gerçekleşen bir dolandırıcılık vakasında Baotou şehri polisi, deepfake kullanan bir saldırganın, kurbanın arkadaşının kimliğine bürünerek sahte video görüşmesiyle 622 bin dolar tutarında para transferi yapmasını sağladığını açıklamıştı.
Kurban, arkadaşının ihale sürecinde depozito yatırması gerektiğine inandığı için parayı transfer ettiğini söylemişti.
Deepfake’in finansal suçlarda kullanımı, saldırıların hedef kitlesinin sadece dijital okur yazar nüfus olmadığını göstermesi açısından önemli bulunuyor.
KİMLER HEDEF OLABİLİR?
Bugün bir deepfake yazılımı indirip saatler içinde sahte bir video ya da ses üretmek mümkün.
İnternette görselleri ya da sesleri erişilebilir olan ünlüler, sosyal medya fenomenleri ya da ürettiği içerikle para kazananlar deepfake saldırılarının ilk akla gelen hedefi olabiliyor.
Ancak kötü niyetli kullanımlar bundan çok daha geniş bir kitleyi ilgilendiriyor ve herkesi eşit etkilemiyor.
Örneğin rıza dışı özel görüntülerin üretimi açısından kadınlar daha büyük risk altında görünüyor.
BBC Türkçe‘nin sorularını yanıtlayan Oxford Üniversitesi İnternet Enstitüsü’nde yapay zeka etiği ve yasaları alanında uzman Prof. Sandra Wachter, deepfake’in kötü niyetli kullanımının toplumsal cinsiyet boyutuna dikkat çekiyor:
“Teknoloji çoğu zaman kadınlarla ilgili rıza dışı mahrem görüntüleri dağıtmak ve itibarlarını zedeleyecek karalama kampanyaları için kötüye kullanılıyor.”
Saldırılar küçük çocukları ve okul çağındaki kız çocuklarını da etkiliyor.
Bu hafta başında ABD’nin doğu ve batı yakısındaki iki farklı okulda kız çocuklarının deepfake ile çıplak görüntülerinin üretilip dolaşıma sokulmasından mağdur olan aileler, yapay zekanın zararları karşısında daha sıkı yasal önlemler istediklerini söylüyor.
Sahte görüntülerle birlikte sahte ses üretimindeki gelişmeler de yeni güvenlik açıklarıyla ilgili soru işaretleri doğuruyor.
BBC Türkçe‘nin sorularını yanıtlayan Almanya’daki Münih Ludwig Maximilian Üniversitesi’nde Bilgisayar Görüşü ve Öğrenimi Grubunun başındaki Prof. Björn Ommer, sahte sesin, “alıcıya orijinalliği doğrulamak için nispeten sınırlı seçenek bıraktığı için özellikle sorunlu bir saldırı” türü oluşturabileceğini söylüyor.
Deepfake ile üretilen sahte sesler bugün sesli kimlik doğrulama sistemleri kullanan şirketleri de tehdit ediyor.
İngiltere’deki Waterloo Üniversitesi’nden araştırmacılar deepfake ile ürettikleri sesi kullanarak sesli kimlik doğrulama sistemlerini aldatma girişimlerinde sadece altı denemede yüzde 99 oranında başarı elde ettiklerini açıklamışlardı.
Araştırmacılar kimlik doğrulamak için sadece müşterilerinin sesini kullanan şirketlerin daha güçlü önlemler almaları gerektiği konusunda uyarıda bulunmuştu.
Buna ek olarak nüfusun ileri yaşlı kesimi, deepfake ile yakınlarının sesini üreterek onlardan para isteyen saldırılara karşı daha büyük risk altında olabiliyor.
Prof. Ommer, “Burada hedefler yüksek tanınırlığa sahip kişiler değil, en az medya/dijital okur yazarlığına sahip olanlar” diyor.
Prof. Ommer bunu, ses sentezindeki son gelişmelerin, modellerin saatlerce ses kaydının kullanılması yerine sadece birkaç örnekle eğitilmesine odaklandığını belirterek açıklıyor.
Deepfake sosyal medyada hızla yayılan dezenformasyon kampanyalarının da bir parçası olabiliyor ve bu sayede hemen hemen tüm internet kullanıcılarını etkiliyor.
Oxford Üniversitesi’nden Prof. Sandra Wachter, “Ve sorun şu ki, herkes bundan etkileniyor” diyor ve ekliyor:
“Politikacılar ve devlet başkanları, dezenformasyona yol açabilecek ve seçim süreçlerini etkileme olasılığı olan potansiyel hedefler.
“Teknoloji, savaşlarla ilgili sahte haberlerin ve komplo teorilerinin yayılması için kullanılıyor, bu da barışı ve demokrasiyi etkiliyor.
“Kesinlikle bir doğruluk krizinin içindeyiz. Gerçek, kurgu ve sahteyi birbirinden ayırmak zorunda olmamız yeni bir şey olmasa da gözlerimizi ve kulaklarımızı bu kadar ikna edici bir şekilde kandıran bir teknolojiye daha önce hiç sahip olmadık.”
DEEPFAKE DOLANDIRICILIĞINDAN KORUNMAK MÜMKÜN MÜ?
İnternet kullanıcılarını sahte ses ve görüntü üretilmesine karşı koruduğunu ya da sahte videoları tespit ettiğini iddia eden çevrimiçi araçlar var.
Ancak bu araçların çoğunluğunun kullanıcı dostu olduğunu veya yaygınlaştığını söylemek zor.
Buna ek olarak uzmanlara göre bugün en önemli zorluklardan biri yapay zekanın gelişim hızı.
Sahte ses üreten deepfake yazılımlara karşı koruyucu bir yazılım geliştiren St Louis’teki Washington Üniversitesi’nden Bilgisayar Bilimi ve Mühendisliği alanında çalışan Yrd. Doç. Dr. Ning Zhang, BBC Türkçe‘ye, “mükemmel güvenlikte bir sistem yok” diyor.
“Sesi tamamen farklı bir teoriyle sentezleyecek yeni teknolojiler karşısında koruma uygulamasının mutlaka bunlara göre uyarlanması gerekir” diye ekliyor.
Aynı senaryo sahte görsel üreten yapay zeka yazılımları için de geçerli ve sahte içerikler gittikçe daha ikna edici hale geliyor.
Oxford Üniversitesi’nden Prof. Wachter, “Bazılarının sahte içerik oluşturacağı, bazılarının ise söz konusu içeriği tespit edip işaretleyecek teknolojiler yaratacağı ebedi bir kedi fare oyunu çağına girdiğimizi düşünüyorum” diyor.
Prof. Wachter “sahte içerikleri tespit edebilen yüzde 100 güvenilir bir sisteme sahip olmamızın hiçbir zaman mümkün olmayacağını” düşündüğünü söylüyor ve ekliyor:
“Ancak bu bizi yıldırmamalı. Ne zaman birisi bir duvar örse, başkası da onun üzerinden atlamak isteyecektir.
“Yapabileceğimiz tek şey (sahte içerikleri) tespit yazılımına yatırım yapmak, tetikte olmak ve eleştirel kalmak.”
Eleştirel ve sorgulayıcı olmak, internette gördüğümüz sahte içeriklerin yayılmasının yanında, yakınının sesinden şüpheli bir telefon alan bir kişinin bu çağrıyı doğrulamasını ve belki hayatı boyunca biriktirdiği paranın yanlış ellere geçmesini de önleyebilir.
Bireysel çabalarınsa sahte içeriklerin olası zararlarına karşı insanları koruyan yasal düzenlemelerle desteklenmesi gerekiyor.
Prof. Wachter, “İleriye yönelik olarak, yapay zeka içeriklerine ‘filigranlan eklenmesini’ ve bu işaretlerin kaldırılmasına para cezası verilmesini yasal olarak zorunlu kılmak da önemli olacaktır” diyor.
Avrupa Birliği’nden ABD’ye ve OpenAI, Google gibi teknoloji şirketlerine farklı kesimler yapay zeka içeriklerinin filigranlarla işaretleneceğini bu yıl taahhüt etmişti.
İngiltere’de Lordlar Kamarası’nda incelenen Çevrimiçi Güvenlik Yasası, rıza dışı deepfake porno görüntülerinin paylaşımını yasa dışı hale getiriyor.
Yine de yasal düzenlemelerin yapay zekanın gelişim hızını yakalayıp yakalayamacağı belirsizliğini koruyor.