Her gördüğünüze inanmayın!
İlk tanışmalarında Neo’ya ne demişti Morpheus, “Solduğunun hava olduğunu mu zannediyorsun?” Sizler de her gördüğünüz fotoğrafın, izlediğiniz videonun gerçek olduğunu mu zannediyorsunuz? O zaman buyurun bu haftanın konusu Deepfake’e…
Deepfake yapay zekanın derin öğrenme kabiliyeti (deep learning) ve sahte (fake) kelimesinin birleşiminden oluşan bir terim. 2017 yılında Reddit’de bir kullanıcını “deepfakes” başlığı ile yaptığı paylaşımlar sistemin adını da koymuş oldu.
Programın çalışma mantığını kaynak videodaki hareketleri (kaslar, mimikler, ifadeler) inceleyerek bu pattern’i kaynak yüze eklenecek yeni yüz üzerine uygulamak diye kabaca anlatabiliriz. Alttaki videoda gördüğünüz örnek üzerinden gidersek önce Arnold Schwarzenegger’ın vücut hareketleri, yüz ifadeleri, mimikleri analiz ediliyor. Sonra Slyvester Stallone’nin görseli bu patternlere uyarlanıyor. Böylelikle ortaya insanı hem hayret düşüren hem de tanımlanamayan bir rahatsızlık hissi veren bu yapıt çıkıyor.
Tabi bu arada video ile aynı çizgide audio deepfake de gelişiyor ve sesler de taklit edilebiliyor.
Doksanlı yıllarda akademik düzeyde başlayan görüntü işleme teknolojisi ile ilgili çalışmalar ev kullanıcılarının donanımlarının çılgınca güçlenmesi ile amatör seviyede ciddi atılım yaptı. Deepfake bunun en bariz örneklerinden.
Teknik terimlerle sizi sıkmak istemediğim için gelelim bu teknolojinin bambaşka ihtimallerine.
Deepfake fırtınasını başlatan mevzu bir anlamda Nicolas Cage’in yüzünün neredeyse tüm sinema karakterlerinin yüzlerine yapıştırıldığı videolar oldu. Gerçekten eğlenceliydi.
Fakat sonra her teknolojide olduğu gibi bunda da art niyet devreye girdi. Masanın üstünde duran bir bıçakla güzel bir yemek yapmak için sebze doğrayabilirsiniz ya da insan öldürebilirsiniz. Teknolojinin çıkışından sonra yolunu belirleyen maalesef ki insan doğası her zaman.
Eğlenceli videolar ile başlayan bu akım bir anda sıkıntı yaratan videoları da üretmeye başladı. Daisy Ridley ve Alyson Hannigan’ın aslında hiç var olmayan “porno” filmleri ortaya çıktı. Bunun peşi de çorap söküğü gibi geldi.
Evet bu videoların sahte olduğunu tespiti algoritma analizi ile çok çok kolay. Ayrıca kimse bu iki aktristin bir porno kariyeri olamayacağını çok çok iyi biliyor. Fakat biraz şeytanın avukatlığını yapalım; sırf dedikodu sebebi ile sözde namus cinayetleri işlenen bir coğrafyada sıradan bir kadının böyle bir videoda kullanıldığını düşünün. Hayır eşeğin aklına karpuz kabuğu düşürmek değil amacım, sadece artık bu kadar kolay erişilen bir teknolojinin aslında nasıl büyük etkiler yaratabileceğini göstermek istiyorum.
Tabii tek kaynaktan yönetilen medyamızın bu olaya yaklaşımı da birbirinin kopyası haberler ile oldu. İnternetteki büyük tehlike (!). Bu teknoloji nedir, teknik detayları nelerdir, nasıl çalışır diye en ufak bir araştırma yapmadan birbirinin benzeri şablon cümlelerle verilen sözde bilgi ile sıradan Türk insanı deepfake konusunda “uzman” oldu. Doblo’ya yaptıracağı tuğranın ardından yeni bir sohbet malzemesi bulmuş oldu yani.
İşin bir de siyasi kısmı var. Aşağıda görmüş olduğunuz videoda yönetmen ve aktör Jordan Peele deepfake ile Obama oluyor örneğin. Bir başka örnekte de Obama’yı Trump’a “dallama” derken görebiliyoruz. Düşünsenize bir gün facebook akışınıza bir video düşüyor. Sayın Cumhurbaşkanı Erdoğan, Chp’nin bu ülke için nasıl büyük bir şans ve değer olduğunu anlatıyor. Evet komik geliyor ama deepfake ile bunların hepsi mümkün.
Ben bu teknolojiyi asla tehlike olarak görmesem de gaza gelmeye, yakıp yıkmaya hazır bir toplumda risk barındırdığını söylemek mümkün. Teknolojiye katkısını say dendiğinde cevap verilemeyen fakat yapılan katliamları say dendiğinde tek nefeste 9-10 olayın sayılabildiği bir ülkede hele.
Eğlenceli bir konu nasıl böle karanlık bir noktaya geldi değil mi?
Mutlu haftalar dilerim.