Cuma, Kasım 15, 2024
More

    Deepfake nedir? Deepfake’den neden endişe duymalıyız?

    Sosyal medyada hortlayan yeni içerik türü deepfake, gerçeğinden farksız görüntüler oluşturması sayesinde dijital dünyanın güvenirlik bariyerlerini fazlasıyla sarsabilir. Peki deepfake nedir?

    Eğer “görmek inanmaktır” düşüncesine sahip bir insansanız, ‘deepfake’ tanımıyla karşımıza çıkmaya başlayan içerikler sizin için bir kabus halini alabilir. Deepfake, bir zamanlar yaşanmış olayların tartışmasız delili kabul edilen video ve fotoğrafları artık sorgulanabilir hale getiren teknolojiyi temsil ediyor.

    İnternette kısa zamanda sahte olduğunu sadece izleyerek anlamamızın neredeyse mümkün olmadığı (üst düzey bir video uzmanı değilseniz) çok sayıda video belirdi. Bir tanesinde, ABD eski başkanı Barack Obama mevcut ABD Başkanı Donald Trump için “tam bir dallama’ ifadesini kullanıyor. Söz konusu video bir deepfake yapımı.

    İnternet gazeteciliği, vatandaş gazeteciliği, sahte haberler ve manipülatif içerik gibi doğru ve sahte bilginin kesişiminde yer alan birçok kavram, artık deepfake teknolojisinin tehdidi altında. Herkesin aklını karıştıran ve bir gün “gerçek olup olmadığını nasıl anlayacağımızdan emin olmadığımız” içerikler, dijital dünyada büyük bir sorun oluşturabilir. Bu yüzden deepfake nedir, nasıl çalışır ve neden deepfake’den endişe duymamız gerekir, bunlara göz atmalıyız.

    Deepfake nedir?

    Deepfake, içerik oluşturmak veya manipüle etmek için makine öğrenimi kullanan bir yapay zeka (AI) yöntemi. Deepfake genelde montaj oluşturmak veya bir insanın yüzü üzerine diğerini eklemek için kullanılıyor. Ancak deepfake ile yapılabilecekler, sadece bu özelliğin çok ötesine geçiyor. Deepfake ile ses, hareket, manzara, hayvanlar ve daha birçok öge oluşturulabiliyor.

    Deepfake nasıl çalışıyor?

    Deepfake içerikleri, GAN (üretken çekişmeli ağlar) adı verilen makine öğrenimi yöntemi ile oluşturuluyor. GAN’lar, iki yapay sinir ağı kullanıyor: Bir üretken ve bir ayıklayıcı. Her ikisi, sürekli birbirleriyle mücadele ediyor.

    Mücadele etmeleri şu anlama geliyor: Üretken gerçekçi bir görüntü oluşturmaya çalışırken, ayrıştırıcı görüntünün sahte olup olmadığına karar vermeye çalışıyor. Eğer üretken, ayrıştırıcı ağı kandırırsa, ayrıştırıcı bilgiye başvurarak karar verme gücünü geliştiriyor. Benzer şekilde, eğer ayrıştırıcı üretkenin oluşturduğu görüntünün sahte olduğunu anlarsa, üretken daha gerçekçi görüntüler yapabilmek için uğraşıyor. Sonu gelmeyen bu döngü, nihayetinde insan gözünde sahte olduğu anlaşılamayacak bir görüntü, video veya ses oluşana kadar devam ediyor.

    Deepfake’in kökenleri

    İlk deepfake videoları, şaşırmayacağımız gibi porno içerikliydi. Kısaca, ilk deepfake denemeleri ünlü aktörlerin yüzlerini porno yıldızlarının yüzleri ile değiştirerek yapıldı. İnternetin en çok anılan aktörü Nicholas Cage, en başta gelen deepfake deney malzemelerinden biriydi.

    Deepfake’in popüler kültüre adım atması ise Reddit sayesinde oldu. “deepfakes” ismini kullanan bir Reddit kullanıcısı zamanla kendisi gibi deepfake videoları paylaşan kullanıcılar ile r/deepfakes sayfasını oluşturdu.

    Üretken mücadeleci ağların gerçek yaratıcısı ise Ian Goodfellow. Kendisi, meslektaşları ile GAN konseptini ilk olarak 2014’te Montreal Üniversitesi’nde sundu. Akademik sürecin ardından Google’da işe başlayan Goodfellow, bugün Apple’da kariyerine devam ediyor.

    Deepfake’in sunduğu tehditler

    İçerik manipülasyonu yeni bir kavram değil. Tersine özellikle internet haberciliğinin en çok mağdur olduğu eylemlerden biri. Bugüne dek kaynağı bilinmeyen veya değiştirilen içeriklerin sayısız sahte ve yanlış haber yapmak için kullanıldığı dijital medya, deepfake ile üstesinden gelinmesi çok daha büyük bir tehdit ile karşı karşıya olabilir.

    En endişe verici durum, FakeApp gibi deepfake içerikler üretmek için kullanılan uygulamalar bedava indirilebiliyor ve güçlü işlemciler gerektirmiyor. Dahası, makine öğrenimine dayanan uygulamalar tüm sahteciliği kendi kendine yaptığı için kullanıcıların neredeyse hiçbir şey yapmasına gerek kalmıyor.

    Deepfake’in son derece kolay kullanımı, yeni medyanın kontrolsüz yayılan tüm salgınları gibi bugün kamuoyunu, politikacıları, ünlüleri ve devletleri paniğe sürüklemiş durumda. Art niyetli kişiler, deepfake yazılımlarını Nicholas Cage şakaları yapmanın çok ötesine geçen içerikler üretmekte kullanabilir. Hakkınızda sahte bir video hazırlandığını veya sahte görseller ile sizi suçlayıcı bir haber yapıldığını düşünün. Ya da internetin bir diğer sorunu olan “intikam pornosuna” malzeme edildiğinizi hayal edin. Bir anda yayılacak tamamen sahte bir içeriği çürütmek artık çok daha zor ve maliyetli olabilir.

    Dahası, birçok insan deepfake’in verdiği imkanla ortaya çıkıp geçmişteki belli görüntülerin sahte olduğunu iddia edebilir. Suçlandıkları veya suçlu bulundukları görsellerin deepfake olduğunu öne sürmek, kısa zamanda adapte olacağımız yeni bir savunma şeklini alabilir.

    Nasıl çözüm bulunacak?

    Deepfake ilk anda fark etmesi çok olsa da uzmanlar tarafından sahteliği tespit edilebilen bir teknoloji. Yine de, kendini geliştirmeye devam eden teknolojinin ileride sahte olduğu anlaşılamayacak kadar gerçek olmasından korkuluyor.

    Bugüne kadar deepfake’den nasibi alan birçok sosyal medya ve platform var. Bunlar arasında Twitter, Pornhub ve Reddit de yer alıyor. İnternet sayfaları ve platformlar deepfake içeriklerini ayıklamak için yoğun çaba harcarken, DARPA (ABD Gelişmiş Savunma Araştırmaları Proje Ajansı) Colorado Üniversitesi ile deepfake içeriklerini tespit edecek bir teknoloji üzerinde çalışıyor.

    Deepfake’e karşı geliştirilen yazılımlar hayatımıza girene kadar, yapmamız gerekenler oldukça basit: Karşımıza çıkan görselleri çok iyi analiz etmek ve sazan gibi atlamamak. Bilgi kaynaklarını iyi kullanmasını bilen herkes, deepfake’e karşı daha dirençli olacaktır. Çünkü bir içeriğe baktığımız zaman kaynağını, nerede, ne zaman oluşturulduğu ilk aklımıza gelen sorular olmalıdır. Kısaca aklı başında içerik tüketenler, kendilerini ahmak yerine koydurmaktan çekinmeyenlerin aksine deepfake sahteciliğine kolayca kapılmayacaktır.

    EN COK OKUNANLAR

    İlgili Makaleler