Deepfake nedir? Deepfake teknolojisi, dünyanın herhangi bir yerinden bir kişiyi, aslında katılmadığı bir videoya veya fotoğrafa sorunsuz bir şekilde monte edebilir. Bu tür yetenekler onlarca yıldır var olmuştur Ancak bu tür etkileri oluşturmak için önceden tüm uzmanlarla dolu stüdyolara bir yıl harcamak gerekiyordu. Şimdi, yeni otomatik bilgisayar grafikleri veya makine öğrenimi sistemleri olan deepfake teknolojileri, görüntüleri ve videoları çok daha hızlı bir şekilde sentezleyebilir.
Ancak “deepfake” terimi etrafında büyük bir karışıklık var ve bilgisayar görüntüleme ve grafik araştırmacıları, bu kelimeyi nefretle karşılıyor. Bu kelime, AI tarafından üretilen son teknoloji videolarından potansiyel olarak sahte görünen herhangi bir görüntüyü tanımlamak için bir yakalama terimi haline gelmiştir.
“Deepfake” olarak adlandırılan birçok şey aslında öyle değil: Örneğin, eski başkan adayı Michael Bloomberg’in kampanyası tarafından yayınlanan ABD Demokratik Parti ön seçimi tartışmalı bir video, standart video düzenleme becerileriyle yapıldı. Deepfake’lerin hiçbir rolü yoktu.
Deepfake Teknolojisinin Kullanım Alanları
Eğlence ve Sanat: Deepfake’ler, ünlü aktörlerin veya şahsiyetlerin farklı filmlerde veya videolarda rol almasını sağlayarak eğlence ve sanat alanında kullanılabilir. Örneğin, bir aktörün tarih sahnelerinde görünmesi gibi.
Dublaj ve Çeviri: Deepfake teknolojisi, bir kişinin ağzını taklit ederek farklı dillerde konuşmasını sağlayarak dublaj ve çeviri işlemlerini kolaylaştırabilir.
Eğitim ve Eğitim: Deepfake’ler, eğitim materyalleri veya eğitim simülasyonları oluşturmak için kullanılabilir. Örneğin, tıp öğrencileri için hastalık teşhisi eğitimlerinde hastaların ses ve yüz ifadeleri taklit edilebilir.
Deepfake Teknolojisinin Tehlikeleri ve Sorunları
İnternet Güvenliği ve Gizlilik: Deepfake’ler, kişisel görüntü ve seslerin sahte içeriklerde kullanılmasıyla kişisel gizliliği tehdit edebilir. Özellikle nonconsensual pornografik deepfake’ler, cinsel taciz ve istismar riskini artırabilir.
Manipülasyon ve Dolandırıcılık: Deepfake’ler, politikacıların veya iş liderlerinin söylemlerini manipüle ederek yanıltıcı bilgiler yaymak veya dolandırıcılık yapmak için kullanılabilir.
Toplumsal Etkiler: Deepfake’ler, gerçek ve sahte içerik arasındaki sınırları bulandırarak toplumun güvenini sarsabilir. Bu, siyasi istikrarsızlık, toplumsal huzursuzluk ve genel olarak güven kaybına yol açabilir.
Deepfake Teknolojisinin Engellenmesi ve Denetimi
Yasal Düzenlemeler: Birçok ülke, deepfake teknolojisinin kötüye kullanılmasını engellemek için yasal düzenlemeler getiriyor. Bu düzenlemeler, deepfake pornografi, seçimlere müdahale veya dolandırıcılık gibi alanlarda kullanımı sınırlayabilir.
Teknolojik Çözümler: Teknoloji şirketleri, deepfake’leri tespit etmek ve engellemek için yapay zeka tabanlı sistemler geliştiriyor. Bu sistemler, görüntü manipülasyonunu tespit etmek veya sahte içeriği tanımlamak için kullanılır.
Nasıl Oluşturulur?
Deepfake videolarının temel bileşeni, deepfake videolarını daha hızlı ve daha düşük maliyetle üretmeyi mümkün kılan makine öğrenimidir. Bir kişinin deepfake videosunu oluşturmak için bir oluşturucu, önce kişinin gerçek video görüntülerinin birçok saatindeki eğitim verileri üzerinde bir sinir ağı eğitir ve ona farklı açılardan ve farklı aydınlatma altında nasıl göründüğüne dair gerçekçi bir “anlayış” kazandırır. Daha sonra eğitilmiş ağı, kişiyi farklı bir aktörün üzerine eklemek için bilgisayar grafik teknikleri ile birleştirir.
AI’nın eklenmesi, işlemi önceki yöntemlere göre daha hızlı hale getirse de, bu işlemin tamamen kurgusal bir duruma bir kişiyi yerleştiren inandırıcı bir bileşik üretmek için hala zaman gerektirir. Oluşturucunun ayrıca görüntüdeki belirgin hataları ve artefaktları önlemek için eğitilmiş programın birçok parametresini manuel olarak ayarlaması gerekir. Süreç kesinlikle basit değildir.
Birçok kişi, gelecekteki deepfake gelişiminin en önemli motorunun generatif çekişmeli ağlar (GAN’lar) olarak adlandırılan bir deep learning algoritması sınıfı olacağını düşünüyor. GAN tarafından üretilen yüzler, gerçek yüzlerden neredeyse ayırt edilemez. Deepfake manzarasının ilk denetimi, GAN’lara tam bir bölüm ayırmış, bunlarla sofistike deepfake’ler oluşturmanın herkes için mümkün olacağını öne sürmüştür.
Ancak bu özel tekniğe odaklanmak yanıltıcı olmuştur. Siwei Lyu, SUNY Buffalo’dan, bu konuda “Bugünlerde çoğu deepfake videosu, GAN’ların çok belirgin bir rol oynamadığı algoritmalar tarafından üretiliyor.” diyor.
GAN’larla çalışmak zordur ve büyük miktarda eğitim verisi gerektirir. GAN modellerinin diğer tekniklere göre görüntüleri üretmeleri daha uzun sürer. Ve en önemlisi, GAN modelleri görüntüleri sentezlemek için iyidir, ancak videoları yapmak için değil. Aynı görüntüyü bir çerçeveden diğerine koruma ve hizalama konusunda zorluk yaşarlar.
En bilinen sesli “deepfake”ler de GAN’ları kullanmıyor. Kanadalı bir yapay zeka şirketi olan Dessa (şu anda Square’e ait) tarafından, talk show sunucusu Joe Rogan’ın sesini hiç söylemediği cümleleri söylemek için kullanıldığında, GAN’lar dahil edilmedi. Aslında, bugünün deepfake’lerinin büyük çoğunluğu AI ve AI olmayan algoritmaların bir kombinasyonu kullanılarak yapılır.
Kim Deepfake Oluşturuyor?
En etkileyici deepfake örnekleri genellikle üniversite laboratuvarlarından ve bu laboratuvarların kurduğu girişimlerden çıkıyor: futbol yıldızı David Beckham’ın dokuz dilde akıcı bir şekilde konuştuğu geniş bir şekilde rapor edilen bir video, aslında sadece birini konuştuğu bir versiyonudur. Münih Teknik Üniversitesi’nde geliştirilen kodun bir versiyonudur.
MIT araştırmacıları ayrıca eski ABD Başkanı Richard Nixon’un, Apollo 11 başarısız olursa ülke için hazırladığı alternatif konuşmasını yaptığı tuhaf bir video yayınladı.
Ancak hükümetleri ve akademisyenleri endişelendiren deepfake’ler bunlar değil. Deepfake’lerin laboratuvar düzeyinde veya yüksek teknolojili olmaları gerekmiyor; nonconsensual pornografik deepfake’ler ve diğer sorunlu formlar tarafından gösterildiği gibi toplumsal yapıya zarar verme potansiyeli taşıyorlar.
Aslında, deepfake’lerin adı bile, türün ur-örneği olan ve Google’ın açık kaynaklı derin öğrenme kütüphanesini kullanarak porno oyuncularının yüzlerini aktrislerin yüzleriyle değiştiren bir Reddit kullanıcısı olan r/deepfakes tarafından 2017 yılında oluşturulan örneğe dayanır. Bugün vahşi doğada bulunan DIY deepfake’lerin içindeki kodlar çoğunlukla bu orijinal koddan türemiştir ve bazıları eğlenceli düşünsel deneyler olarak kabul edilebilir, ancak hiçbiri inandırıcı olarak adlandırılamaz.
Peki neden herkes bu kadar endişeli?
“Teknoloji her zaman gelişir. İşte bu nasıl çalışır,” diyor California Üniversitesi, Berkeley’den dijital adli bilimler uzmanı Hany Farid. Araştırma topluluğunda DIY tekniklerinin ne zaman yeterince rafine olup gerçek bir tehdit oluşturacağı konusunda bir fikir birliği yoktur – tahminler 2 ile 10 yıl arasında büyük ölçüde değişmektedir. Ancak uzmanlar sonunda herkesin akıllı telefonlarındaki bir uygulamayı açıp başka birinin gerçekçi deepfake’lerini üretebileceği konusunda aynı fikirde görünüyorlar.
Deepfake’ler Ne İçin Kullanılır? Şu anda deepfake’lerin en net tehdidi kadınlara yönelik – internet üzerindeki deepfake’lerin yüzde 96’sını nonconsensual pornografi oluşturuyor. Çoğu ünlüye yönelik, ancak deepfake’lerin sahte intikam pornosu oluşturmak için kullanıldığına dair artan sayıda rapor var, diyor Amsterdam merkezli tespit şirketi Deeptrace’in araştırma sorumlusu olan Henry Ajder.
Ancak kadınlar sadece zorbalığın hedefi olmayacak. Deepfake’ler genel olarak zorbalığı mümkün kılabilir, okullarda veya işyerlerinde herkes insanları saçma, tehlikeli veya zor durumlar içine koyabilir.
Şirketler, deepfake’lerin dolandırıcılıkları hızlandırma potansiyelinden endişe ediyor. CEO dolandırıcılıklarında deepfake sesinin kullanıldığı onaylanmamış raporlar vardır. Şantaj büyük bir kullanım senaryosu haline gelebilir. Kimlik hırsızlığı, biyometrik firması iProov tarafından yapılan bir siber güvenlik endüstrisi anketine göre deepfake’lerle ilgili en büyük endişedir. Yanıt verenlerin temel endişeleri, deepfake’lerin sahte çevrimiçi ödemeler yapmak ve kişisel bankacılık hizmetlerine sızmak için kullanılacağı yönündeydi.
Hükümetler için daha büyük korku, deepfake’lerin demokrasiye yönelik bir tehlike oluşturmasıdır. Bir kadın ünlüyü porno bir videosunda görünür hale getirebiliyorsanız, bir politikacının seçimde yeniden seçilmesi için aynısını yapabilirsiniz. 2018 yılında, Brezilya’nın São Paulo eyalet valisi olan João Doria’nın, evli olan bir politikacının, orgiya katıldığı bir video yüzeyde göründü. Bunu bir deepfake olarak nitelendirdi. Diğer örnekler de vardır. 2018’de uzun süredir hasta olduğuna inanılan Gabon’un Devlet Başkanı Ali Bongo, nüfusu rahatlatmak için şüpheli bir videoda yüzeye çıktı ve bir darbe girişimine yol açtı.
Bu onaylanmamış vakalar etrafındaki belirsizlik, mevcut yetenekleri ne olursa olsun deepfake’lerin en büyük tehlikesine işaret eder: yalancının karı, yani deepfake’lerin varlığı, herhangi bir suç kanıtını deepfake olarak reddedebilecekleri için herkesin istediği her şeyi yapmak için kılıf sağlar. Plausibly deniability. “Bu kesinlikle görmeye başladığınız bir şey: yalancının karı ile sorunlarından kurtulma yolu olarak kullanılması,” diyor Farid.
Kötü Amaçlı Deepfake’leri Nasıl Durdururuz?
Geçen yıl deepfake’lerle ilgili olarak birkaç ABD yasası yürürlüğe girdi. Eyaletler, deepfake pornografiyi suç kapsamına alan ve seçim bağlamında deepfake kullanımını yasaklayan yasaları kabul etmektedir. Texas, Virginia ve California, deepfake pornosunu suç olarak kabul ederken, Aralık ayında başkan ilk federal yasayı Ulusal Savunma Yetkilendirme Yasası’nın bir parçası olarak imzaladı. Ancak bu yeni yasalar, failin bu yargı bölgelerinden birinde yaşaması durumunda yardımcı olur.
Amerika Birleşik Devletleri dışında, deepfake dolandırıcılığını yasaklamak için belirli adımlar atan tek ülkeler Çin ve Güney Kore’dir. Birleşik Krallık’ta ise yasa komisyonu, intikam pornosuyla ilgili mevcut yasaları gözden geçiriyor ve farklı deepfake oluşturma yöntemlerini ele almayı düşünüyor. Bununla birlikte, Avrupa Birliği, bu konunun diğer türdeki çevrimiçi yanıltıcı bilgi türleriyle karşılaştırıldığında yakın bir tehlike olarak görünmediğini belirtiyor.
Dolayısıyla Amerika Birleşik Devletleri öncü rol oynuyor olabilir, ancak önerilen yasaların uygulanabilir veya doğru vurgulandığına dair pek fazla kanıt yok.
Birçok araştırma laboratuvarı, manipüle edilmiş videoları tanımlamak ve tespit etmek için yeni yollar geliştirmiştir – su damlaları veya bir blok zinciri gibi, ancak daha ikna edici deepfake’leri oluşturmak için hemen oyunun bozulmadığı deepfake tespitçileri yapmak zordur.
Yine de teknoloji şirketleri çaba sarf ediyor. Facebook, Berkeley, Oxford ve diğer kurumlardan araştırmacıları deepfake tespitçisi oluşturmak ve yeni yasağını uygulamak için işe aldı. Twitter da politikalarında büyük değişiklikler yaptı ve herhangi bir deepfake’i doğrudan kaldırılmayan deepfake’leri etiketlemek için yollar planladığı bildiriliyor. YouTube da Şubat ayında, 2020 ABD seçimi, oy verme prosedürleri veya 2020 ABD nüfus sayımı ile ilgili deepfake videolara izin vermeyeceğini tekrarladı.
Reality Defender ve Deeptrace adlı iki program, deepfake’leri hayatınızın dışında tutmayı amaçlıyor. Deeptrace, gelen medyayı önceden tarayan ve açıkça manipülasyonları karantina bölgesine yönlendiren bir hibrit antivirüs / spam filtresi gibi davranacak bir API üzerinde çalışır. AI Foundation şirketi tarafından inşa edilmekte olan bir platform olan Reality Defender, manipüle edilmiş görüntüleri ve videoları etiketlemeyi ve saklamayı amaçlar. “Medyanın kimliğini doğrulamanın sorumluluğunu bireye koymak gerçekten adil bulmuyoruz,” diyor Adjer.
Deepfake teknolojisi, büyük potansiyellere sahip olmasına rağmen ciddi tehlikeler ve sorunlar da beraberinde getiriyor. Toplumun ve hükümetlerin, teknolojinin potansiyel kötüye kullanımını önlemek ve denetlemek için yasal düzenlemeler ve teknolojik çözümler üzerinde çalışması gerekiyor.
Kaynak
https://spectrum.ieee.org/what-is-deepfake
https://www.techtarget.com/whatis/definition/deepfake











