Aydın Adnan Menderes Üniversitesi
İletişim Fakültesi / Gazetecilik Bölümü

Öğrenci Uygulama Haber Sitesi


SAHTE AMA GERÇEĞE ÇOK YAKIN: DEEP FAKE

09.04.2022
Bilim ve Teknoloji

Yeni iletişim teknolojilerinin sunduğu olanaklar çerçevesinde hayatımıza yepyeni kavramlar ekleniyor. Bu yeniliklerin içerisinde barındırdığı olanaklar kimi zaman yaşama olumlu anlamda dokunuşlarda bulunurken kimi zaman da olumsuzluklarına tanıklık edilmekte. Yeni bir tehdit oluşturan ‘Deep Fake’ hayatımıza sonradan dahil olan, teknolojik gelişmelerle yerleşen yeni kavramlardan. İlk olarak 2017 yılında hayatımıza giren ‘Deep Fake’ mevcut olan görüntünün yapay sinir ağları aracılığı ile bir başka bir görüntü ile değiştirilmesidir. Bu bir kişinin başka kişinin görüntüsü ile değiştirilmesiyle de olabilir. Amerika’da ortaya çıkmış bir uygulamadır ve bu uygulama şimdilerde sinema sektöründe oldukça sık kullanılıyor. Uygulamaya yönelik detaylar üzerine gerçekleştirdiğimiz söyleşiler ile kavrama dahil bilinmyeneleri araştırdık.

Aydın Adnan Menderes Üniversitesi Mühendislik Fakültesi Bilgisayar Mühendisliği Bölümünde görevli Dr. Öğr. Üyesi Ahmet Çağdaş Seçkin ile Deep Fake’in hayatımızdaki yeri, konuya yönelik yapılan çalışmalar yönelik değerli bilgilerine başvurduk.

Deep Fake nedir ve nasıl ortaya çıkmıştır?

Deep Fake’in kullanılması aslında animasyonla yani montajlama ile başladı. Medya sektöründe çok erken başlayan bu yazılım bizim asıl derin öğrenme, makine öğrenmesi, görüntü işlemede sentezleyici veya üretici olarak nitelendirdiğimiz yeni tür ağların ortaya çıkmasıyla başlamıştır.

Deep Fake nasıl çalışır?

Deep Fake sadece görüntü işleme veya montajlamada değil görüntüyü iyileştirme ve görünür olmayan şeyleri görünür kılmaktada oldukça etkili. Tabi bu sadece görüntüde değil ses teknolojisinde de mevcut. Örneğin benim söylediğim birkaç cümleyi alıp sonrasında benim yerime kelimeleri, cümleler sentezlemesi hatta ve hatta diyaloglar sentezleyebilirler. Bunlar tamamen üretici, önerici ağlar şeklinde gerçekleşiyor. Bu ağlar bildiğimiz bilgileri alıyor bunların üzerine manipülasyon yapmak istendiğinde bunlar değiştirilebiliyor. Şimdi temel çalışma prensibini şöyle anlatayım; aldığımız görüntüyü ilk önce bizim için özetliyor daha sonra insan vücudundaki sinirler gibi yeni şeyleri aslında ona hayal ettiriyoruz ve bu da tamamen matematik ve programlamayla oluyor. Örneğin Lyrebird, lir kuşunu ilham alan yeni oluşturulmuş bir program. Uygulamada bir cümle söylüyorsun söylediğin cümleleri kendisine temel alıyor ve bunlardan senin istediğin gibi yazdığı metni senin sesinle okuyor. Bir programcının annesi ile ilgili diyalogu var, annesiyle konuşuyor fakat annesi aslında orada onunla değil robotla konuşuyor ve karşısındaki sesi annesi ayırt edemiyor.

Deep fake dediğimiz yazılım, dolandırıcı teknikleri ile insanları manipüle edebilir, alana hakim olabilir veya duyguları taklit edebilir ve bunları çok başarılı şekilde taklit edebilirler. Çin; bunun önüne geçmek için deep fake ile reklamlar yapılsa dahi videonun kurgu olmayan ve montajlanmamış kısımlarında eklenmesini zorunlu kıldı. Böyle bir mevzuat bizde yok gelmesi gerekir mi kesinlikle gerekir.

Yazılımı nasıl ayırt edebiliriz?

Burada bir yapay bir durum var mı? Bunu algılayabilen sistemler de geliştiriliyor karşılığında. Hani bir taraf ilerliyor da öteki taraf duruyor değil her zaman tez, antitez şeklinde bir durum illa ki mevcut. Sistemlerin bunların farkında olması mümkün işlem yükünü buna indirgenebiliyorlar. Mesela bunu kim başarıyor? Çin, bunu tamamen kapalı bir sistem haline de getirmiş durumda. Yirmi sene önce bununla ilgili siber ordu kurduğu zaman insanlar gülüyordu, siber orduya ne gerek gibi ama şimdi herkes ne kadar geç kalmışız diyor. 

En tehlikelisi o değil, sosyal medya

Deep Fake’i en tehlikelisi olarak görsekte en tehlikeli olan aslında sosyal medyanın kendisidir Çünkü oraya kendi ellerimizle yüklediğimiz her data tüm duygularımızı, anılarımızı, düşüncelerimizi ve yönelimlerimizi kaydediyoruz. Silsek dahi o havuza düştükten sonra veriler zaten toplanmış oluyor yani hiçbir zaman silinmiyor.

Nasıl önlenebilir?

Burada en önemlisi kişisel bilincin artırılması en azından fakültelerde, üniversitelerde ve okullarda bu bilincin artırılması ilk damla olabilir.

Ege Üniversitesi Bilgisayar Programcılığı mezunu Supply Chain Wizard şirketinde Software Developer olarak çalışan İlyas Akın konu ile ilgili olarak şunları söyledi:

“Deep fake machine learning yani makine öğrenmesi adını verdiğimiz teknolojiyle ortaya çıkan sahte, gerçeğe çok yakın ve inandırıcılığı yüksek videolardır. Deep fake videoları ilk bakışta kendini ele vermezken, yakından detaylara bakıldığında aslında kendini kolayca ele verir. Hafif ama dikkatli bakınca kişinin yüzünde görülen titremeler, kişinin aslında karakterine uymayan davranışlar ve mimikler ve doğal olmayan robotik sesler gibi bir çok ipucundan yararlanarak videonun sahte oldugu anlaşılabilir. Ancak, gittikçe gelişen machine learning teknolojisiyle bu videoları gerçeğinden ayırt etmek bu teknolojinin gelişimi ile doğru orantılı olarak zorlaşmaktadır. Deep fake videoların nasıl oluşturulduğuna basitçe gelirsek, öncelikle machine learning programına videoya yerleştirilecek kişinin değişik açılardan ve ışık kondisyonlarından çekilmiş yüzlerce fotoğraf (ne kadar olursa o kadar iyi) verilerek bu program eğitilir. Daha sonra programa orjinal video verilir ve program gerçeğine en yakın şekilde mimikleri, göz hareketlerini ve diğer yüz ifadelerini sanki programa verilen kişi yapmış gibi program videoyu manipüle eder.”

Dokuz Eylül Üniversitesi Bilgisayar Bilimleri mezunu olan B. Bartuğ Sevindik, Katip Çelebi Üniversitesi’nde yazılım mühendisliği alanında yüksek lisans yapıyor ve son projesi olarak Menemen Belediyesi’nin mobil uygulamasını tasarlayarak işlerine freelancer olarak devam ediyor. Konu ile ilgili bilgisine başvurduğumuz Sevindik, şu sözleri aktardı: 

‘‘Öncelikle Deep fake’in kelime anlamından başlamak istedim. Fake yani sahte anlamına gelmekte deep ise deep learning derin öğrenmeden gelmektedir. Peki Derin Öğrenme nedir? Derin Öğrenme kısacası bir makine öğrenme yöntemidir. Bir veri kümesi ile çıktıları “tahmin” edecek yapay zekayı eğitmemizi sağlar. Bu yapay zekayı eğitmek için de çeşitli öğrenmeler kullanılabilir. Ana konumuza dönmeden önce de kısaca yapay sinir ağlarından bahsetmem gerekiyor. Yapay sinir ağları insan beyni gibi nöronlardan oluşmaktadır. Bu nöronlar birbirine bağlı ve sonucu etkilemektedir. Katmanlar üçe ayrılır; giriş katmanı gizli katmanlar ve çıkış katmanı. Buradaki gizli olarak aktardığımız katman derin öğrenmedeki “derin, birden fazla gizli katmana sahip olmayı ifade etmektedir. Derin öğrenmenin en zor kısımlarından biri yapay sinir ağını eğitmektir. Basitçe tekniklerin üzerinden geçmiş olduk. Deep fake ile herkesin bildiği gibi görüntü veya videoda bulunan kişinin, az önce belirttiğimiz tekniklerle görüntüsü değiştirilebilir. Oldukça da tehlikeli bir yöntemdir. Sadece görsel olarak da düşünmemek gerekir. Bir kişinin yüzünü başkasıyla değiştirebildiğimiz gibi konuşan kişinin ağzının orjinalinden farklı bir ses parçasına da ayarlanabilmektedir. Sesin de kopyalanabildiğini belirtmek gerekir.’’

Nasıl çalışır?
Bu yapay video manipülasyonları Generative Adversarial Networks (GAN) ile üretilmektedir. GAN, çıktı sonuçlarında daha iyiyi bulmak için  iki yapay sinir ağının birbiriyle rekabet ettiği bir makine öğrenme modelidir. Basit bir ifadeyle; bir bilgisayar, diğer bilgisayara, sizin için oluşturduğu dijital klonun, orijinal görüntü/video ile karşılaştırarak yeterince ikna edici olup olmadığını söylüyor. Hareketin aynı mı? Sesin aynı mı? İfaden aynı mı? Sistem, sonuçtan memnun olana kadar birden fazla denemeyle kendini geliştirir.

 Peki gerçeği nasıl ayırt edebiliriz?
1)Kesinlikle video için farklı ve güvenilir kaynaklardan aynı videoyu bulmaya çalışın ve karşılaştırın. 

2)Bu video/görsele inanmadan ve paylaşmadan önce şunu düşünmek gerek; bu video doğru olabilir mi? Yavaşlayın ve tekrar bakın emin değilseniz kesinlikle paylaşmayın.

3)Arama motorları üzerinden görsel arama ile görüntüyü aramaya çalışın böylece doğrusunu bulmanız çok zaman almayacaktır.

 4)Sentetik ve manipüle edilmiş ortamlarda (neredeyse) görünür izleri tespit etmek çok daha büyük bir zorluktur. Bu tür manipülasyonlar, bir videoda garip "sıçramalar", ses vurgusu değişikliği, düşük kaliteli ses, bulanık noktalar, garip uzuv şekilleri ve diğer olağandışı tutarsızlıklar aranarak tespit edilebilir.

Kısacası duyularınıza ve içgüdülerinize güvenin. Her zaman kendinize sorun: Bu mantıklı mı? Bu gerçekten doğru olabilir mi?

‘Deep Fake’ dediğimiz yazılım üzerine yaptığımız görüşmelerle, kavrama yönelik genel bilgiler yanında faydaları ve zararları üzerine konuştuk.  Örneğin; ‘Hızlı ve Öfkeli’ serisinde başrol oyuncusu Paul Walker’ın ölmesi ile aslında birçok kesim bu filmin bir daha çekilmeyeceğini düşünürken yeni film piyasa sürüldüğü zaman herkes büyük bir hayranlıkla Walker’ın nasıl oynatıldığına hayret ederken bir kesimin düşüncesine göre de o sahnenin ölmeden önce çekildiği gibi varsayımlarda bulunuldu. Deep Fake’in sinema sektöründe bu denli gelişmesi aslında sinemada çok önemli adımların atılmasının da öncüsü olmuştur. Deep Fake’in bireyleri manipüle etmemesi adına kötü amaçlarla kullanılmasını önlemek için toplumun bilinç düzeyinin arttırılması gerekmektedir. Bir paylaşımın sahte mi gerçek mi olduğunu algılayacak programlarla teyit ederek doğrulayıp, zararlı yazılımların bizi manipüle etmesini engelleyebiliriz. 

 

Haber: Melis Şeker

EN ÇOK OKUNANLAR

DÜNYA ŞAMPİYONU MÜCAHİT KULAK: “DURMAK YOK, RİNGE DEVAM”

  Dünya şampiyonluğu, spor dalında en iyi olanın taşıdığı prestij ve ...

TARİHE TANIKLIK EDEN MÜZE ‘‘ULUCANLAR CEZAEVİ MÜZESİ’’

Ankara Merkez Kapalı Ceza ve Tutukevi (Ulucanlar Cezaevi), 1925 ve 2006 yılları ...

HAYVAN DOSTLARIMIZDA KAN PARAZİTİ HASTALIĞI

  Her canlı dönem dönem sağlık sorunları yaşamaktadır. Bu sağlık sorunlarının ...

TOPRAĞIN BİLİMİ PEDOLOJİ

  İnsan ve diğer tüm canlıların hayatına devam edebilmesi için toprak ...

HAMAMÖNÜ EVLERİ

Türkiye’nin birçok şehrinde birbirinden güzel evler bulunmaktadır. Peki ya Ankara’nın ...

KADINLARIN VAZGEÇİLMEZ GİYSİSİ: KIRAS-FİSTAN

  Doğu Anadolu ve Güneydoğu Anadolu Bölgesi’ne ait birçok yerde yıllardır ...

CUMHURİYET’İN İLK KADIN MUHTARI: GÜL ESİN

Mustafa Kemal Atatürk, her zaman Türk kadınını modern toplumun simgesi ...

DÜNDEN BUGÜNE: URLA SANAT SOKAĞI

  Asıl adı Zafer Caddesi olan sokak, 2010 yılından sonra bir ...

SIK RASTLANIP AZ BİLİNEN HASTALIK: KURDEŞEN

  Vücudumuzda bir bölge kaşındığı zaman hafife alır, kaşıyıp geçmesini bekleriz. ...

TÜRKİYE'NİN İLK MATEMATİK MÜZESİ

Aydın'ın Efeler ilçesinde, Türkiye'nin ilk matematik müzesi olma özelliğine sahip ...

Aydın Adnan Menderes Üniversitesi
İletişim Fakültesi / Gazetecilik Bölümü

Öğrenci Uygulama Haber Sitesi
+90 256 218 20 00