Yapay zekayla her şeyin mümkün göründüğü bir dünyada yaşıyoruz. Sağlık gibi belirli endüstrilerde yapay zekanın önemli faydaları olsa da , daha karanlık bir taraf da ortaya çıktı. Kötü aktörlerin yeni türde siber saldırılar düzenlemesinin yanı sıra ses ve görüntüyü dolandırıcılık ve sanal adam kaçırma amacıyla manipüle etme riskini de artırdı. Bu kötü niyetli eylemler arasında, bu yeni teknolojiyle birlikte giderek yaygınlaşan deepfake’ler de yer alıyor.
Deepfake nedir?
Deepfake’ler , hiç gerçekleşmemiş olayları gösteren ikna edici ve gerçekçi videolar, görüntüler, ses ve metinler üretmek için yapay zeka ve makine öğrenimi (AI/ML) teknolojilerini kullanır . Bazen insanlar bunu masumca kullandılar. Örneğin, Malaria Must Die kampanyası, sıtmayı sona erdirmek için bir imza kampanyası başlatmak üzere efsanevi futbolcu David Beckham’ın dokuz farklı dilde konuştuğu bir video hazırladığında olduğu gibi. Bununla birlikte, insanların gördüklerine inanma yönündeki doğal eğilimleri göz önüne alındığında, deepfake’lerin yanlış bilgiyi veya dezenformasyonu etkili bir şekilde yaymak için özellikle karmaşık veya ikna edici olmasına gerek yok.
Deepfake” terimi, bu manipüle edilmiş medya biçiminin teknolojisinin derin öğrenme yöntemlerine dayandığından gelir. Derin öğrenme, yapay zekanın bir alt dalı olan makine öğrenmesinin bir parçasıdır. Makine öğrenmesi modelleri, belirli görevleri gerçekleştirmek için eğitim verilerini kullanır ve eğitim verisi daha kapsamlı ve sağlam hale geldikçe performansları artar. Ancak derin öğrenme modelleri, verilerin sınıflandırılmasını veya analizini kolaylaştıran özellikleri otomatik olarak tanımlayarak daha karmaşık bir seviyede eğitim yaparlar. Veriler herhangi bir şeyin resim ve videolarının yanı sıra ses ve metni de içerebilir. Yapay zeka tarafından üretilen metin, giderek artan bir sorun oluşturan başka bir deepfake türünü temsil eder. Araştırmacılar, görüntüler, videolar ve seslerle ilgili deepfake’lerde birkaç zayıflığı belirlemiş olsalar da, deepfake metni tanımlamak daha zorlu bir süreç olarak ortaya çıkıyor.
Deepfake’ler nasıl çalışır?
Deepfake’in en eski biçimlerinden bazıları, 2017’de Hollywood yıldızı Gal Gadot’un yüzünün pornografik bir videonun üzerine yerleştirilmesiyle görüldü. Anakart o sırada bunun tek bir kişinin, ‘deepfakes’ adıyla anılan bir Redditor’un işi olduğu iddiasını bildirmişti. Anonim Reddit kullanıcısı çevrimiçi dergiye, yazılımın TensorFlow arka ucuna sahip Keras gibi birden fazla açık kaynak kitaplığa dayandığını söyledi. Ünlülerin yüzlerini derlemek için Google görsel arama, stok fotoğraflar ve YouTube videolarının kullanıldığı kaynak belirtildi. Derin öğrenme, girdi verileri üzerinde otomatik olarak hesaplamaları gerçekleştiren birbirine bağlı düğümlerin ağlarından oluşur. Yeterli ‘eğitimden’ sonra bu düğümler, videoları gerçekleştirmek üzere kendilerini organize ederler. Örneğin, bir kişinin yüz ifadesini veya konuşmasını gerçek zamanlı olarak değiştirerek, videodaki içeriği manipüle etmek mümkün olabilir. Bu, deepfake teknolojisinin bir uygulama alanıdır ve bu tür manipülasyonlar, teknolojiyi kötüye kullanma potansiyeline sahiptir. Bugünlerde yapay zeka, bir kişinin yüzünü farklı bir bedendeki diğerinin yüzüyle değiştirmek için kullanılıyor . Bunu başarmak için süreçte Kodlayıcı veya Derin Sinir Ağı (DNN) teknolojileri kullanılabilir. Temel olarak, yüzlerin nasıl değiştirileceğini öğrenmek için sistem, iki farklı kişinin (Kişi A ve Kişi B) görüntülerini aynı ayarları kullanarak paylaşılan, sıkıştırılmış bir veri temsilinde işleyen ve eşleştiren bir otomatik kodlayıcı olarak kullanılıyor. Üç ağı eğittikten sonra, A Kişisinin yüzünü B Kişisinin yüzüyle değiştirmek için A Kişisinin video veya görüntüsünün her karesi, paylaşılan bir kodlayıcı ağ tarafından işlenir ve ardından B Kişisinin kod çözücü ağı kullanılarak yeniden oluşturulur. Artık FaceShifter, FaceSwap, DeepFace Lab, Reface ve TikTok gibi uygulamalar kullanıcıların yüzleri değiştirmesini kolaylaştırıyor. Özellikle Snapchat ve TikTok, kullanıcıların çeşitli gerçek zamanlı manipülasyonlar oluşturmasını bilgisayar gücü ve teknik bilgi açısından daha basit ve daha az talepkar hale getirdi. Phototutorial tarafından yakın zamanda yapılan bir araştırma, Google Görseller’de 136 milyar görsel bulunduğunu ve 2030 yılına kadar arama motorunda 382 milyar görselin olacağını belirtiyor. Bu, suçluların birisinin benzerliğini çalmak için her zamankinden daha fazla fırsata sahip olduğu anlamına geliyor.
Deepfake yasa dışı mı?
Bu söylentilerle birlikte maalesef ünlülerin cinsel içerikli birçok görüntüsü ortaya çıkmıştır. Scarlett Johannson’dan Taylor Swift’e kadar giderek daha fazla insan hedef alınıyor. Ocak 2024’te, Swift’in deepfake görüntülerinin, X sitesinde milyonlarca kez görüntülendiği ve daha sonra kaldırıldığı bildirildi. Gizlilik ve teknoloji hukuku konusunda uzmanlaşmış Boston Üniversitesi Hukuk Fakültesi’nden Profesör Woodrow Hartzog, “Bu, uzun bir süredir birçok insanı, özellikle kadınları mağdur eden bir şeyin sadece en dikkat çekici örneğidir” dedi. İngiltere’de, 31 Ocak 2024’ten itibaren Çevrimiçi Güvenlik Yasası, izin alınmadan yapay zeka tarafından oluşturulan özel görüntülerin paylaşılmasını yasa dışı hale getirdi. Yasada, izin alınmadan özel görüntülerin paylaşılması ve tehdit edilmesine karşı daha fazla düzenleme de getiriliyor. Ancak ABD’de, şu anda derin sahte görüntülerin paylaşımını veya oluşturulmasını yasaklayan federal yasalar bulunmamaktadır, ancak federal yasalarda değişiklikler için artan bir baskı var. Bu yılın başlarında, İngiltere Çevrimiçi Güvenlik Yasası değiştirilirken, temsilciler No Artificial Intelligence Fake Replicas And Unauthorized Duplications (No AI FRAUD) Yasası’nı önerdi. Bu tasarı, bireyleri yapay zeka tarafından üretilen sahte ve sahte belgelerden korumak için federal bir çerçeve sunar ve izin almadan herhangi birinin, canlı veya ölü, ‘dijital bir tasvirini’ oluşturmayı suç kılar. Bu yasak, hem benzerliklerinin hem de seslerinin izinsiz kullanımını içerir. Derin sahtelerin tehdidi o kadar ciddidir ki, Google’ın küresel işler başkanı Kent Walker bu yılın başlarında şunları söyledi: “Son on yılda çok şey öğrendik ve yanlış bilgi veya dezenformasyon riskini ciddiye alıyoruz. “Dünya çapındaki gördüğümüz seçimler için, olası yanlış bilgiyi belirlemek için 7/24 savaş odaları kurduk.”