Deepfakes, üretken yapay zeka (GenAI) kullanılarak oluşturulan üzerinde oynanmış ses, görüntü veya metin içeriği içerebilen varlıklardır. Siber suçlular tarafından hedefleri hassas verileri isteyerek sağlamaya yönlendirmek için kullanılırlar.
Yapay zeka tarafından üretildiğini tespit etmenin giderek zorlaştığı gerçekçi, inandırıcı videolar oluştururken, deepfake videolar önemli bir veri güvenliği riski oluşturmaktadır. Genellikle siyasi figürler ve ünlüler gibi yüksek profilli, tanınmış kişileri tasvir ettikleri görülür, ancak diğer bireylerin benzerliğini yakalamak için de üretilebilirler. Oluşturan kişinin amacına bağlı olarak dezenformasyon yaymak, bir kişi veya kuruluşu dolandırmak veya hassas veri ve/veya fon talep etmek için kullanılabilirler.
Deepfake videolar, kaynak içeriğin karmaşık analizi yoluyla oluşturulur. Yüz özellikleri ve hareketleri, boyutlar, cilt tonu, saç ve göz rengi ve vücut dili gibi temel ayrıntılar, mümkün olduğunca doğru bir temsil oluşturmak için yapay zekaya beslenir. Bu aynı zamanda arka plan için de geçerlidir; öznenin göründüğü ofis, toplantı odası veya başka bir ortam iyi biliniyorsa, tehdit aktörü tarafından kaynak görüntüler ve video kullanılarak mümkün olduğunca doğru bir şekilde taklit edilmesi için çaba gösterilecektir.
Derin sahte video içeriği oluşturmaya benzer şekilde, çevrimiçi olarak bulunan mevcut eğitim materyalleri kullanılarak yapay zeka ile ses oluşturulabilir. Referans kaynakları arasında sesli mesajlar, telefon görüşmeleri, podcast ve haber kayıtlarında konuk olarak yer alma ve önemli bir kişi veya grubun benzerliğini içeren ses içeren gerçek video içeriği yer almaktadır.
Oluşturulan ses son derece inandırıcı hale getirilebilir ve mümkün olduğunca inandırıcı olması için kaynak malzemeyle yakından eşleştirilebilir. Siber saldırgan tarafından kullanılan üretici yapay zeka aracı, referans materyallerde konuşanların tonu, ses perdesi, konuşma şekli, netliği, telaffuzu ve duyulabilir duyguları dahil olmak üzere birçok önemli ayrıntıyı analiz eder.
Ses ve video GenAI kullanılarak deepfaked yapılabilirken, cheapfakes bu tür teknolojilerin kullanımından kaçınır. Bunun yerine, genellikle bireyleri veya grupları kandırmak için manuel olarak oluşturulurlar. Bunlar, aciliyet duygusuyla karşılaşıldığında veya duygusal stres yaşandığında olduğu gibi, yeterince dikkat etmeyenleri kandırmaya yönelik optik, ses veya metin tabanlı yanılsamalar olma eğilimindedir. ABD İç Güvenlik Bakanlığı'nın da belirttiği gibi, cheapfakes dijital çağın öncesine dayanıyor, yani tehdit aktörlerinin birbirlerinden öğrenmek ve yeteneklerini geliştirmek için yüzyılları oldu.
Kötü niyetli kişiler, aşağıdakiler dahil ancak bunlarla sınırlı olmamak üzere çeşitli amaçlarla deepfakes ve/veya cheapfakes kullanmaktadır:
Bir deepfake veya cheapfake'in hedefi olma riskinizi azaltmak için atabileceğiniz birkaç adım vardır. Bunlar, birçoğu Ulusal Siber Güvenlik İttifakı tarafından tavsiye edilen aşağıdaki önlemleri içermektedir:
Siber güvenlikte sıfır güven yaklaşımı çok önemlidir. Deepfake'lere karşı koruma söz konusu olduğunda, ilkeleri riski en aza indirmek için bir plan olarak düşünülebilir. Örneğin:
Buna ek olarak, amaca yönelik olarak geliştirilmiş deepfake inceleme ve tespit çözümleri kullanıcıların kimliklerinin, refahlarının ve verilerinin korunmasına yardımcı olabilir. Deepfake'lerin insanlar tarafından manuel olarak tespit edilmesi genellikle zor olduğundan, bu tür araçlar sürekli hızlanan yapay zeka inovasyonu çağında çok önemlidir. Konuyla ilgili ayrıntılı bir 2023 Ulusal Tıp Kütüphanesi raporunda, “Konuşma sentezi algoritmaları geliştikçe ve daha gerçekçi hale geldikçe, tespit görevinin zorlaşmasını bekleyebiliriz” deniyor. “Konuşma sahtekarlıklarını tespit etmenin zorluğu, bunların kötüye kullanım potansiyelini doğruluyor ve bu tehdide karşı savunmaya ihtiyaç duyulduğuna işaret ediyor.”
İlgili Araştırmalar
İlgili Makaleler