Güvenlik Önerileri
Sahtekârlar Uzaktan Çalışma Esaslı Teknoloji İşlerine Başvurmak İçin Deepfake Kullanıyor
Deepfake uygulamaları ve çalıntı kişisel-tanımlanabilir bilgilerin, uzaktan çalışma odağında açılan iş ilanlarına yönelik başvurular ve beraberindeki mülakatlarda kullanıldığı tespit edildi.
Sahtekarlık sınır tanımıyor… Bu noktada son dönemin en çarpıcı gelişmesine dair ilk ayrıntılar ABD Federal Araştırma Bürosu (FBI) tarafından paylaşıldı. FBI, dolandırıcıların deepfake uygulamaları veya tanımlanabilir kişisel bilgiler (PPI) kullanarak uzaktan çalışmaya uygun işlerin mülakatlarına girdiklerini belirledi. Birilerini taklit ederek işe girmeye çalışıyor, ardından da siber saldırı eylemlerinde kilit rol üstleniyorlar…
Yapay zeka (AI) veya makine öğrenimi (ML) teknolojileri ile geliştirilen sahte ses, görüntü ve videoları temsil eden deepfake, son birkaç yıldır güvenlik uzmanlarının endişelerini artıran kritik bir tehdit.
Kısa adı IC3 olan FBI’s Internet Crime Complaint Center (FBI İnternet Suç Şikayet Merkezi) tarafından yapılan açıklamada, deepfake uygulamaları ve çalıntı kişisel-tanımlanabilir bilgilerin uzaktan çalışma odağında açılan iş ilanlarına yönelik başvurular ve beraberindeki mülakatlarda kullanıldığı kaydetti. Sahtekarların bu yöntemi ağırlıklı olarak teknoloji alanındaki iş başvuruları için tercih ettiği detayı paylaşıldı. Bu tercihin aslında doğal bir nedeni var. Zira pandemi sonrasındaki dönemde birçok şirket çalışanlarının ofise dönmesini tercih ederken, özellikle bilişim teknolojileri (BT) sektörü halen mesafeli çalışacak çok sayıda personele ihtiyaç duyuyor. IC3 tarafından verilen bilgiye göre, mesafeli çalışma için iş ilanlarının en çok yayınlandığı kategoriler geliştiricileri, teknik mühendisleri, vb. hedefleyen BT, programlama, veri tabanı ve yazılım bağlantılı iş fonksiyonları.
Şirketler dolandırıcıları işe alma riski ile karşı karşıya
Şirketlerin bir dolandırıcıyı işe alma riski bulunduğuna dikkat çeken FBI, böyle bir durumda çalışan-dolandırıcıların müşterilerin PPI, finansal verileri, şirket BT veri tabanlarına veya kritik bilgilere erişim hakkı elde edebileceğine dikkat çekiyor. Konu, birçok şikayetle de net bir şekilde günyüzüne çıkmış durumda…
IC3 tarafından değerlendirilen şikayetlerde, deepfake’in daha çok çevrimiçi mülakatlarda ses taklit etmek için kullanıldığı ve yapay ses ile başvuran kişinin görüntüsü arasında soru işaretleri doğmasına neden olduğu ifade edildi.
FBI, çevrimiçi mülakatlarda kullanılan deepfake girişimlerinde dudak hareketleri ile konuşmanın uyuşmadığını, aynı zamanda öksürme veya hapşırma esnasında sesin yine görüntüye uymadığını not düştü. Deepfake fotoğraflarında veya videolarındaki uyumsuzluklara dikkat edilmesi gerektiği açık. Görsel uyumsuzluklar genel olarak baş ve gövde hareketleri olurken, yüz ve dudak hareketleri arasındaki bağdaşmazlık da öne çıkıyor.
Bu konuda birçok farklı ipucu daha var, kısaca değinelim:
- Yüz, deepfake’i ele veriyor…
Gözlükler ve küpeler gibi detaylar yüzün diğer tarafı ile uyuşmayabilir veya surata tuhaf bir şekilde pozisyon alabilir. Şapka gibi diğer nesneler de havaya veya arka plana uyumsuz şekilde oturabilir. Özetle insan yüzü, deepfake’in belirlenmesinde kilit rol üstleniyor.
- Yüzün de ötesi…
Arka planlar, yüzlerden daha fazla çeşitlilik içerdiği için taklit etmesi zor detaylar durumunda. Ağaçlar, binalar ve diğer kişilerin yüzleri bozulabilir ya da doğal olmayan biçimler oluşturabilir. Saçlar da bir diğer ipucu; eğer saçın nerede bittiği, arka planın nerede başladığı belli değilse ve belli bir tuhaflık varsa, bu detaylar manipülasyona işaret edebilir.
- Kulaklar ve dişler
Diş ve kulaklar uzaktan düzgün görülse de yakından bakıldığında oldukça karmaşık yapılar. Cam ve mücevherler ile geçerli olan simetri sorunu gibi, AI dişlerin sayısı ve kulakların kıvrımlı yapısını taklit etmekte zorlanabilir. Dişler tekrarlayabilir, üst üste binebilir veya ağzın kenarlarına doğru yok olabilir. Ayrıca bir kulağın içi bulanık belirebilir.
PPI da kullanılıyor
IC3 tarafından alınan şikayetler, dolandırıcıların başvurularda çalınan PPI kullandığını da gözler önüne seriyor. Dolandırıcıların paylaştığı bilgilerden yola çıkarak, kişisel bilgilerin kimliklerden çalındığı veya eski çalışanlara yönelik araştırma ile elde edildiği anlaşıldı. FBI, Mart 2021’de yaptığı uyarıda, dolandırıcıların deepfake veya yabancı kaynaklı operasyonları önümüzdeki 12-18 ay arasında artıracağını belirtmişti.
Sentetik içeriklerin oltalama veya sosyal mühendislik saldırılarında da eklenti olarak kullanılabileceği ifade ediliyor. Günümüzdeki en ciddi sorunlardan birini temsil eden BEC saldırıları (business email comprimise); şirket yöneticilerini hedef alan dolandırıcılık yöntemi olarak deepfake üzerinden gerçekleştiriliyor. Dolandırıcılar, sentetik görüntü, ses veya video ile yönetici rolüne girerek çalışanları yüksek para transferi yapmaya ikna etmeye çalışıyor.
Artan bir tehdit
İşe alımlarda dolandırıcılıklar yeni bir sorun olmasa da, deepfake kullanımı bu süreç için artan bir tehdidi temsil ediyor. ABD İçişleri Bakanlığı, Hazine Bakanlığı ve FBI, Mayıs ayında yaptıkları uyarıda şirketlerin istemeden Kuzey Koreli BT çalışanlarını işe alabileceği uyarısında bulundu.
Yapılan uyarıda, söz konusu dolandırıcıların doğrudan siber saldırı eylemlerinde yer almadığı, ancak taşeron şirket görünümünde ABD ve Avrupa merkezli şirketlere yaklaşmaya çalıştıkları ifade edildi.