Yeni bir araştırma, bilgisayar korsanlarının biyometrik güvenlik sistemlerini aşmak ve insanların çevrimiçi hizmetlerini kırmak için deepfake videoları ve emülatörleri bir araya getirdiğini iddia etti.
iProov tarafından hazırlanan bir rapor, bu yöntemin suçlular arasındaki kullanımının 2023’ün ilk ve ikinci yarısı arasında yüzde 353 oranında arttığını belirtiyor.
Sistem şöyle işliyor: Dolandırıcılar, nispeten ikna edici yüz taklitleri ve deepfake videolar oluşturmak için bazıları ucuz, kullanıma hazır çözümler olan Yapay Zeka (AI) araçlarını kullanıyor. Ardından, sanal kameralar oluşturmak için emülatörler kullanıyorlar. Böylece, bir biyometri sistemi bir kişiden yüz taraması yoluyla kimlik doğrulaması yapmasını istediğinde, yüz değiştirme videosunun bulunduğu sahte kamerayı açabiliyor ve böylece aracı kandırıp kimlik doğrulaması yapabiliyor.
Mobil platformlar bu tehdide karşı özellikle savunmasız görünüyor. Mobil web’e yönelik enjeksiyon saldırılarının, 2023 yılının ilk ve ikinci yarısı arasında iki kattan fazla arttığı görülüyor. Emülatörleri hariç tutup yalnızca deepfake ve face-swap saldırılarına bakıldığında rakamlar daha da kötüleşiyor. İki yarı yıl arasında bu saldırılarda yüzde 704’lük bir artış olduğu görülüyor. Son olarak, deepfake medyanın meta veri sahteciliği ile birlikte kullanımı, geçen yılın iki yarısı arasında yüzde 672 oranında artış göstermiş durumda.
Raporda ayrıca hacker’ların bu tekniği geliştirmek ve evrimleştirmek için sıkı bir işbirliği içinde oldukları belirtiliyor. Görünüşe göre, insan tanımlama ve video tanımlama sistemlerini atlatma konusunda bilgi alışverişinde bulunan grupların sayısında önemli bir artış var. Şirket, iProov’un analistleri tarafından tespit edilen grupların neredeyse yarısının 2023 yılında kurulduğunu belirtiyor.
Kaynak: Chip – https://www.chip.com.tr/haber/deepfake-tehditleri-artiyor-deepfake-videolar-ile-kimlik-dogrulama-atlatilabiliyor_161780.html