Kötü Niyetli Yazılımları Algılama
"Deepfakes" terimi, önde gelen hükümet ve iş liderleri de dahil olmak üzere gerçek insanların AI tarafından oluşturulan videoları daha yaygın hale geldikçe iyi bilinir hale geldi. Orijinal terim değiştirilmiş görüntü ve videolara atıfta bulunurken, derin sahtekarlıklar, sahte sesi de içerecek şekilde biraz daha geniş bir tanıma ayrıldı. Bu yılın başlarında, Labs'ın keşfetmeye devam ettiği bir alan olan deepfakes'i iyilik için kullanmaktan bahsetmiştik. Aynı zamanda, kötü aktörlerin kötü niyetli nedenlerle deepfake kullanma çabalarına devam edeceklerini biliyoruz - bu nedenle bunları otomatik olarak algılamanın ve yayılmalarını durdurmanın yollarını da araştırıyoruz. Birçok araştırmacı, derin sahte video veya görüntüleri tespit etmek için yapay zeka modelleri yetiştirmeye çalıştı. Özellikle bir tür model, evrişimli bir sinir ağı, uzayda çok iyi bilinmektedir. Bu modeller, eğitim verileriyle iyi performans gösterme eğilimindedir; küratörlüğünde bir veri kümesinden derin sahte görüntüleri ve videoları algılamayı kendilerine öğretebilirler. Ancak yeni verilerle sunulduğunda genellikle "vahşi doğada" derin sahtekarlıkları tespit etmekte zorlanıyorlar. Bu, bir deneme sınavında harika performans sergileyip gerçek sınavda başarısız olmaya benzer.
Siber Saldırılar
Siber Saldırılar
Bu AI modellerinin öğrenme şekliyle çok ilgisi var. Modellerin eğitim verilerinden öğrendiğinde, hile yaptıklarını gördük. Bir görüntünün sahte ve sahte olmayan bölgeleri arasında meydana gelen karışımı tanımlamak gibi bir şeyin derin sahte olabileceğini düşündürecek dijital eserlerden öğrenmiyorlar. Bunun yerine, hangi yüzlerin hangi veri kategorisine ait olduğunu öğreniyorlar. Sahte eğitim verileri arasında belirli bir yüz tekrar tekrar görünüyorsa, model bu yüzü bir sonraki gördüğünde derin sahte bulduğunu söylüyor. Temel olarak, eğitim verilerinde derin sahtekarlıkları bulmak için bir kısayol öğrendiler - gerçek dünyada çalışmayacak olan “alıştırma testi” için bir hile. Daha iyi bir yaklaşım oluşturmak için yola çıktık. Accenture'ın DC Cyber ​​Lab'ında burada geliştirdiğimiz patent bekleyen yeni yaklaşımların yanı sıra önceden bilinen bazı yöntemleri kullanarak bir modeller topluluğu geliştirdik. Modeller, analiz edilen içeriğin farklı özelliklerini öğrenir. Bu, sonuçların bir "hile"ye dayalı olma olasılığını en aza indirmeye yardımcı olur. Her model işini yaptıktan sonra çözüm, incelenen içeriğin derin sahte teknolojisinin sonucu olma olasılığını hesaplar.
Siber Saldırı ve Veri Kurtarma
Siber Saldırı ve Veri Kurtarma
Yaklaşım “Celeb-DF” veri seti üzerinde test edildi. Diğer iki iyi bilinen model de bu veri kümesiyle kıyaslandı ve bu da bize çözümümüzün performansını diğerleriyle karşılaştırma şansı verdi. Kullandıkları iki metriği kullanarak, yaklaşımımızın daha sağlam ve güvenilir bir analize yol açtığını gördük. Ortalama hassasiyette - bir modelin bir içeriğin derin sahte olduğunu öngördüğündeki doğruluğu - çözümümüz diğer iki modelden yaklaşık %9 ve %32 daha iyi puan aldı. Yaklaşımımız aynı zamanda, gerçek verileri yanlış bir şekilde sahte olarak işaretlemeden derin sahteleri belirleme yeteneğinde de aynı modellerden önemli ölçüde daha iyi performans gösterdi. Kötü niyetli derin sahtekarlıklara karşı koruma ve savunma amaçlı çok yönlü bir çabanın parçası olarak görüyoruz. Sahte videolar ve sesler, yalnızca yanlış yönlendirilenleri etkilemekle kalmayıp aynı zamanda güveni aşındırarak sosyal medya platformlarına ve haber kuruluşlarına da zarar veren yanlış bilgileri veya yanlış bilgileri yaymak için sosyal medya aracılığıyla kolayca yayılabilir.
Siber Saldırı Algılama
Siber Saldırı Algılama
Bu kuruluşların, platformlarında dolaşan kötü niyetli derin sahte içerik hakkında endişe duymaları için iyi bir nedeni var, ancak insan içeriği moderatörlerinin, artan sahte akış akışının önünde kalmak için otomatik algılama algoritmalarından yardım alması gerekiyor. Ve yanlış bilgilendirme kampanyaları, derin sahtekarlıklar için kesinlikle verimli bir zemin olacak olsa da, kullanım durumları burada bitmeyecek. Zaman geçtikçe, daha birçok doğrudan saldırı olacak. Avrupalı ​​bir enerji firması, sahte bir sesle doğrudan saldırının kurbanı oldu: Bir CEO, patronu olduğuna inandığı, ana kuruluşun CEO'su olan biriyle telefonda konuşuyordu. Ne yazık ki, hattın diğer ucundaki kişi patronu değil, patronunu taklit eden bir yazılımdı. Arayan kişi, bir tedarikçiye acil para transferi talep etti. Yönetici, aramanın gerçek olduğuna inanarak itaat etti. Şirket 243.000 dolardan dolandırıldı ve alarm zilleri ancak dolandırıcı ikinci bir transfer talep etmek için geri aradığında çalındı. Zaman ilerledikçe, otomatik yazılım çözümlerini içerik taramaya ve hatta belki de doğrudan iletişim sistemlerine entegre etmek, kötü niyetli derin sahte içeriğe karşı savaşta çok önemli olacaktır. Tabii ki, derin sahtekarlık tespiti geliştikçe, derin sahtekarlıkların kendileri de artacaktır.  Bu nedenle, bu alandaki araştırmacıların fikirlerini paylaşmaya ve önceki çabalar üzerine inşa etmeye devam etmeleri çok önemlidir.

Bir yanıt yazın

E-posta adresiniz yayınlanmayacak. Gerekli alanlar * ile işaretlenmişlerdir

Scroll to Top