Teknoloji geliştikçe dolandırıcılık da biçim değiştiriyor. Son dönemde hızla yayılan ses klonlama dolandırıcılığı, yapay zekâ destekli yazılımlarla sadece birkaç saniyelik ses kaydından bir kişiyi birebir taklit edebiliyor. Dolandırıcılar, bu kopya sesleri kullanarak aile bireylerini, banka müşterilerini ya da şirket çalışanlarını hedef alıyor.
Uzmanlara göre sistem oldukça basit ama etkisi yıkıcı. Sosyal medyaya yüklenen kısa videolar, sesli mesajlar veya toplantı kayıtları dolandırıcılar için yeterli oluyor. Bu kayıtlar üzerinden kişinin tonlaması, aksanı ve konuşma biçimi analiz edilerek bir dijital ses modeli oluşturuluyor. Ardından bu yapay sesle “yardım çağrısı”, “acil para transferi” ya da “şirket talimatı” senaryoları devreye sokuluyor.
Gerçek ses gibi kandırıyorlar
Yetkililer, dünya genelinde bu yöntemle yapılan dolandırıcılıkların son bir yılda katlanarak arttığını belirtiyor. Birçok mağdur, yakınlarının ya da çocuklarının sesini duyduğuna inanarak para gönderdiğini itiraf etti. ABD’de bir baba, oğlunun kazaya karıştığını söyleyen sahte bir aramaya inanıp binlerce dolar kaptırdı. Benzer vakalar Avrupa ve Asya’da da görülmeye başladı.
Siber güvenlik uzmanı Dr. Leyla Karaman, “Artık sadece yazılı mesajlara değil, sesli iletişime de şüpheyle yaklaşmak zorundayız. Bir sesi duymak, o kişinin gerçekten konuştuğu anlamına gelmiyor” diyor. Uzmanlara göre dolandırıcılar artık duyguları hedef alıyor. Özellikle panik, korku veya şefkat duygusunu tetikleyen acil senaryolar en etkili tuzaklar arasında.
Güvenlik kurumları alarma geçti
Kamu kurumları ve bankalar, ses klonlama vakalarına karşı yeni kimlik doğrulama sistemleri üzerinde çalışıyor. Artık yalnızca ses değil, arama geçmişi ve cihaz kimliği de kontrol edilerek ek güvenlik katmanları ekleniyor. Bazı şirketler, sesli iletişimlerde özel “güvenlik kelimeleri” belirlemeye başladı.
Ancak uzmanlara göre en etkili önlem hâlâ bireysel farkındalık. Bilinmeyen numaralardan gelen çağrılarda paniğe kapılmamak, para veya kişisel bilgi taleplerini ikinci bir kanaldan doğrulamak gerekiyor. Dr. Karaman, “Dolandırıcılar genellikle duygusal refleksi hedef alıyor. Bir an bile durup düşünmek, bazen binlerce liralık kaybı önleyebilir” ifadelerini kullanıyor.
Yapay zekânın karanlık yüzü
Ses klonlama teknolojisi başlangıçta sinema, oyun ve eğitim alanlarında yaratıcı çözümler üretmek için geliştirilmişti. Ancak son yıllarda kötüye kullanım vakalarının artması, etik tartışmaları da beraberinde getirdi. Uzmanlar, yapay zekâ tabanlı ses üretiminin tıpkı derin sahte videolar (deepfake) gibi ciddi yasal düzenlemeler gerektirdiğini vurguluyor.
Siber suçlar konusunda çalışan birçok araştırma ekibi, bu teknolojinin gelecekte seçim kampanyalarından kriz dönemlerine kadar bilgi manipülasyonu aracı olarak kullanılabileceği uyarısında bulunuyor. Dijital dünya, artık sadece gözle değil, kulakla da aldatılabilir hale geldi.
Kaynak: Haber Merkezi













