Gerçeğinden ayırt etmek neredeyse imkansız! Sesli olarak bizi böyle kandırıyorlar
Sesli deepfake araçlarıyla siber dolandırıcılık popüler hale gelmiş durumda. Böyle bir saldırıyla karşılaşıldığında kendimizi savunabilmemiz de mümkün.
Ünlü müzik grubu Beatles, geçenlerde yapay zeka (AI) sayesinde eski bir kaydın parçalarını birleştirerek ve aynı zamanda ses kalitesini geliştirerek yeni bir şarkı yayınladı ve dünyanın dört bir yanındaki milyonlarca hayranını bir kez daha sevindirdi. Ancak grubun yeni başyapıtından dolayı duyulan sevinci bir tarafa bırakırsak, yapay zekanın sahte sesler ve görüntüler oluşturmak için kullanılmasının karanlık tarafları da var.
Derin ses sahtekarlığıyla neler yapılabilir?
Open AI kısa süre önce gerçekçi insan konuşması ve sesli giriş metni sentezleyebilen bir Audio API modeli sergiledi. Bu Open AI yazılımı, şimdilik gerçek insan konuşmasına en yakın olan şey. Gelecekte bu tür modeller saldırganların elinde yeni bir araç haline gelebilir. Ses API'si belirtilen metni yeniden seslendirirken, kullanıcılar metnin önerilen ses seçeneklerinden hangisiyle telaffuz edileceğini seçebilir.
Gerçekten ayırt edilmiyor
Günümüzde gerçek insan konuşmasından ayırt edilemeyen yüksek kaliteli derin sahte ses üretebilen neredeyse hiçbir cihaz mevcut değil. Ancak son birkaç ay içinde insan sesi üretmeye yönelik daha fazla araç piyasaya sürüldü. Yapay zeka kullanarak dolandırıcılık yapmak nadir görülen bir durum. Ancak halihazırda "başarılı" vaka örnekleri mevcut.
Kendinizi bundan nasıl koruyabilirsiniz?
Şimdilik bu durumdan kendinizi korumanın en iyi yolu, arayan kişinin telefonda size söylediklerini dikkatle dinlemekten geçiyor. Eğer kayıt kalitesizse, arada gürültüler varsa ve ses robotik geliyorsa, bu duyduğunuz bilgilere güvenmemeniz için yeterli sebep. Karşınızdakinin "insanlığını" test etmenin bir başka iyi yolu da alışılmışın dışında sorular sormak. Bir diğer güvenli seçenek de güvenilir ve kapsamlı bir güvenlik çözümü kullanmak.
Kaspersky Kıdemli Veri Bilimcisi Dmitry Anikin, "Şu an genel tavsiyemiz, tehdidi abartmamak ya da var olmadıkları yerde ses taklitlerini tanımaya çalışmamak yönündedir. Şimdilik mevcut teknolojinin insanların ayırt edemeyeceği kalitede bir ses oluşturacak kadar güçlü olması pek olası değil." dedi.