Deepfake videolarını tespit etmek zorlaşıyor! Gerçekçi kalp atışları

Deepfake Videolarının Yapay Zeka ile Tespit Edilmesi Gerekebilir

Bir kişinin yüzünün ya da vücudunun dijital olarak değiştirilmesiyle oluşturulan deepfake videolar endişe verici bir durum oluşturuyor.

Bu videolar, bir kişinin görüntüsünün yapay zeka kullanılarak değiştirilmesiyle ortaya çıkıyor. Her ne kadar bu teknoloji, kişilerin yüzlerini eğlenceli amaçlarla değiştiren uygulamalarda kullanılsa da, aynı zamanda insanların itibarını zedelemek amacıyla da kullanılabiliyor.

Independent Türkçe’nin haberine göre, deepfake videoları, insanların itibarını zedelemek veya cinsel içerikli sahte videolar oluşturmak için kullanılabilecek bir tehlike oluşturuyor. Bu tür videoların gerçek olup olmadığını belirlemek için kullanılan ileri teknolojilerden biri ise kalp atışlarının incelenmesi.

Uzaktan fotopletismografi (rPPP) adlı bir araç, deri yoluyla ışık değişimlerini izleyerek nabzı ölçebiliyor. Bu araç, çevrim içi hekim randevularının yanı sıra deepfake videolarını tespit etmek için de kullanılabiliyor.

30 Nisan’da Frontiers in Imaging dergisinde yayımlanan bir çalışmaya göre, deepfake videolarda artık gerçeğe yakın kalp atışları oluşturulabiliyor.

Bilim insanları, videolarda nabız hızını otomatik olarak analiz edebilen bir deepfake dedektörü geliştirilmesi için çalışmalara başladı. Sonuçlar oldukça başarılıydı, rPPP tabanlı araç, EKG kayıtlarıyla karşılaştırıldığında dakikada yalnızca iki-üç atım farkıyla çalıştı.

Bu araç, deepfake videolarda kalp atışı eklenmemiş olsa bile son derece gerçekçi bir kalp atışı algılayabiliyor. Bilim insanları, deepfake videolara kalp atışlarının kasten eklenmesi yanı sıra kaynak videodan da geçebileceğini belirtiyor.

Almanya’daki Humboldt Üniversitesi’nden araştırmacı Peter Eisert, deepfake videoların gerçek görüntülerden üretilebileceğini belirterek şunları söyledi:

“Geliştirilen deepfake’ler her geçen gün daha gerçekçi hale geliyor ve iki yıl önce etkili olan dedektörler artık yetersiz kalabiliyor.”

Araştırmacılar, deepfake videoları saptamanın farklı yolları olduğunu savunuyor. Örneğin, sadece nabız hızını değil, yüzdeki kan akışını detaylı olarak inceleyen dedektörler geliştirilebilir.

Eisert, “Kalp atışları sırasında kan yüzdeki damarlardan geçerek dağılıyor ve bu süreçte gerçek videolarda gözlenebilecek küçük gecikmeler vardır” diyor.

Ancak bilim insanlarına göre, deepfake videoları tespit etmenin nihai çözümü, dedektörlerden ziyade bir görüntünün değiştirilip değiştirilmediğini belirlemeye yarayan dijital işaretlere odaklanmaktan geçiyor:

“Bir şeyin sahte olup olmadığını tespit etmekten ziyade, bir görüntünün değiştirilmediğini kanıtlayan teknolojilere odaklanmadığımız sürece, deepfake videoları tespit etmek giderek zorlaşacak.”

Related Posts

Bu telefonlar 7 yıl boyunca güncelleme alacak!

Samsung bazı modellerinin 7 boyunca güncellenerek destekleneceğini duyurdu.

Spotify için kritik soruşturma

Küle “Spotify hakkında başlattığımız inceleme, kültürel üretimin adil koşullarda sürdürülebilmesi açısından büyük önem taşıyor” dedi.

Türkiye Wushu Kung Fu Federasyonu Başkanı Akyüz Kayseri’de sporcularla buluştu

Türkiye Wushu Kung Fu Federasyonu Başkanı Abdurrahman Akyüz, Kayseri’de sporcularla buluştu.

Yanında telefon olmadan Whatsapp’a girilir mi?

İnsanlar zaman zaman telefonlarını evde unutabiliyorlar. İş yerlerinde ise bilgisayardan Whatsapp’a bağlanması gerektiğinde sorun oluyor. Bu sorunun çözümü bulundu. İşte tüm detaylar… İlk önce Whatsapp’ı açmak istediğiniz bilgisayardan Web Whatsapp …

Steam, oyun içindeki verileri gösteren izleyicisini kullanıma açtı

Oyun performansını izlemeyi sağlayan yeni sistem CPU/GPU/RAM kullanımlarını gösterecek. FPS değerleri de grafik olarak görülecek.

Apple 6 yıl aranın ardından yeniden değişikliğe gidebilir! Ortalığı karıştıran iddia

Teknoloji severler ve Apple tutkunları tarafından merakla beklenen iPhone 17 Pro hakkında ilginç bir iddia gündemi atıldı. Teknoloji severlerin arasında tartışma yaratan iddiaya göre Apple yeni modelinde arka kısımdaki Apple logosunun yerini …