Yapay zekâ destekli sahte videolar artık yalnızca görsel değil, biyolojik sinyalleri de taklit edebiliyor. Gerçekle sahtenin sınırı hiç bu kadar bulanıklaşmamıştı.

Bir zamanlar yalnızca bilim kurgu filmlerinde gördüğümüz sahneler, artık parmaklarımızın ucunda.

Gerçekmiş gibi görünen sahte videolar sosyal medya akışlarımızı dolduruyor. Öyle ki, geçtiğimiz günlerde internette viral olan ve milyonlarca kişi tarafından izlenen video, sahte ile gerçeği ayırt etmenin ne kadar güçleştiğini gözler önüne serdi.

Peki, artık hiçbir şeye güvenemeyecek miyiz?

🤖 Deepfake Teknolojisinin Evrimi

Deepfake, yani yapay zekâ ile üretilen sahte videolar, her geçen gün daha gelişmiş hale geliyor. Eskiden bu içerikleri tespit etmek; çarpık mimikler, uyumsuz dudak hareketleri veya garip göz kırpmalardaki gariplikler sayesinde nispeten kolaydı. Ancak artık işler değişti.

Yüksek kalitedeki yeni nesil deepfake’ler, sadece görüntü değil, insan vücudunun algılanması neredeyse imkânsız olan fizyolojik özelliklerini bile taklit edebiliyor. Üstelik artık kalp atışlarını bile…

❤️ Kalp Atışıyla Sahteciliği Ayırt Etmek

Siber güvenlik uzmanları ve araştırmacılar, uzun süre boyunca deepfake tespit etmenin en etkili yolunu bulduklarını düşünüyordu: Kalp atışı sinyalleri.

İnsan derisi, her kalp atışında kan akışı nedeniyle mikroskobik düzeyde renk değiştirir. Bu değişimler çıplak gözle fark edilmez ama özel algoritmalarla video üzerinde analiz edilebilir. Bu teknik, uzaktan fotopletismografi (rPPG) olarak bilinir ve bir kişinin nabzını temassız bir şekilde videodan ölçmeye olanak tanır.

Bu sistemin dayandığı temel varsayım; yapay zekanın, kalp atışından kaynaklanan bu ince cilt tonu değişimlerini taklit edemeyeceğiydi. Ama bu varsayım artık sorgulanıyor. Çünkü, görünen o ki Deepfake’ler artık tespit araçlarını kandırabilir hale geldi.

📊 Deepfake’lerin Kalbi de Var!

Nisan 2025’te Frontiers in Imaging dergisinde yayımlanan bir araştırma, bu inancı kökünden sarstı. Almanya’daki Fraunhofer Heinrich-Hertz Enstitüsü ve Humboldt Üniversitesi’nin yürüttüğü çalışmaya göre, yüksek kaliteli deepfake’ler, kaynak videolardaki kalp atışı desenlerini farkında olmadan koruyabiliyor.

Başka bir deyişle, sahte bir video, izleyicide gerçek bir kalp atışı varmış izlenimi uyandırabiliyor.

🔬 Araştırmanın Detayları:

Araştırmacılar, hem gerçek videolar hem de çeşitli deepfake üretim yöntemleriyle oluşturulmuş sahte videoları analiz etti. İşte o şaşırtıcı sonuçlar:

  • Araştırmacılar hem gerçek hem de deepfake videolardaki kalp atışı sinyallerini analiz etti.
  • Bazı sahte videolarda kalp atışı ile gerçek veri arasında %82’ye kadar korelasyon bulundu.
  • Görünüşe göre yapay zekâ, istemeden de olsa bu biyolojik verileri taklit edebiliyor.

🧠 Tespit Yöntemleri Artık Yetersiz mi?

Evet… ve hayır. Nasıl  mı?

Mevcut tespit sistemlerin çoğu yalnızca kalp atış sinyallerinin varlığına odaklanıyordu. Ancak artık bu sinyallerin var olması, videonun gerçek olduğunu kanıtlamaya yetmiyor.

Araştırma, deepfake videoların kalp atış verisini oldukça ikna edici bir şekilde taşıyabildiğini ortaya koyuyor. Tabii, şimdilik hala ufak farklılıklar var. Örneğin; deepfake’ler kalp atış hızı sinyallerini koruyor ama ortalama sinyal-gürültü oranı bakımından bu sinyaller genellikle kaynak videolardakinden daha zayıf yani daha düşük kalitede.

Araştırmacılar bu durumun da değişebileceğini düşünüyor, bu nedenle tespit için kalp atış hızı sinyallerinin varlığını veya yokluğunu aramaktan uzaklaşıp, bunun yerine yeni bir yaklaşım öneriyorlar: Kalp atış sinyallerinin sadece varlığına değil, yüzün farklı bölgelerine nasıl dağıldığını incelemek. 

Çünkü gerçek videolarda kan akışı yüz boyunca doğal ve tutarlı bir şekilde yayılırken, deepfake’lerde bu dağılım yapay kalabiliyor. Bu da, gelecek tespit sistemlerinin davranışa da odaklanması gerektiği anlamına geliyor.

🛡️ Gerçeklik Testi: Ne Kadar Tehlikedeyiz?

Bu gelişme, yalnızca teknik bir mesele değil; aynı zamanda demokrasi, güvenlik ve bilgi ekosistemi için bir uyarı niteliği taşıyor. Daha önce Barack Obama, Donald Trump’ın sahte videoları, deepfake teknolojisinin politik manipülasyon aracı olarak kullanılabileceğini göstermişti. Bugün bu teknolojiler, sıradan insanların yüzünü kullanarak bile gerçeğe ayırt edilemeyecek düzeyde sahte içerikler üretmeye başladı.

İnternette karşılaştığınız bir video size çok inandırıcı geliyorsa, bir daha düşünün. Görünüş artık tek başına güvenilir değil.

🧭 Sonuç: Gerçek ile Sahte Arasındaki Sınır Bulanıklaşıyor

Deepfake teknolojisinin evrimi, bir yandan hayranlık uyandırıcı teknik başarılar sunarken, diğer yandan bilgi güvenliği ve kamuoyu sağlığı açısından ciddi tehditler barındırıyor. Bu yeni araştırma, deepfake’lerin artık sadece yüz hatlarını değil, insanın nabzını bile kopyalayabildiğini göstererek, oyunun kurallarının değiştiğini ilan ediyor.

Sahte ile gerçeği ayırt etme savaşı sürüyor — ama bu savaş artık daha derin, daha teknik ve çok daha zorlu bir hale geldi.

Kaynaklar:

Yorum bırakın

İDDİALAR VE GERÇEKLER…

Hayatımızın birçok alanında uzun yıllar etkisi olabilecek iddiaların peşinden gidiyor gerçekleri araştırıyoruz.

~ İddialar ve Gerçekler Ekibi