Teknoloji

Yeni teknolojilerle gelişen bir manipülasyon biçimi: Deepfake

Doç. Bahar Muratoğlu Pehlivan: “Deepfake, toplumu manipüle etmek için son derece tehlikeli bir araçtır”

Son günlerde gündemde olan deepfake teknolojisi ile üretilen içeriklere karşı uzmanlar uyarıyor… Öyle ki tespit edilebilmesi için çok detaylı bir inceleme gerekiyor. Doç. Bahar Muratoğlu Pehlivan, kişinin imajının, hareketlerinin ve sesinin gerçeğe çok yakın şekilde taklit edilebileceğini söylüyor. “Bunun sahte haberler ve kara propaganda için kullanılması büyük bir endişe kaynağı.” Pehlivan, deepfake teknolojisinin toplumu manipüle etmek için son derece tehlikeli bir araç olduğunu sözlerine ekledi.

Üsküdar Üniversitesi Bağlantı Fakültesi Dekan Yardımcısı Gazetecilik Bölümü Öğretim Üyesi Doç. Bahar Muratoğlu Pehlivan, son günlerde gündem yaratan deepfake ile ilgili açıklamalarda bulundu.

Kişinin görüşünü ve sesini çok yakından taklit edebilir…

‘Deepfake’i yeni teknolojilerle geliştirilmiş bir manipülasyon biçimi olarak tanımlayan Doç. Bahar Muratoğlu Pehlivan, “Kişinin görünüşünü, hareketlerini ve sesini gerçeğe çok yakın şekilde taklit edebiliyor. Bu sayede kişinin yapmadığı şeyleri yapmış, söylemediği şeyleri söylemiş gibi görünmesine neden olabilir. Genel olarak, sentetik medya teknolojisi, bireylerin eylemlerini simüle etmenin yanı sıra, gerçekte var olmayan insanların görüntülerini üretebilir veya gerçek görüntülerin çeşitli yönlerini değiştirebilir.” açıkladı.

Deepfake, vatandaşların doğru bilgi edinme hakkını engeller

“Deepfake teknolojisinin, taklit edilecek kişinin kaynak görüntülerini kullanarak bir kişiden diğerine yüzleri aktaran derin öğrenme tabanlı yapay zeka teknolojisine dayandığını söyleyebiliriz.” Pehlivan, bu teknolojinin her geçen gün yaygınlaştığını ve kullanımının kolaylaştığını kaydetti.

Pehlivan, bu konudaki korkularından birinin de genellikle kadınlara yönelik olması olduğunu belirterek, “Öte yandan uydurma haber ve kara propaganda amacıyla kullanılması da büyük endişe yaratıyor. Toplumu manipüle etmek için son derece tehlikeli bir araç gibi görünüyor. Yanlış bilginin çok hızlı yayıldığı, yanlış olduğu ortaya çıksa bile yayılmasının engellenemediği ve zararın telafi edilemediği çağımızda, kişisel ve toplumsal olarak büyük sorunlar yaşamaktadır. Bu yönüyle demokratik sistem için tehdit oluşturmakta ve vatandaşın gerçekleri bilme hakkını engellemektedir.” açıklama yaptı.

Manipüle edilebilecek sahte içerik kutuplaşmaya neden olabilir…

Kişilere ait gerçek dışı görüntülerin üretilmesi ve yayılmasının başlı başına bir kabahat unsuru olduğunu hatırlatan Doç. Bahar Muratoğlu Pehlivan, “Deepfake aracılığıyla görüntüleri simüle edilen kişiler hakkında yanlış bilgiler yayılıyor ve bu kişilerin kişilik hakları ihlal ediliyor. Öte yandan görüntülerin bu şekilde üretilebilmesi yeni iletişim teknolojileri sayesinde başka suçların işlenmesini de kolaylaştırıyor. Bir diğer sorun da toplumu manipüle edebilen sahte içerikler paylaşarak toplumda kutuplaşmaya ve çatışmaya neden olabilmesidir.” konuştu

Deepfake içeriği tespit etmek çok fazla inceleme gerektirir

Deepfake içeriğin tespit edilebilmesi için görüntülerin detaylı bir şekilde incelenmesi ve her karenin farklı şekilde analiz edilmesi gerektiğinin altını çizen Pehlivan, “Görüntülerdeki hatalar, kişinin yüz ve kafa hareketlerindeki kusurlar, göz kırpma sıklığı ve olup olmadığı. Kişi hareket ettiğinde görüntüde herhangi bir bozulma olup olmadığı kontrol edilir. Bu amaçla geliştirilmiş araç ve programlar kullanılabilir.” söz konusu.

Deepfake’i tespit etmek için gelişen yapay zeka uygulamaları olduğuna dikkat çeken Pehlivan, sözlerini şöyle tamamladı:

“Tabii ki deepfake teknolojisi de gelişiyor ve mevcut doğrulama araçları bir gün yetersiz kalabilir. Ancak, doğrulama ve sentetik ortam algılama teknikleri aynı yönde gelişmeye devam edecektir. Önemli olan yeni iletişim teknolojileriyle yayılan içeriklere şüpheyle yaklaşıp doğrulanıp onaylanmadığını takip etmektir.”

 

Kaynak: (BYZHA) Beyaz Haber Ajansı

haber-bor.com.tr

Bir yanıt yazın

E-posta adresiniz yayınlanmayacak. Gerekli alanlar * ile işaretlenmişlerdir

Başa dön tuşu