1. Haberler
  2. 3. SAYFA
  3. Korkutan teknoloji Deepfake ile Mona Lisa’yı dile getirdiler

Korkutan teknoloji Deepfake ile Mona Lisa’yı dile getirdiler

Korkutan teknoloji Deepfake ile Mona Lisa'yı dile getirdiler
Paylaş

Bu Yazıyı Paylaş

veya linki kopyala

Mona Lisa’nın “konuşturulduğu” yapa zeka temelli “Deepfake” teknolojisinin, sinema sektöründe işleri kolaylaştırması beklenirken yüksek gerçekliğe sahip sahte videolar üretilmesini sağlamasıyla risk ve tehlikeleri de beraberinde getirdiğine işaret ediliyor.

AA muhabirinin derlediği bilgilere göre, son günlerde adı sıklıkla duyulmaya başlanan “Deepfake” teknolojisi, yüz fotoğrafı ya da tablodan, yüksek gerçekçiliğe sahip, konuşan, gülen ya da yüz ifadelerini kullanan sahte videolar üretilmesine olanak sağlıyor, bunun yanı sıra herhangi bir videodaki konuşmayı değiştirip düzenleyebiliyor.

.jw-controls .jw-controls-right {
margin: 0 !important;
left: 10px !important;
top: 20px !important;
}

.jw-logo {
padding: 0 !important;
margin: 0 0 0 23px !important;
left: 10px !important;
top: 20px !important;
float: none;
}

.jw-dock {
padding: 0 !important;
margin: 0 !important;
right: 10px !important;
top: 0 !important;
position: absolute !important;
}

.jw-dock-button {
float: none !important;
}

.jw-dock-button .jw-overlay {
top: 0 !important;
right: 45px !important;
}

body {
margin: 0;
padding: 0;
}

 

Farklı yapay zeka sistemleri kullanılarak videolar elde edilen söz konusu teknoloji, herhangi bir videodaki konuşmacının söylediklerinin kolaylıkla değiştirilmesine izin veriyor. Konuşmaya yeni sözler eklenip çıkarılabilen programla, herhangi bir videodaki konuşmanın değiştirilmesinin, bir yazının ya da kelimenin kopyalanıp yapıştırılması kadar kolay hale geldiği iddia ediliyor.

Sinema ve televizyon sektöründe kullandığında, hata yapılan bir diyaloğun yeniden çekime gerek duyulmadan düzeltilmesine olanak sağlayabilecek bu teknolojinin, kötü niyetli kişilerin kullanımı açısından bakıldığında ise önemli risk ve tehlikeleri içerisinde barındırdığı kaydediliyor.

ALGI YÖNETİMİ YAPILABİLİR

“Deepfake” teknolojisi hakkında AA muhabirine değerlendirmede bulunan Türkiye Bilişim Derneği (TBD) Genel Başkanı Rahmi Aktepe, söz konusu teknolojinin, videoların manipüle edilmesinde ve sahte videolar üretilmesinde araç olarak kullanıldığını söyledi. Aktepe, “Siber savaşların ve dijital felaketlerin yaşandığı günümüzde, toplumsal olayları tetiklemek ve algı yönetimi amacıyla kullanılabilir.” dedi.

Aktepe, bazı ülkelerin bu teknolojiyle ilgili çalışmalar yaptığına vurgu yaparak, “ABD, Pentagon, Savunma Gelişmiş Araştırma Projeleri Ajansı (DARPA) aracılığıyla, ülkenin araştırma kurumları ile iş birliği yaparak “Deepfake” teknolojisinde öncü rol üstlenmeye çalışmaktadır.” ifadelerini kullandı.

İnsanların hayatını kolaylaştırmak, iş süreçlerinin iyileştirmek amacıyla geliştirilen yapay zeka teknolojisinin etik dışı kullanılması durumunda ne gibi zararlar verebileceğine “Deepfake” teknolojisinin iyi bir örnek olduğunu savunan Aktepe, “Söz konusu teknik, görüntü işleme ve sinema sektörüne yönelik geliştirilmiş olmakla birlikte günümüzde siber zorbalar tarafından kötü amaçlar için, yani etik dışı olarak yaygın bir şekilde kullanılmaktadır.” değerlendirmesinde bulundu.

Aktepe, kişilere özgün görüntü ve ses işleyebilme özelliği sayesinde söz konusu teknolojinin sinema ve televizyon sektöründe maliyet etkin olarak kullanılmaya başlandığına ancak etik dışı kullanıma yönelik bazı riskleri de barındırdığına da dikkati çekti.

“Deepfake”in siber zorbalık amacıyla kullanıldığını kaydeden Aktepe, bunun yanı sıra kritik altyapılara yönelik siber saldırılarda da bir araç olarak kullanılabilme özelliğine sahip olduğunu ileri sürdü. Aktepe, “Söz konusu teknolojinin toplumlarda algı yönetimi ile kaos yaratılması ve toplumsal olayların tetiklenmesi amacıyla da kullanılabileceğini değerlendiriyoruz.” ifadelerini kullandı.

ÜNLÜLER HAYATA DÖNDÜRÜLDÜ

Samsung’un Moskova’daki Yapay Zeka Merkezince, tek bir yüz fotoğrafı ya da tablodan, yüksek gerçekçiliğe sahip sahte video elde etme teknolojisi geliştirildiği duyurulmuştu.

“Deepfake” teknolojisiyle Mona Lisa’nın mimikleri hareket ettirilirken araştırmacılar, Mona Lisa tablosunun yanı sıra Marilyn Monroe, Fyodor Dostoyevski ve Albert Einstein gibi ünlü isimlerin de fotoğraflarını video haline getirerek YouTube’da yayınlamıştı.

 

 

0
kat_l_yorum_1
Katılıyorum +1
0
hatal_d_n_yorsun
Hatalı Düşünüyorsun
0
bilgi_in_te_ekk_r
Bilgi İçin Teşekkür
0
_a_rd_m
Şaşırdım
0
kat_lm_yorum_-1
Katılmıyorum -1
Korkutan teknoloji Deepfake ile Mona Lisa’yı dile getirdiler
Yorum Yap

Türkiye Aktüel Haber Bültenine Ücretsiz Abone Olabilirsin

Yeni eklenen makalelerimizden haberdar olmak için fırsatı kaçırma ve ücretsiz e-posta aboneliğini şimdi başlat.

E-posta adresiniz yayınlanmayacak. Gerekli alanlar * ile işaretlenmişlerdir

Giriş Yap

Türkiye Aktüel ayrıcalıklarından yararlanmak için hemen giriş yapın veya hesap oluşturun, üstelik tamamen ücretsiz!