USD

-
-%

EUR

-
-%

GBP

-
-%

ALTIN GR

-
-%

BIST 100

-
-%

Teknoloji Haberleri

10 Mayıs 2023 14:32

Deepfake içerik tehlikesi tüm dünyada büyüyor

Son dönemde tüm dünyada ortaya çıkan deepfake içerik tehlikesi üzerine yapılan araştırmada, deepfake içeriğin her yıl yüzde 400 oranında arttığı görüldü. İnfrasis Siber Mühendislik Genel Müdürü Can Sobutay, “İnsanları derin sahtekarlıkların var olduğu, nasıl çalıştıkları ve neden olabilecekleri olası zararlar konusunda daha iyi eğitmemiz gerekiyor" diyor.

Deepfake içerik tehlikesi tüm dünyada büyüyor

Teknolojik gelişim, bir yandan hayatı kolaylaştırırken diğer taraftan özel şirketler ve kamu kurumlarında olduğu kadar vatandaşlar için de büyük bir tehdit oluşturmaya devam ediyor. Son dönemin en dikkat çekici konularından biri olan deepfake tehdidi; yapılan araştırmalar internetteki deepfake içeriğinin her yıl %400 oranında büyüdüğünü ortaya çıkarmış. Sıfırdan veya mevcut bir insanın görünümünü ve/veya sesini çoğaltmak için mevcut bir videoyu kullanarak sahte içerik oluşturmak için yapay zekaya dayalı insan-görüntü sentezi tekniği olan deepfake, yapay zeka (AI) ve makine öğrenimi (ML) gibi teknolojiler kullanılarak daha karmaşık ve inandırıcı sentetik içerikler oluşturabiliyor.

"TOPLUMUN SİBER FARKINDALIĞININ ARTMASI ŞART"

Son üç yıldır FBI'ın, deepfake'ler de dahil olmak üzere artan sentetik içerik tehdidi hakkında uyarılar yayınladığını söyleyen İnfrasis Siber Mühendislik Genel Müdürü Can Sobutay, "Ve bunu 'görüntüler, video, ses ve metin içeren manipüle edilmiş dijital içerik yelpazesi' olarak nitelendiriyor. Öncelikle toplum olarak siber dayanıklılığımızın, farkındalığımızın artması mecburi bir konu. İnsanları derin sahtekarlıkların var olduğu, nasıl çalıştıkları ve neden olabilecekleri olası zararlar konusunda daha iyi eğitmemiz gerekiyor" dedi. Deepfake'i gerçeğinden ayırmanın, tespit etmenin farklı yollarının olduğunu ifade eden Can Sobutay, "Bunlardan biri siber güvenlik uygulamalarını ve 'sıfır güven felsefesi'ni kullanmak. Gördüğünüz her şeyi doğrulayın. Mesajın kaynağını olabildiğince kontrol edin. Mümkünse orijinali bulmak için görsel arama yapın. Para transferi yapmadan önce tüm değişiklik ve ödeme taleplerini onaylamayı bir kişisel politika haline getirin" diye konuştu. E-posta ve sesli postaya asla güvenilmemesi gerektiğini vurgulayan Can Sobutay, "E-posta oturum açma işlemleri ve e-posta ayarlarındaki diğer değişiklikler için çok faktörlü kimlik doğrulamayı mutlaka ayarlayın. Müşteriler, çalışanlar veya satıcılar hakkındaki bilgilerdeki değişiklikleri doğruladığınızdan emin olun. Kendi resimleriniz söz konusu olduğunda, birinin onlardan sentetik içerik oluşturmasını zorlaştıran bir dijital parmak izi veya filigran kullanmaya çalışın" dedi.

"GÜVENLİKTE YENİ TEKNOLOJİ TASARLAMA YARIŞI VAR"

Doğrudan veya dolaylı olarak şirketlerin, hükümetlerin ve diğer kuruluşların itibarını zedeleyen ses kimliğine bürünme örneklerinin özellikle son 3 yıldır artan bir şekilde siber dünyanın gündeminde yer aldığını belirten İnfrasis Siber Mühendislik Genel Müdürü Can Sobutay, şöyle devam etti: "YouTube'da 'deepfake' terimini aramak, bizlerin gelecekte olacaklarla ilgili buzdağının görünen ucunu gördüğümüzü fark etmenizi sağlayacaktır. Yapay zekanın kötü niyetli kullanım potansiyelini fark eden siber güvenlik sektörü, geliştirilmiş güvenlik çözümleri üzerine yeni teknolojiler tasarlama yarışındalar. Araştırma laboratuvarları, derin sahtekarlık teknolojisini tespit etmek için filigran ve blok zincir teknolojilerini kullanıyor. Gelen medyayı izleyen ve şüpheli içeriği karantinaya alan bir virüsten koruma ve spam filtrelerinin birleşimi olan filtreleme programları, koruma sağlamaya yardımcı oluyor. Twitter ve Youtube gibi platformlar da derin sahte teknolojiyi yasaklayan politikaları uygulamaya başladı. Kimlik doğrulama yöntemi olarak ses tanımayı benimseyen bankalar, finansal hizmetler şirketleri, kredi kartı şirketlerinin, potansiyel kimliğe bürünme saldırılarına karşı, gerekli güvenlik altyapısını oluşturması zorunludur."

(İnfrasis Siber Mühendislik Genel Müdürü Can Sobutay)

EN ÇOK OKUNANLAR