İçindekiler:

Derin sahteler: Neuroset'e ses ve video sahteleri üretmesi öğretildi
Derin sahteler: Neuroset'e ses ve video sahteleri üretmesi öğretildi

Video: Derin sahteler: Neuroset'e ses ve video sahteleri üretmesi öğretildi

Video: Derin sahteler: Neuroset'e ses ve video sahteleri üretmesi öğretildi
Video: B1-B2 İngilizce En Hızlı Nasıl Öğrenilir? ORTA SEVİYE (B1-B2) İngilizce Hikaye (Cities In The Sea) 2024, Mayıs
Anonim

Herhangi birimiz için “bireysel” bir haber resmi oluşturmak ve içinde seçilen medya raporlarını tahrif etmek için bugün bir programcının çabaları yeterlidir. Yapay zeka ve siber güvenlik uzmanları bunu İzvestia'ya anlattı.

Daha yakın zamanlarda, bunun birden fazla ekibin çalışmasını gerektirdiğini tahmin ettiler. Bu tür bir hızlanma, sinir ağlarına yönelik saldırılar için teknolojilerin geliştirilmesi ve “derin sahte” oluşturmak için programlar kullanan ses ve video sahtelerinin oluşturulmasıyla mümkün hale geldi. İzvestia gazetesi geçtiğimiz günlerde, üç Libya haber portalının aynı anda, haberlerden birinde yer aldığı iddia edilen bir mesaj yayınlamasıyla benzer bir saldırıya maruz kaldı. Uzmanlara göre, 3-5 yıl içinde, otomatik olarak birçok sahte yaratabilecek robot manipülatörlerinin istilasını bekleyebiliriz.

Cesur Yeni Dünya

Bilgi resmini belirli kullanıcıların algısına göre ayarlayan daha fazla proje var. Çalışmalarına bir örnek, 20 Kasım'da İzvestia sayısında yayınlandığı iddia edilen bir haberi yayınlayan üç Libya portalının son eylemiydi. Sahtenin yaratıcıları, gazetenin ön sayfasını değiştirerek, Mareşal Khalifa Haftar ile Ulusal Anlaşma Hükümeti (PNS) Başbakanı Fayez Sarraj arasındaki müzakereler hakkında bir mesaj yayınladılar. Izvestia yazı tipindeki sahte yazıya, iki liderin Mayıs 2017'de çekilmiş bir fotoğrafı eşlik etti. Yayının logosunun bulunduğu etiket, asıl yayınlanan 20 Kasım sayısından ve sayfadaki diğer tüm metinler 23 Ekim sayısından kesildi.

Uzmanların bakış açısından, öngörülebilir gelecekte bu tür tahrifatlar otomatik olarak yapılabilir.

Truman Show - 2019: Sinir Ağları Haber Resmini Sahte Yapmayı Nasıl Öğretti?
Truman Show - 2019: Sinir Ağları Haber Resmini Sahte Yapmayı Nasıl Öğretti?

Fizik ve Matematik Bilimleri Doktoru Yuri Vilsiter, FSUE “GosNIIAS” bölümünün başkanı, Fizik ve Matematik Bilimleri Doktoru Yuri Vilsiter, “Yapay zeka teknolojileri artık tamamen açık ve veri alma ve işleme cihazları küçülüyor ve ucuzluyor”, İzvestia'ya anlattı. - Bu nedenle, yakın gelecekte, devlet ve büyük şirketler bile değil, sadece özel kişilerin bizi dinlemesi ve gözetlemesi ve aynı zamanda gerçekliği manipüle etmesi çok muhtemeldir. Önümüzdeki yıllarda, kullanıcı tercihlerini analiz ederek, onu haber beslemeleri ve çok akıllıca taklitlerle etkilemek mümkün olacak.

Yuri Vilsiter'e göre, zihinsel ortama böyle bir müdahale için kullanılabilecek teknolojiler zaten var. Teoride, robotik botların istilasının birkaç yıl içinde beklenebileceğini söyledi. Burada sınırlayıcı bir nokta, gerçek insanların uzun vadeli sonuçların izlenmesiyle yapay uyaranlara verdiği tepkilerin büyük veritabanlarını toplama ihtiyacı olabilir. Bu tür bir izleme, hedefli saldırılar tutarlı bir şekilde elde edilmeden önce muhtemelen birkaç yıl daha araştırma gerektirecektir.

Vizyon saldırısı

SearchInform'un analitik departmanı başkanı Alexey Parfentiev de Yuri Vilsiter ile aynı fikirde. Ona göre, şimdi pratikte böyle bir örnek olmamasına rağmen, uzmanlar sinir ağlarına yönelik saldırıları zaten tahmin ediyor.

- Gartner'dan araştırmacılar, 2022 yılına kadar tüm siber saldırıların %30'unun, sinir ağının eğitildiği verileri bozmaya ve hazır makine öğrenimi modellerini çalmaya yönelik olacağına inanıyor. Ardından, örneğin, insansız araçlar aniden yayaları diğer nesnelerle karıştırmaya başlayabilir. Uzman, finansal veya itibar riskinden değil, sıradan insanların yaşamı ve sağlığından bahsedeceğimize inanıyor.

Bilgisayarla görme sistemlerine yönelik saldırılar, şu anda araştırmaların bir parçası olarak gerçekleştiriliyor. Bu tür saldırıların amacı, sinir ağının görüntüde orada olmayan bir şeyi algılamasını sağlamaktır. Ya da tam tersine, ne planlandığını görmemek.

Truman Show - 2019: Sinir Ağları Haber Resmini Sahte Yapmayı Nasıl Öğretti?
Truman Show - 2019: Sinir Ağları Haber Resmini Sahte Yapmayı Nasıl Öğretti?

Kaspersky Lab'de bir web analisti olan Vladislav Tushkanov, "Sinir ağlarının eğitimi alanında aktif olarak gelişen konulardan biri, sözde düşman saldırılarıdır (" düşman saldırıları. "- Izvestia)," dedi. - Çoğu durumda, bilgisayar görme sistemlerine yöneliktirler. Böyle bir saldırıyı gerçekleştirmek için çoğu durumda, sinir ağına (beyaz kutu saldırıları denir) veya çalışmalarının sonuçlarına (kara kutu saldırıları) tam erişiminiz olması gerekir. Vakaların %100'ünde herhangi bir bilgisayarlı görme sistemini aldatabilecek hiçbir yöntem yoktur. Ek olarak, sinir ağlarını düşman saldırılarına karşı direnç açısından test etmenize ve dirençlerini artırmanıza olanak tanıyan araçlar zaten oluşturulmuştur.

Böyle bir saldırı sırasında saldırgan, sinir ağının çalışmaması için tanınan görüntüyü bir şekilde değiştirmeye çalışır. Genellikle, zayıf aydınlatılmış bir odada fotoğraf çekerken meydana gelene benzer şekilde, fotoğrafın üzerine gürültü eklenir. Bir kişi genellikle bu tür parazitleri iyi fark etmez, ancak sinir ağı arızalanmaya başlar. Ancak böyle bir saldırıyı gerçekleştirmek için saldırganın algoritmaya erişmesi gerekir.

Neuroset Ashmanov'un Genel Müdürü Stanislav Ashmanov'a göre, şu anda bu sorunla başa çıkmanın hiçbir yöntemi yok. Ayrıca, bu teknoloji herkes tarafından kullanılabilir: ortalama bir programcı, Github hizmetinden gerekli açık kaynaklı yazılımı indirerek kullanabilir.

Truman Show - 2019: Sinir Ağları Haber Resmini Sahte Yapmayı Nasıl Öğretti?
Truman Show - 2019: Sinir Ağları Haber Resmini Sahte Yapmayı Nasıl Öğretti?

- Bir sinir ağına saldırı, bir sinir ağını aldatmaya yönelik bir teknik ve algoritmalardır, bu da onun yanlış sonuçlar üretmesini sağlar ve aslında onu bir kapı kilidi gibi kırar, - Ashmanov'a göre. - Örneğin, artık yüz tanıma sistemini, karşındakinin sen değil de Arnold Schwarzenegger olduğunu düşündürmek oldukça kolay - bu, sinir ağına gelen verilere insan gözünün algılayamadığı katkı maddelerinin karıştırılmasıyla yapılıyor. Aynı saldırılar konuşma tanıma ve analiz sistemleri için de mümkündür.

Uzman, durumun daha da kötüleşeceğinden emin - bu teknolojiler kitlelere gitti, dolandırıcılar zaten onları kullanıyor ve onlara karşı hiçbir koruma yok. Video ve ses sahteciliğinin otomatik olarak oluşturulmasına karşı hiçbir koruma olmadığı için.

Derin sahte

Derin Öğrenmeye dayalı Deepfake teknolojileri (sinir ağlarının derin öğrenme teknolojileri. - Izvestia) zaten gerçek bir tehdit oluşturuyor. Video veya ses sahtekarlıkları, gerekli metni telaffuz eden ve arsada gerekli rolü oynayan ünlü kişilerin yüzlerini düzenleyerek veya üst üste bindirerek oluşturulur.

Group-IB'de yenilikçi marka koruma ve fikri mülkiyet bölümü müdürü Andrey Busargin, "Deepfake, dudak hareketlerini ve insan konuşmasını, olup bitenlere dair bir gerçekçilik hissi yaratan video ile değiştirmenize olanak tanıyor" diyor. - Sahte ünlüler, sosyal ağlardaki kullanıcılara değerli ödüllerin (akıllı telefonlar, arabalar, para miktarı) vb. Bu tür video yayınlarından gelen bağlantılar genellikle, kullanıcılardan banka kartı bilgileri dahil olmak üzere kişisel bilgilerini girmelerinin istendiği dolandırıcılık ve kimlik avı sitelerine yol açar. Bu tür planlar hem sıradan kullanıcılar hem de reklamlarda adı geçen kamuya mal olmuş kişiler için tehdit oluşturmaktadır. Bu tür bir dolandırıcılık, ünlülerin imajlarını dolandırıcılık veya reklamı yapılan ürünlerle ilişkilendirmeye başlar ve işte bu noktada kişisel marka zararımızla karşılaşırız, diyor.

Truman Show - 2019: Sinir Ağları Haber Resmini Sahte Yapmayı Nasıl Öğretti?
Truman Show - 2019: Sinir Ağları Haber Resmini Sahte Yapmayı Nasıl Öğretti?

Başka bir tehdit, telefon dolandırıcılığı için "sahte oy" kullanımıyla ilişkilidir. Örneğin, Almanya'da siber suçlular, Birleşik Krallık'tan bir yan kuruluşun başkanının bir telefon görüşmesinde şirket müdürü gibi davranarak acilen 220.000 € transfer etmesini sağlamak için sesli derin sahtekarlığı kullandılar. Macar bir tedarikçinin hesabına. İngiliz firmasının başkanı, "patronu" ikinci bir para emri istediğinde bir hileden şüphelendi, ancak arama Avusturyalı bir numaradan geldi. Bu zamana kadar, ilk dilim, paranın Meksika'ya çekildiği Macaristan'daki bir hesaba zaten transfer edilmişti.

Mevcut teknolojilerin, sahte haberlerle dolu bireysel bir haber resmi oluşturmanıza izin verdiği ortaya çıktı. Üstelik çok yakında sadece donanımsal olarak sahteleri gerçek video ve seslerden ayırt etmek mümkün olacak. Uzmanlara göre, sinir ağlarının geliştirilmesini yasaklayan önlemlerin etkili olması pek olası değil. Bu nedenle, yakında her şeyi sürekli olarak yeniden kontrol etmenin gerekli olacağı bir dünyada yaşayacağız.

Yuri Vilsiter, “Bunun için hazırlanmamız gerekiyor ve bu kabul edilmelidir” dedi. - İnsanlık bir gerçeklikten diğerine ilk geçiş değil. Dünyamız, yaşam tarzımız ve değerlerimiz, atalarımızın 60.000 yıl önce, 5.000 yıl önce, 2.000 yıl önce ve hatta 200-100 yıl önce yaşadığı dünyadan kökten farklıdır. Yakın gelecekte, bir kişi mahremiyetinden büyük ölçüde mahrum kalacak ve bu nedenle hiçbir şeyi saklamaya ve dürüst davranmaya zorlanacak. Aynı zamanda, çevreleyen gerçeklikteki ve kişinin kendi kişiliğindeki hiçbir şey inançla alınamaz, her şeyin sorgulanması ve sürekli olarak yeniden kontrol edilmesi gerekecektir. Ama bu geleceğin gerçekliği korkunç mu olacak? Numara. Sadece tamamen farklı olacak.

Önerilen: