Microsoft: ABD’nin rakip ülkeleri siber saldırılarda yapay zekâ kullanıyor

Microsoft; Çin, Rusya, İran, Kuzey Kore gibi ülkelerin siber saldırı gerçekleştirmek için üretken yapay zekâdan faydalandıklarını duyurdu.

  • ü
  • 15 Şubat 2024
  • ü
  • Teknoloji

Teknoloji devi Microsoft; Çin, Rusya, İran, Kuzey Kore gibi ABD’nin rakip ülkelerinin siber saldırılarda üretken yapay zekâdan yararlandıklarını duyurdu. OpenAI ile işbirliği içerisinde olası saldırıları tespit ve bertaraf ettiklerini açıklayan Microsoft, kullanılan teknikler henüz çok gelişmemiş olsa da siber saldırıları gerçekleştirmek için “geniş dil modelleri”ni (LLM) kullanan rakiplerin etkinliğini görmek için bu saldırılarla karşılaşmış olmanın önemli olduğunu belirtti.

YAPAY ZEKÂNIN SİBER SALDIRILARA ETKİSİ

Microsoft’un yayımladığı rapora göre, üretken yapay zekâ, “deep fake” ve ses klonlama tekniklerinin gelişmesine yol açarak kötü niyetli sosyal mühendislik uygulamalarını farklı bir boyuta taşıyacak.

Geçtiğimiz yıl, yapay zekânın hızlı gelişimi ve benimsenmesiyle birlikte saldırıların hızı, ölçeği ve karmaşıklığı da arttı. Savunmacılar, siber güvenlik dengesini kendi lehlerine çevirmek ve rakiplerin önüne geçmek için üretken yapay zekânın gücünü yeni yeni fark etmeye ve uygulamaya başlıyor. Microsoft bu konudaki çalışmalara ağırlık verdi ve bazı korsan gruplarını ortaya çıkardı.

KORSAN GRUPLAR

Ukrayna’daki konvansiyonel askeri operasyonlarla ilgili olabilecek çeşitli uydu ve radar teknolojilerini kullanan Fancy Bear olarak bilinen, Rus askeri istihbarat teşkilatı GRU Microsoft’un engellediği girişimlerden biri. Diğer girişimler arasında ise “önde gelen feministleri” hedefleyen İran İslam Devrimi Muhafızları Ordusu, Çinli Maverick Panda ve Aquatic Panda isimli gruplar da yer alıyor.

Microsoft herhangi bir “önemli saldırı” tespit etmemiş olsa da kullanıcılarını korumak amacıyla belirlenen bilgisayar korsanlığı gruplarıyla ilişkili tüm hesapları kapattı.

ELEŞTİRİLER

Bazı siber güvenlik uzmanları, Microsoft’u geniş dil modellerinin kullanımını daha güvenli hâle getirmek yerine sistemdeki açıklıkları ortaya çıkara araçlar yaptığı için eleştiriyor.

Bilgisayar güveniliği uzmanı Gary McGraw, tepkisini “Yol açtıkları bir problemi çözmek için savunma aygıtları satmak yerine neden daha güvenli geniş dil modelleri üretmezler ki?” sözleriyle dile getirdi.

Velev'i Google Haberler üzerinden takip edin

ÖNERİLEN İÇERİKLER

WP Twitter Auto Publish Powered By : XYZScripts.com