Haberler
Yapay Zeka Siber Tehditleri Ciddi Oranda Artıracak
Birleşik Krallık Ulusal Siber Güvenlik Merkezi (NCSC) tarafından yayınlanan rapora göre, yapay zekanın önümüzdeki iki yıl içinde siber tehditleri önemli ölçüde artıracağı öngörülüyor. Yapay zeka araçlarının kısa vadede siber güvenlik üzerinde olumsuz bir etkiye sahip olacağı ve özellikle fidye yazılım tehditlerinin artacağı yönünde uyarıda bulunuyor. Fidye yazılım saldırısı, hedef cihazdaki dosyaları ve sistemleri şifreleyerek erişimi engelleyip, kullanıcının veya şirketin tekrar erişim sağlaması için fidye talep eden saldırı tipini tanımlar.
Rapor, siber suçluların halihazırda yapay zekayı çeşitli amaçlar için kullandığını ve bunun önümüzdeki iki yıl içinde daha da kötüleşerek siber saldırıların hacminin ve ciddiyetinin artmasına sebebiyet vermesinin beklendiğini söylüyor. Yapay zekanın siber suçlular arasında kullanımının yaygınlaşması, zararlı yazılım üretiminin artmasına, hassas cihazların keşfedilmesinin kolaylaşmasına ve mevcut tekniklerin daha verimli hale gelmesine sebebiyet verecektir. Bir cihaza erişim sağlandığında, yapay zekanın gerçek zamanlı veri analizi gerçekleştirme yeteneği, şirket için değerli ve kritik verilerin tanımlanmasına olanak tanıyarak saldırının şirket üzerindeki etkisini de artıracaktır.
Raporda kötü amaçlı kullanılmak üzere Üretken Yapay Zeka (Gen AI) ve Büyük Dil Modellerinin (LLM) tehdit aktörleri tarafından sıklıkla kullanıldığı paylaşılıyor. Gen AI modellerinin etkili olabilmesi için verilerden yararlanarak eğitilmesi gerekiyor. Bu hassas veriler yalnızca belli kurumların ulaşabildiği veriler olmasına rağmen kamuya açık veriler de tehdit aktörlerinin işini çoğu zaman görüyor.
ChatGPT ve Bing Chat gibi mevcut LLM platformlarının çoğu kötü amaçlı kullanımı engelleyen güvenlik önlemlerine sahiptir. Ancak, siber suçlular, kötü amaçlı yazılım oluşturmak, koddaki güvenlik açıklarını tespit etmek ve kullanıcı erişim kontrollerini atlatmak için ChatGPT’yi manipüle edebiliyorlar. Bunun yanında hassas verilere yetkisiz erişim elde etmek için yapay zeka destekli şifre tahmin etme ve CAPTCHA kırma araçlarını da kullanıyorlar. Siber suçlular, zararlı yazılım ve oltalama saldırılarında da kullanılmak üzere özel olarak tasarlanmış yapay zeka modelleri (örn: WormGPT) dahi geliştirerek pazarlıyorlar. Bu, teknolojinin halihazırda kontrollü, güvenli çerçevelerin sınırlarından kurtulduğunu ve daha geniş suç ekosisteminde erişilebilir hale geldiğini gösteriyor.
Raporda, yapay zekanın siber risk ortamındaki rolünün, dönüştürücü olmaktan ziyade mevcut tehditleri güçlendirecek şekilde evrimsel olmasının beklendiği belirtiliyor. Siber suçlular yöntem ve araçlarını geliştirmeye devam ettikçe kuruluşların da siber güvenlik önlemlerini bu tehditlere karşı uyarlamaları gerekiyor. 2023 yılında çok sayıda büyük çaplı saldırıya tanık olundu. Günümüz tehdit ortamında şirketlerin yalnızca kendi güvenlik protokollerini değil, aynı zamanda üçüncü taraf tedarikçilerinin güvenlik uygulamalarını da incelemesi gerekiyor. Yapay zeka destekli siber saldırıların ve deepfake teknolojisinin yükselişiyle birlikte işbirlikçi, kapsamlı ve birleştirilmiş siber güvenlik çözümlerine yatırım yapmak her zamankinden daha önemli.