Büyük dil modelleri (LLM’ler), dünyanın dört bir yanındaki yönetim kurulu odalarının yapay zekâ konuşmalarıyla çalkalanmasının nedeni olabilir ancak teknoloji yıllardır başka şekillerde iyi bir biçimde kullanılıyor.
ESET, yapay zekâyı ilk olarak çeyrek asır önce makro virüslerin tespitini iyileştirmek amacıyla kullanmaya başladı. Günümüzde güvenlik ekipleri, üç ana etken sayesinde etkili yapay zekâ tabanlı araçlara her zamankinden daha fazla ihtiyaç duyuyor:
1) Beceri eksikliği sert bir şekilde vurmaya devam ediyor
Son sayıma göre, Avrupa’da 348.000 ve Kuzey Amerika’da 522.000 olmak üzere dünya genelinde yaklaşık dört milyon siber güvenlik uzmanı açığı bulunuyor. Yapay zekâ 7 gün 24 saat çalışabilir ve güvenlik uzmanlarının gözden kaçırabileceği kalıpları tespit edebilir.
2) Tehdit aktörleri çevik, kararlı ve iyi kaynaklara sahip
Siber güvenlik ekipleri eleman bulmakta zorlanırken rakipleri de güçlenmeye devam ediyor. Bir tahmine göre, siber suç ekonomisi 2025 yılına kadar dünyaya yıllık 10,5 trilyon dolara mal olabilir. Tehdit aktörleri, saldırı başlatmak için ihtiyaç duydukları her şeyi hazır “hizmet olarak” teklifler ve araç setleri halinde bulabilirler.
3) Riskler hiç bu kadar yüksek olmamıştı
Dijital yatırımlar yıllar içinde arttıkça sürdürülebilir büyümeyi ve rekabet avantajını desteklemek için BT sistemlerine olan güven de artmıştır. Ağ savunucuları, siber tehditleri önleyemez ya da hızla tespit edip kontrol altına alamazlarsa kurumlarının büyük mali ve itibar kaybına uğrayabileceğini biliyor. Günümüzde bir veri ihlalinin maliyeti ortalama 4,45 milyon dolar. Ancak hizmet kesintisi ve veri hırsızlığı içeren ciddi bir fidye yazılımı ihlali bunun çok daha fazlasına mal olabilir. Bir tahmine göre sadece finans kurumları 2018’den bu yana hizmet kesintisi nedeniyle 32 milyar dolar kaybetti.
Yapay zekâ güvenlik ekipleri tarafından gelecekte nasıl kullanılabilir?
Yapay zekâ siber saldırılarda nasıl kullanılıyor?
Yapay zekânın sınırları
İyi ya da kötü, yapay zekanın şu anda sınırlamaları var. Yüksek yanlış pozitif oranları verebilir ve yüksek kaliteli eğitim setleri olmadan etkisi sınırlı olabilir. Çıktıların doğruluğunu kontrol etmek ve modellerin kendilerini eğitmek için genellikle insan gözetimi de gerekli. Tüm bunlar, AI’ın ne saldırganlar ne de savunmacılar için sihirli bir değnek olmadığı gerçeğine işaret ediyor.
Kaynak: (BYZHA) Beyaz Haber Ajansı
Veri politikasındaki amaçlarla sınırlı ve mevzuata uygun şekilde çerez konumlandırmaktayız. Detaylar için veri politikamızı inceleyebilirsiniz.