Yapay zeka güvenlik riskleri, yapay zeka teknolojisinin uygulanması ve/veya kullanılması yoluyla ortaya çıkıyor. Bunlar, tehdit aktörleri tarafından başlatılan kötü niyetli siber saldırıları ve platform ve/veya kullanıcı davranışından kaynaklanan güvenlik açıklarını içeriyor.
Open Worldwide Application Security Project (OWASP), öğrenme dili modelleri (LLM'ler) üzerine inşa edilmiş yapay zeka ile ilgili bir dizi güvenlik açığı tespit etti. Bunlar şunları içerir:
Bu güvenlik açıkları aşağıdaki temel kategorilerde daha da yoğunlaştırılabilir ve basitleştirilebilir:
Büyük ölçüde mevcut verilere ve kullanıcı girdisine bağımlı olan yapay zeka, dijital savunmaları ihlal etmek ve hassas bilgileri hortumlamak için tehdit aktörleri tarafından giderek daha fazla hedef alınıyor. Yakın zamanda yapılan bir Gartner® anketinde, 2024 yılının ilk çeyreğinde en çok atıfta bulunulan beş yeni risk ortaya çıkmıştır. Yapay zeka ile ilgili riskler, yapay zeka ile geliştirilmiş kötü niyetli saldırılar ve yapay zeka destekli yanlış bilgilendirme şeklinde ilk iki sırada yer aldı. Gartner'ın belirttiği gibi, yapay zekanın geliştirilmesi “kimlik avı ve sosyal mühendisliği kolaylaştırabilir, bu da daha iyi izinsiz giriş, artan güvenilirlik ve daha zarar verici saldırılara neden oluyor.”
Sahte yapay zeka, yapay zekanın kullanıcının hedefiyle uyumlu olmamasıdır. Bu yanlış yönlendirme, uygun korkulukların olmaması gibi kazara olabilir. Kasıtlı da olabilir, bu durumda tehdit aktörleri bir hedefin yapay zeka sistemini veya kullanımını yıkmaya çalışabilir veya bir ortama kötü niyetli olarak hizalanmış yapay zeka modelleri kurmaya çalışabilirler.
Dolandırıcılık otomasyonu; kimlik avı, iş e- posta gizliliğinin bozulması (BEC) veya deepfake video veya ses yoluyla iş süreçlerini istismar eden metin, ses ve/veya videodan oluşan sentetik içerik oluşturulmasıdır. Dolandırıcılık otomasyonu yapay zeka ile kolayca ölçeklendirilebilir.
Yapay zeka sistemleri veriye bağımlıdır. Bu nedenle, yapay zeka sistemlerinde kullanılan veriler -ve dokundukları canlı veriler- tüm gizlilik ve adil kullanım düzenlemelerine uygun olmalıdır, dolayısıyla riski en aza indirmeye yardımcı olan proaktif ve etkili veri yönetimine ihtiyaç vardır.
LLM'lerle ilgili en kritik güvenlik açıkları OWASP Top 10 tarafından şu şekilde listelenmiştir:
Ayrıca, bu güvenlik açıklarının her biri için özetler OWASP web sitesinde bulunabilir.
Üretken Yapay Zeka (GenAI), kullanıcılara yardımcı olmak için mevcut geçmiş ve güncel verileri kullanır. Bu nedenle, komut istemi gerektiren araçlar için, komut istemi alanına ne koyduğunuz konusunda dikkatli ve proaktif olmak en iyisidir. ChatGPT'nin sohbet geçmişini kapatma seçeneği gibi bazı araçlar kullanıcıların veri toplamayı devre dışı bırakmasına izin verir. Söz konusu sektör düzenleyicisi tarafından uygulanan yapay zeka yönetişim ve kullanım politikalarına bağlı olarak, önleyici tedbirler ve/veya bunun gibi davranışlar uyumluluğun sürdürülmesi için bir gereklilik olabilir.
Finansal bilgiler, henüz yayınlanmamış yazılımlara ilişkin gizli bilgiler, kişisel adresler ve iletişim bilgileri gibi kişisel tanımlayıcı bilgiler (PII) ve/veya diğer hassas verilerin eklenmesi, bu bilgilerin yapay zeka uygulaması tarafından serbestçe erişilebilir olduğu anlamına gelir. Bu veriler manipüle edilme, benzer sorgulara yanıt olarak araçtan gelen önerilerde başkalarıyla paylaşılma ve/veya yapay zekanın koruma önlemleri ihlal edilirse tehdit aktörleri tarafından çalınma riski altındadır. Bu durum, özellikle fikir üretmeye yardımcı olmak veya büyük miktarda veriyi hızlı bir şekilde derlemek için üretken yapay zeka araçları kullanıldığında, özellikle de yetersiz şifreleme ve güvenlik önlemleri mevcut değilse bir risktir.
Kullanıcı istemlerine metin tabanlı yanıtlar veren bir tür üretici yapay zeka olan ChatGPT, kimlik avı girişimlerini gizlemeye ve/veya güçlendirmeye yardımcı olmak için tehdit aktörleri tarafından manipüle edilebilir. Alternatif olarak, platformun kendisi kullanıcı verilerine erişmek ve potansiyel olarak kötüye kullanmak için hedef alınabilir. Bu, hedeflenen kurum veya kişinin yazı örneklerinden yararlanarak kimlik avı e-postaları hazırlamanın yanı sıra daha ikna edici görünmek için yazım hatalarını, dilbilgisini ve dili düzeltmeyi de içerebilir. Ayrıca, hızlı enjeksiyon veya jailbreak yoluyla kullanıcı verilerinin çalınması ve/veya ihlal edilmesi riski de vardır.
Doğrudan tehdit aktörlerini içermeyen kullanımdan kaynaklanan güvenlik riskleri de vardır. Örneğin, ChatGTP'nin sizden aldığı bilgilerden LLM'leri eğitmek için yararlanılabilir. ChatGPT MacOS uygulamasının başlangıçta düz metin olarak saklanan kullanıcı sohbetleriyle başlatılmasının gösterdiği gibi, yetersiz veri şifreleme riski de vardır.
OpenAI API'nin kendisi siber suçlular tarafından hedef alınma potansiyeline sahiptir. SOC 2 uyumlu olmasına ve düzenli sızma testlerinden geçmesine rağmen, siber tehditler sürekli geliştiği için riskiniz asla tamamen ortadan kalkmaz. Yakın tarihli bir Soft Kraft makalesi, OpenAI veri güvenliği risklerini kapsamlı bir şekilde inceliyor ve kurumsal kullanıcıları özellikle ilgilendiren beş tanesini ortaya koyuyor:
Microsoft 365 uygulamalarını destekleyen Microsoft Copilot Yapay Zeka, kullanıcılar tarafından kolayca kullanılabilir. Ayrıca, donanım düzeyinde, en yeni Copilot+ markalı bilgisayarlar, daha da hızlı kullanıcı girişini teşvik etmek için özel fiziksel Copilot tuşlarıyla birlikte gönderilir. Bu kolaylaştırılmış erişim önlemleri, tıpkı diğer üretici yapay zeka araçlarında olduğu gibi, hassas bilgilerin Copilot'un kullanımına sunulması durumunda güvenlik riskleri doğurabilir. İzinlerin doğru şekilde ayarlanmaması veya yapay zeka tarafından oluşturulan belgelerde uygun gizlilik ayarlarının etkinleştirilmemesi durumunda, kendinizi gizli veri sızıntıları ve/veya ihlalleri ile karşı karşıya bulabilirsiniz. Aynı durum kullanıcı erişim yönetimi için de geçerlidir. Son olarak, platformun kendisine yönelik saldırılar, tehdit aktörlerinin verilerinize nasıl eriştiğini ve paylaştığını değiştirmesini sağlayabilir.
İlgili Araştırmalar
İlgili Makaleler