Yapay zekâ ve sіber güvenlіk Yapay zekâ ve sіber güvenlіk

Yapay zekâ ve sіber güvenlіk

Yapay zekâ ve sіber güvenlіk

06/12/2023 15:52

TÜBİTAK Bilişim ve Bilgi Güvenliği İleri Teknolojiler Araştırma Merkezi-BİLGEM Başkanı Dr. Ali Görçin Sanayi ve Teknoloji Bakanlığı’nın aylık yayın organı Anahtar Dergisi için kaleme aldı: “Yapay zekâ ve siber güvenlik”
BU HABERİ
PAYLAŞ

Günümüzde yapay zekâ, neredeyse her teknolojik alanda kendisine yer bulmaya başlamıştır. Gelişen teknolojiyle birlikte internete bağlı kişi ve cihaz sayısının, buna bağlı olarak da üretilen verinin artmasıyla, ilgili veri sadece insan marifetiyle işlenemez ve anlamlandırılamaz hale gelmiştir. Bu nedenle çok çeşitli alanlarda yapay zekâ kullanımı yaygınlaşmıştır. Benzer şekilde teknolojinin gelişmesi, siber tehditler ve risklerin de artmasına neden olmuştur. Yapay zekâ, siber güvenliği sağlama yolunda önemli bir araç olarak ortaya çıkarken aynı zamanda siber saldırganların imkanlarını da artırmaktadır. Bu nedenle yapay zekâ ve siber güvenlik, iç içe geçmiş ve birlikte değerlendirilmesi gereken iki kritik alan olarak öne çıkmıştır.

Yapay Zekâ Tabanlı Güvenlik Riskleri

2023 yılının ilk yarısında ülkemizde yaklaşık 684.000 kötü amaçlı yazılım saldırısı tespit edilmiştir (URL 1, 2023). Sadece kayıt altına alınan bu saldırılara göre dahi, her dakikada en az bir siber saldırı meydana gelmektedir. Saldırıların sayısının bu denli artmasının yanında saldırı teknikleri de hızla gelişmektedir. Yapay zekâ tekniklerinin siber saldırganlar tarafından kullanılmaya başlanmasıyla birlikte, daha akıllı ve öğrenen zararlı yazılımların kullanımı artmıştır.

İletişimin araç ve uygulamalarının artması sayesinde insanlar arası etkileşim de aynı şekilde artmaktadır. Günlük hayatın bir parçası olarak hepimiz, bu uygulamalar üzerinden iş hayatı veya sosyal yaşamımızla ilgili çeşitli etkileşimlerde bulunuruz. Bu etkileşimler hayatımızı kolaylaştırırken aynı zamanda arkamızda birçok iz bırakmamıza neden olur. Örneğin sizinle aynı yerde işe başlayan ve bunu bir sosyal iş ağı uygulamasında paylaşan bir arkadaşınıza yazacağınız bir mesaj dahi, sizinle ilgili önemli bilgilerin elde edilmesi için kullanılabilir. Bu ve bunun gibi birçok paylaşımın yapay zekâ destekli yazılımlar tarafından kullanılmasıyla, sizin ilginizi çekebilecek, bir tanıdığınızdan gelmiş gibi görünen, çok gerçekçi bir oltalama veya kimlik avı saldırısı düzenlenebilir. Buna ilave olarak birçok zararlı yazılım, siber güvenlik yazılımlarından kaçabilmek için de yapay zekâdan faydalanabilir. Normal şartlarda antivirüs yazılımları tarafından tespit edilebilen bir zararlı yazılım, zaman içinde mevcut savunma yazılımlarının aksiyonlarını öğrenerek kendini kamufle edebilir ve zararsız bir yazılım olarak görülebilir. Bu gibi durumların önüne geçebilmek adına, imza tabanlı tespit sistemleri yerine, yine yapay zekâ destekli, davranış tabanlı ve öğrenebilen anomali tespit sistemleri ile zararlı yazılım analiz araçları tercih edilmelidir. Aksi taktirde kritik sistemler, ilgili saldırılara karşı savunmasız kalabilecektir.

Yapay zekâ tekniklerinin gelişmesiyle beraber; metin, yazılım, görsel gibi çeşitli içerikler üretmek için kullanılan üretken yapay zekâ uygulamaları da çeşitli alanlarda yaygınlaşmaya başlamıştır. Çok büyük miktarda verinin öğrenme sürecinde kullanıldığı bu uygulamaların büyük dil modelleriyle birlikte kullanılması sayesinde, herhangi bir teknik bilgisi olmayan bir kişi dahi farklı alanlarda çıktılar üretebilir hale gelmektedir. Belirli bir konuda destek almak için faydalanabileceğimiz bu araçlar, kötü niyetli kişiler tarafından siber saldırılar için de kullanılabilir. 2023 yılı başında Blackberry firması tarafından 1500 siber güvenlik uzmanı arasında yapılan bir ankete göre, katılımcıların %51’i üretken yapay zekâ uygulamalarının önümüzdeki 12 ay içinde bir siber saldırıdan sorumlu olacağını tahmin etmiştir (URL 2, 2023). Bu uygulamaları kullanan bir kişi, sahte metin içeriği oluşturarak; oltalama saldırısı, sosyal mühendislik ve hatta basit fidye saldırıları gibi siber saldırıları tatbik edebilir. Ayrıca, bu uygulamaları kullanarak üretilen sahte içerikler, geniş kitlelere dönük manipülasyon faaliyetleri için de kullanılabilir. Gerçeğinden güçlükle ayırt edilebilen, sahte haber içerikleri üretilmesi ve bunun hedeflenen kitleler arasında yayılması da güncel tehditlerden biridir. Bu tür saldırıların önüne geçebilmek için mevcut izleme ve kontrol sistemlerinin kapasiteleri artırılmalı, kritik içerikler mutlaka kontrole edilmelidir.

Üretken yapay zekâ uygulamaları ile ilgili önemli bir güvenlik riski de, kritik bilgilerin ifşa edilmesidir. Bu uygulamalar, çok ciddi boyutta verinin öğrenme sürecinde kullanılması sonucu ortaya çıkmıştır. Her ne kadar kullanılan veri açık olsa da, birçok yerden alınan verinin birleştirilmesi sonucu istenmeyen bazı örüntüler açığa çıkabilir veya bu uygulamaları kullanan kişilerin bağlı olduğu kurumlarla ilgili istenmeyen bilgilerin paylaşılması durumu ortaya çıkabilir (URL 3, 2023). Ayrıca, öğrenme sürecinde kullanılan devasa boyutta içerikte bulunabilecek, ön yargı veya ayrımcılık içeren veriler, modelin çıktılarına da yansıyabilecektir. Mevcut üretken yapay zekâ uygulamalarının bu tür istenmeyen veya olmayan durumlarla ilgili çıktı ürettiği çeşitli vakalar yaşanmıştır (Alkaissi ve McFarlane, 2023). Kullanılan öğrenme verisinin telif haklarının ihlali de olası bir güvenlik riski olarak karşımıza çıkmaktadır. Bu tür durumları engellemak adına kişisel ve kurumsal seviyede bu uygulamaların kullanımı mutlaka kontrollü olmalı ve belirli politikalarla çerçevesi belirlenmelidir.

Yapay zekâ, yazılım geliştirme süreçleri kapsamında da yaygın olarak kullanılmaktadır. Her ne kadar, üretken yapay zekâ araçlarının özellikle tekrarlayan kod parçalarının geliştirilmesinde kullanımı yazılım geliştirme sürecini hızlandırsa da, kaynak kod güvenliğindeki olası açıklar da önemli bir risk olarak karşımıza çıkmaktadır. İlgili araçlar tarafından önerilen kodlar, internet kullanıcıları tarafından paylaşılan kod parçaları kullanılarak elde edilmiş olup çeşitli güvenlik açıklıkları barındırabilmektedir. Bunun yanında, kişilerin üretken yapay zekâ araçları ile paylaştığı kodlar da kişisel veya kurumsal gizliliği tehlikeye sokabilir. Hem kurumun kritik kodlarının paylaşılması hem de kurumun faaliyet alanları ile ilgili anlamlı bilginin açığa çıkması gibi istenmeyen sonuçlar ortaya çıkabilir. Bu risklerin önüne geçebilmek için, ilgili araçlar tarafından üretilen kaynak kodlar kullanılmadan önce mutlaka kaynak kod analizine tabi tutulmalı ve araçların kullanımı da kurumsal politikalarla denetlenmelidir.

Yapay Zekânın Siber Güvenlik Alanında Kullanımı

Kişisel veya kurumsal siber güvenliği sağlamak için alınabilecek küçük önlemler, etkisi çok ciddi olabilecek siber saldırıların önemli oranda engellenmesini sağlar. Son dönemde bu önlemlerin alınması konusunda yapay zekâdan da önemli ölçüde faydalanılmaktadır. Zararlı yazılımların üretilmesinde yapay zekâdan faydalanıldığı gibi tespiti için de yapay zekâ kullanılmaktadır. Halihazırda bilinen zararlı yazılımların imza tabanlı olarak tespit edilmesinden farklı olarak, henüz bilinmeyen zararlı yazılımların da yapay zekâ destekli olarak, davranış tabanlı analiz edilmesi mümkün olmaktadır. Bu sayede, belirli bir yazılımın çeşitli etkileşimleri analiz edilerek zararlı bir yazılım olduğu anlaşılabilir. Benzer şekilde, kullanıcıların sistem üzerindeki davranışları yapay zekâ destekli olarak analiz edilerek siber saldırganlar veya saldırı stratejileri ortaya çıkarılabilir. Belirli bir siber olay, saldırı öncesi veriler ve bu verilerdeki değişim analiz edilerek saldırı öncesinde tespit edilebilir, engellenebilir. Ağ trafiğindeki anomalilerin belirlenmesi için de veri madenciliği ve büyük veri teknikleri kullanılabilir. Çok miktarda ve analiz etmesi zor olan ağ verisi üzerinde normal durum ve anormal durum çıkarımı yapılarak yoğun trafik içerisindeki zararlı hareketler tespit edilebilir.

Siber güvenlik ürünlerinin geliştirilme sürecinde de yapay zekâ kullanımı artmaktadır. Veri kaçağı önleme sistemleri tarafından bilgi kaçaklarının belirlenmesi, güvenlik duvarları tarafından trafiğin kontrolü, saldırı tespit sistemleri tarafından oltalama e-postalarının tespiti, biyometrik tabanlı kimlik doğrulama sistemleri veya adli analiz araçlarında kalıntılardan bilgi çıkarımı gibi çeşitli alanlarda yapay zekâdan faydalanılmaktadır. Saldırı izleme sistemleri tarafından siber saldırıların tespiti için büyük veri analizi ve engellenmesi için de yapay zekâ çözümleri yaygın şekilde kullanılmaktadır. Makine öğrenmesi, veri madenciliği, büyük veri analizi, doğal dil işleme ve bilgisayarlı görü gibi yapay zekâ yöntemlerinden faydalanılarak siber güvenlik ürünlerinin yetkinlikleri önemli ölçüde artırılabilmektedir.

Siber güvenlik ekipleri arasında kritik bir yeri olan sızma testi ekipleri de yapay zekâdan etkin şekilde faydalanmaktadır. Sızma testinin kapsamının belirlenmesinden, tespit edilen açıklıkların referanslarının belirlenmesine kadar çeşitli aşamalarda yapay zekâ kullanılmaktadır. Sızma testi yapılan sistemdeki zafiyetlerin tespit edilmesi, skorlanması, sosyal mühendislik saldırılarının hazırlanması ve saldırı senaryolarının belirlenmesi de örnek kullanımlar arasındadır. Kritik bir faaliyet olan sızma testinde destekleyici bir unsur olarak yapay zekâ kullanımı, süreçleri önemli ölçüde hızlandırmaktadır.

Yapay Zekâ Güvenliği

Yapay zekânın saldırı ve savunma amaçlı kullanımı dışında, yapay zekânın güvenliğinin sağlanması da kritik bir konudur. Yapay zekânın çeşitli alanlarda kullanılmasıyla birlikte yapay zekâ modellerinin de güvenliği kritik hale gelmiştir. Modelin kullandığı veri, ortam veya çalışma şekline karşı çeşitli saldırılar yapılabilir (URL 4, 2019). Yapay zekâ modellerine yapılan saldırılarının ilki modelin kopyalanmasıdır (Çıkarma). Kritik sistemler dahil birçok sistemde kullanılan bazı modellerin çalışma şekli, saldırganlar tarafından öğrenilebilir ve kopyalanabilir. Modelde kullanılan yöntemler ve model parametrelerinin açığa çıkması, sistemin belirli durumlar altındaki davranışı hakkında istenmeyen bilgilerin açığa çıkmasına neden olabilir. Modelin elde edilmesine ek olarak, modelden çıkarım yapılması da risklerden biridir. Modelin davranışı analiz edilerek modelin öğrenme aşamasında kullandığı veri seti hakkında bilgi edinilebilir veya davranışı değiştirilebilir (Çıkarım). Örnek olarak üretken yapay zekâ dil modellerinden birine komut enjekte edilmesi ve ilgili aracın davranışının beklenmeyen şekilde değiştirildiği birçok vaka bulunmaktadır (Gupta ve diğ., 2023). Üretken yapay zekâ aracına, aracı yanlış yönlendirecek bazı komutları da içerecek şekilde sorular sorulduğunda yanıltıcı yanıtlar verilmesi sağlanır. Buna ek olarak model siber saldırganlar tarafından zehirlenebilir ve modelin öğrenme aşamasında kullandığı veri kümesi değiştirilebilir, modelin davranışı değiştirilebilir (Zehirleme). Son olarak, modelin çalıştığı dijital veya fiziksel ortama çeşitli türde gürültüler eklenerek model çıktısının değişmesi de sağlanabilir (Kaçınma).

Yapay zekâ modellerine yapılan saldırıları önlemek için alınabilecek çeşitli önlemler mevcuttur. Öncelikle, model tarafından kullanılacak veriler uygun şekilde filtrelenmeli ve verilere bütünlük kontrolleri uygulanmalıdır. Böylelikle verinin istenmeyen şekilde değiştirilmesinin önüne geçilebilir. Ayrıca, yapay zekâ modelini kullanan yazılımlara yapılacak kaynak kod analizi veya sistemlere yapılacak sızma testleri, yapay zekâ modelinin güvenliğine önemli katkılar sağlayacaktır. Modele yapılacak siber saldırılar modelin davranışını belirli bir hedefe doğru yönlendireceği için model üzerinde de bazı ilave kontroller yapılabilir. Modelin normalizasyonunu sağlamak ve istenmeyen uçlara yönelmesini engellemek için modelin budanması ve bir yerine birkaç yapay zekâ modelinin birlikte kullanılarak kararın ortak verilmesi de diğer önlemler arasında yer almaktadır.

Sonuç

Önümüzdeki yıllarda yapay zekâ ve veri analitiği yöntemlerinin siber güvenlik alanında kullanımının artarak devam edeceği tahmin edilmektedir. Saldırı yöntemlerinin daha karmaşık hale gelmesi yanında bu saldırıların tespit ve analizinde de yetkinlikler artacaktır. Mevcut veri miktarının ve veri işleme teknolojilerinin gelişmesiyle siber saldırıların örüntülerinin ve belirlenmesi ve anomalilerin ortaya çıkarılması daha kolay olacaktır.

Yapay zekâ tabanlı saldırılara karşı, ilgili sistemlerin davranışını izlemek ve denetlemek için teknik altyapı güçlendirilmeli ve teknik önlemler alınmalıdır. Bu sayede istenmeyen verilerin kullanımı ve istenmeyen davranışların önüne geçilebilir. Sahte içeriklerin ve davranışların ortaya çıkmaması için de yine yapay zekâ tabanlı güvenlik araçlarından faydalanılmalıdır. Çok karmaşık saldırıların tespitinde yapay zekâ ile insan zekâsı birlikte kullanılmalıdır. Politika olarak da yasal düzenlemeler ve etik kuralları belirlenmeli, ülkeler arasında işbirlikleri yapılmalıdır. Eğitim ve farkındalık kampanyaları yoluyla kişilerin ve kurumların da kendi önlemlerini almaları sağlanmalıdır.

Yapay zekâ ve siber güvenlik alanındaki teknolojik gelişmeler ülkemizde çok kısa sürede benimsense de, ilgili çözümlerin sadece tüketicisi değil geliştiricisi de olmamız gerektiği görülmüştür. İlgili çözümlerin milli olarak da geliştirilmesi, özellikle kritik alanlarda dışa bağımlılığı ortadan kaldırma ve güvenliği sağlama açısından kritiktir. Ayrıca, öğrenme aşamasında kendi dilimizi, verimizi ve kültürümüzü kullanan yapay zekâ dil modellerinin geliştirilmesi sayesinde özellikle gelecek nesillerin yabancı ürünler tarafından yönlendirilmesinin önüne geçilebilecektir. Benzer şekilde kritik bir alan olan siber güvenlik konusunda da mutlaka yerli ve milli çözümler teşvik ve tercih edilmelidir.