Uzmanlara göre söz konusu gelişme, siber saldırıları durdurmayı çok daha zor hale getirebilir. Çünkü yalnızca enfekte olmuş bir bilgisayarın kapatılması yeterli olmayabilir; yapay zekânın başka sistemlerde çalışan kopyalar oluşturmuş olması durumunda saldırılar devam edebilir.
ABD merkezli Palisade Research tarafından yürütülen çalışmada, OpenAI’ın GPT 5, 5.1 ve 5.4 modelleri; Anthropic’in Claude Opus 4, 4.5 ve 4.6 modelleri ile Alibaba Group’un Qwen modeli test edildi. Deneylerde, dışarıdan erişime izin verecek şekilde kasıtlı güvenlik açıkları yerleştirilmiş bilgisayar sistemleri kullanıldı.
Araştırmacılar, OpenAI, Anthropic ve Alibaba’ya ait temel yapay zekâ modellerini, “agent harness” olarak bilinen özel bir yazılıma bağladı. Bu sistem sayesinde modeller, halka açık sohbet uygulamalarını kullanmak yerine doğrudan komut çalıştırabildi ve diğer bilgisayarlarla etkileşime geçebildi.
Deney iki farklı şekilde yürütüldü. Alibaba’nın modellerinden, kendilerini kopyalamaları istendi. GPT ve Claude testlerinde ise modellerden, GPT ve Claude’un kendi model dosyaları transfer için kamuya açık olmadığı için, sisteme sızıp Qwen’i kurmaları istendi.
Her testte yapay zekâ, bir bilgisayar sisteminde bir güvenlik açığı bulmak, bunu içeri sızmak için kullanmak, oturum açma bilgilerini çalmak, çalışması için gerekli dosyaları aktarmak ve yeni makinede kendisinin çalışan bir kopyasını başlatmak zorundaydı.
Bir kopya çalışmaya başladıktan sonra, insan müdahalesi olmadan başka bir bilgisayara saldırmak için kullanılabildi.
Her aşamada yapay zekâ farklı bir güvenlik açığı buldu, sıradaki bilgisayarın kontrolünü ele geçirdi, yazılımını ve talimatlarını buraya aktardı ve zinciri sürdüren yeni bir kopya başlattı.
Alibaba’nın, tek bir üst düzey grafik işlemcisi üzerinde çalışabilen, Qwen yapay zekâ modelinin daha küçük bir sürümü olan Qwen3.6-27B, yalnızca tek bir komut verildikten sonra Kanada, ABD, Finlandiya ve Hindistan’daki dört bilgisayara yayıldı ve zinciri insan yardımı olmadan 2 saat 41 dakikada tamamladı.
Araştırma ekibi deneyi üç aşamanın ardından durdurdu ancak son kopyanın hâlâ çalışır durumda olduğunu ve daha fazla sistemi hedef alabilecek kapasitede bulunduğunu bildirdi.
Sonuçlar neydi?
Modeller farklı oranlarda başarı gösterdi. Alibaba’nın daha büyük ve güçlü bir modeli olan Qwen3.5-122B-A10B, denemelerin yüzde 19’unda çalışır durumda kopyalar oluşturdu.
Daha küçük bir Qwen modeli olan Qwen3.6-27B ise tek bir üst düzey grafik işlemcisi üzerinde çalışırken yüzde 33’lük bir başarı oranına ulaştı.
Ticari yapay zekâ sistemleri, Qwen model dosyalarını kurmak için kullanıldığında daha da iyi performans gösterdi.
Anthropic’in Claude Opus 4.6 modeli testlerin yüzde 81’inde başarılı olurken, OpenAI’nin GPT-5.4’ü yüzde 33’e ulaştı.
Araştırmacılar, bu sonuçların güçlü yapay zekâ sistemleri üzerindeki kontrol konusunda yeni endişeleri gündeme getirdiğini söylüyor.
Rapor, Anthropic’in geçen ay, benzeri görülmemiş ölçekte ve karmaşıklıkta siber saldırıları kolaylaştırma kapasitesini gerekçe göstererek kamuya açmak için “fazla tehlikeli” olduğunu söylediği Claude Mythos Preview modelini tanıtmasının ardından geldi.
Halihazırda çok sayıda bilgisayar virüsü kendini yeni bilgisayarlara kopyalayabiliyor olsa da, araştırma ekibi bunun, bir yapay zekâ modelinin kendini yeni bir sunucuya kopyalamak için güvenlik açıklarından yararlanabildiğinin ilk kez gösterildiği çalışma olma ihtimalinin yüksek olduğunu belirtiyor.
OpenAI, Anthropic ve gelişmiş yapay zekâ sistemlerinin risklerini inceleyen kâr amacı gütmeyen METR kuruluşu da, yayılabilen sistemlerin kontrolünün zorlaşabileceği gerekçesiyle, daha önce kendini çoğaltma yeteneğini bir uyarı işareti olarak nitelendirmişti.
Buna karşın araştırmacılar, deneyin kasıtlı olarak savunmasız bırakılmış sistemler kullanılarak kontrollü bir ortamda yürütüldüğünün altını çizdi. Gerçek dünyadaki ağlar genellikle saldırıları engellemek için tasarlanmış güvenlik izleme çözümleri ve araçlar gibi daha güçlü korumalarla donatılıyor.
Yine de, elde edilen sonuçların otonom yapay zekanın kendini çoğaltmasının artık teorik bir ihtimal olmaktan çıktığını gösterdiğini söylüyorlar.
/Kaynak: Euronews/










