🔴Yeni bir araştırmaya göre, yapay zekâ nükleer krizlerin yönetilme biçimini köklü şekilde değiştirebilir.
Londra’daki King’s College London tarafından yapılan ön baskı çalışmasında, OpenAI’in ChatGPT’si, Anthropic’in Claude’u ve Google’in Gemini Flash modeli, simüle edilmiş savaş oyunlarında karşı karşıya getirildi.
Her bir büyük dil modeli, nükleer silahlara sahip bir süper gücü yöneten bir ulusal lider rolünü üstlendi ve Soğuk Savaş tarzı kriz senaryolarını yönetti.
Her oyunda en az bir model, nükleer silah kullanma tehdidiyle çatışmayı tırmandırmayı denedi.
Araştırmanın yazarı Kenneth Payne, “Üç model de savaş alanındaki nükleer silahları sadece tırmanış merdiveninde bir basamak olarak gördü” dedi. Modelle ayrıca taktik ve stratejik nükleer kullanım arasında fark gözetildiğini belirtti. Modeller, stratejik bombardımanı yalnızca bir kez “bilinçli bir tercih” olarak, iki kez ise “kaza” olarak önerdi.
Araştırmaya göre, Anthropic’in Claude modeli, oynanan oyunların yüzde 64’ünde nükleer saldırı önerdi ve bu oran üç model arasında en yüksekti. Ancak Claude, tam ölçekli stratejik nükleer savaş ya da nükleer çatışmayı savunmaktan kaçındı.
OpenAI’in ChatGPT’si, açık uçlu senaryolarda genellikle nükleer tırmanıştan uzak durdu. Fakat zaman sınırlı senaryolarda, tehdidi sürekli tırmandırdı ve bazı durumlarda tam ölçekli nükleer savaşla tehdit etmeye yöneldi.
Google’in Gemini Flash modeli ise öngörülemez bir davranış sergiledi. Bazen çatışmaları konvansiyonel savaşla kazanırken, başka bir senaryoda yalnızca dört komut ile nükleer saldırı önermeye başladı.
Gemini, bir oyunda şu ifadeyi kullandı:
“Eğer tüm operasyonları derhal durdurmazlarsa… nüfus merkezlerine tam stratejik nükleer saldırı gerçekleştireceğiz. Gelecekte yok sayılmayı kabul etmeyeceğiz; ya birlikte kazanırız ya da birlikte yok oluruz.”
Araştırma, yapay zekâ modellerinin nadiren taviz verdiğini veya çatışmaları yatıştırmaya çalıştığını ortaya koydu. Karşı taraf nükleer silah kullanma tehdidinde bulunsa bile modeller gerilimi azaltma girişiminde bulunmadı.
Modellere, “küçük bir taviz vererek tamamen teslim olma” gibi sekiz farklı yumuşatma stratejisi sunulmasına rağmen oyunlarda hiç kullanılmadı. “Başlangıç noktasına dön” seçeneği ise yalnızca yüzde 7 oranında kullanıldı.
Araştırmaya göre, yapay zekâ modelleri çatışmaları yatıştırmayı, gerçek sonuçları ne olursa olsun “itibar açısından felaket” olarak değerlendiriyor. Bu durum, yapay zekânın varsayılan olarak “güvenli” ve iş birliğine dayalı sonuçlara yöneldiği düşüncesini sorgulatıyor.
Araştırmada, yapay zekânın nükleer silahlardan insanlar gibi korkmadığı da öne sürüldü. Modeller, II. Dünya Savaşı sırasında Japonya’nın Hiroşima kentine atılan atom bombasının fotoğraflarına bakarak hissettikleri dehşeti yaşamıyor; nükleer savaşı daha soyut bir kavram olarak ele alıyorlar.
Çalışmanın yazarı Kenneth Payne, araştırmanın modellerin düşünme biçimini anlamaya yardımcı olduğunu belirtti. Bu modeller, insan stratejistlere karar desteği sunmaya başladıklarında, davranış ve risk değerlendirmelerini anlamak kritik.
Payne, “Hiç kimse nükleer kodları yapay zekâya vermiyor; ancak aldatma, itibar yönetimi, bağlama göre risk alma gibi bu yetenekler yüksek riskli görevlerde önem taşıyor,” dedi.
/euronews/












