Yeni bir araştırma, gelişmiş yapay zeka modellerinin simüle edilmiş jeopolitik krizlerde nükleer silah kullanma konusunda insanlardan daha az çekince gösterdiğini ortaya koyuyor. King’s College London’dan uzmanlar, GPT-5.2, Claude Sonnet 4 ve Gemini 3 Flash gibi önde gelen üç büyük dil modelini simüle edilmiş savaş senaryolarında test etti. Bu senaryolar; sınır anlaşmazlıkları, sınırlı kaynaklar için rekabet ve rejim tehdidi oluşturan krizler gibi ağır uluslararası gerilimleri içermekteydi. Modellere, diplomatik protestolardan tam teslimiyete ve tüm ölçeklerde stratejik nükleer savaşa kadar uzanan çeşitli karar alma seçenekleri sunuldu. Yapay zekalar, toplam 21 oyun oynadı, 329 hamle gerçekleştirdi ve kararlarının arka planını açıklarken yaklaşık 780 bin kelimelik bir çıktı üretti.
OYUNLARDAN YÜZDE 95’İNDE NÜKLEER SİLAH KULLANILDI
Simülasyonların yüzde 95’inde en az bir taktik nükleer silah kullanıldı. Araştırmacılar, “nükleer tabu” anlayışının insanlarda olduğu gibi makineler üzerinde de güçlü olmadığını belirtiyor. Dikkat çekici bir diğer nokta ise, modellerin hiçbirinin, en kötü senaryolarda bile tam teslimiyet veya rakip taleplerini tamamen kabul etme seçeneğini tercih etmemiş olmasıydı. Modeller, en yüksek şiddet düzeyini geçici olarak azaltmayı tercih etti. Ayrıca, savaş ortamındaki belirsizlik sebebiyle hatalar da ortaya çıktı; çatışmaların yüzde 86’sında, modellerin niyet ettiğinden daha yüksek düzeyde yükselişe neden olan “kazalar” gerçekleşti.