Yapay zekanın savaş sanatındaki yeni rolü belirleniyor!
ABD ordusu, yapay zeka teknolojilerinin askeri stratejilere olan katkısını değerlendirme yolunda önemli bir adım attı. Araştırmacılar, ticari olarak mevcut yapay zeka sohbet robotlarını kullanarak bu robotları savaş oyunu simülasyonlarında danışman olarak test ediyorlar. ABD ordusu araştırma laboratuarının gerçekleştirdiği bu çalışma, OpenAI’ın teknolojisinin savaş planlamasına katkıda bulunup bulunamayacağını araştırıyor. Ancak bu deneyler şimdilik sadece bir askeri video oyunu bağlamında gerçekleşiyor. Bu yeni yaklaşım, ABD ordusunun daha önce savaş alanı görüntülerini analiz etmek ve hava saldırıları için hedef belirleme gibi alanlarda yapay zekayı kullanma çalışmalarını genişletiyor. Şu anlık büyük dil modelleri ve üretken yapay zeka türleri gibi yeni teknolojilerin potansiyeli, askeri bilim kurgu video oyunu Starcraft II üzerinden yürütülen deneylerle inceleniyor.
Deneylerde, yapay zeka sohbet robotları, sınırlı askeri birlikler ve tam savaş alanı bilgisi içeren senaryolarda bir askeri komutanın asistanı rolünü üstleniyor. GPT-4 Turbo gibi metin bilgilerini işleyen veya GPT-4 Vision gibi görüntü bilgilerini ve metin bilgilerini aynı anda işleyebilen OpenAI’ın en gelişmiş modelleri, bu simülasyonlarda test ediliyor. Bu süreçte yapay zeka asistanlarına simüle edilmiş savaş alanı coğrafyası, müttefik ve düşman kuvvetleri hakkında detaylı bilgiler ile birlikte saldırı ve savunma stratejileri sunularak her bir yapay zeka asistanının çeşitli askeri stratejiler önermesi sağlanıyor. Ardından düşman birliklerinin tamamını imha etme ve belirlenen bir hedefi ele geçirme görevi gibi kritik görevler veriliyor. OpenAI tabanlı modeller diğerlerine göre daha iyi performans gösterse de, hiçbir model kusursuz çalışmıyor ve modeller bazen önemli stratejik hatalar yapıyor.
Yapay zeka yardımcıları, verilen göreve saniyeler içinde farklı stratejiler önererek rol gereği komutan olan kişi, son kararları vermeden önce, bu stratejileri iyileştirmesini isteyebiliyor. Böylelikle, yapay zekanın ürettiği stratejiler anında uygulanmayarak ve bir kontrol denetim mekanizmasından geçerek, stratejilerin uygulanabilirliği artmış oluyor. Bazı senaryolar için yapay zeka müttefik birliklerin belirli bir köprüyü ele geçirmelerini sağlamak gibi önerilerde bulundu. Bu çalışmalar ve denemeler, yapay zekanın askeri planlama ve strateji geliştirme aşamalarında nasıl bir rol oynayabileceğine dair değerli iç görüler sunuyor.
OpenAI’ın GPT modellerini temel alan yapay zeka yardımcıları, diğer iki yapay zeka yardımcılarına göre daha üstün performans sergilediler. Bununla birlikte, onlar da kusursuz değillerdi ve belirlenen görevleri yerine getirirken, diğer yapay zeka yardımcılarına kıyasla daha fazla kayıp yaşadılar. 2024 Ocak ayında OpenAI, siber güvenlik girişimleri çerçevesinde belirli askeri uygulamalara izin verecek şekilde kullanım politikalarını revize etti. Ancak şirket, silah geliştirme ve insan yaralanması veya mülk zararına yol açabilecek uygulamalara hala izin vermiyor. ABD ordusu araştırma laboratuvarı ise çalışma hakkındaki yorum taleplerini geri çevirdi.
Washington DC merkezli düşünce kuruluşu Yeni Amerikan Güvenliği Merkezi’nden Josh Wallin, yapay zeka danışmanlarının basit bir savaş oyunu simülasyonunda önerilerde bulunmasının bir dereceye kadar anlaşılabilir olduğunu belirtiyor. Ancak, gerçek dünya karmaşıklığındaki çatışmalarda, tavsiye vermeleri çok daha zor bir mesele. Wallin, “Bir yapay zekanın size ‘işte büyük stratejik planınız’ demesi, hem teknik hem de etik ve yasal açıdan şu anda mümkün değil.” ifadelerine ek olarak bu tür bir uygulamanın gerçekleştirilmesinin, mevcut teknoloji ve etik standartlarla uyumlu olmadığını söylüyor.
ABD Savunma Bakanlığı’nın yapay zeka görev gücü, Palantir ve Scale AI gibi önde gelen teknoloji firmalarıyla birlikte oluşturdukları üretken yapay zeka ile 180 potansiyel askeri kullanım senaryosunu belirledi. Ancak, Washington DC merkezli düşünce kuruluşu Güvenlik ve Yeni Teknolojiler Merkezi’nden Lauren Kahn, bu teknolojinin mevcut uygulamalar için yeterince hazır olmadığını savunuyor ve bu tür kullanım alanlarına dair büyük endişeleri olduğunu söylüyor.
Carnegie Mellon Üniversitesi’nde, Savunma Bakanlığı’nın desteklediği yazılım mühendisliği enstitüsünden Carol Smith, insanların otomasyon sistemlerinden gelen önerilere, sunulan tavsiyeler yanlış bile olsa güvenme eğiliminde olabileceklerini belirtiyor. Bu durum otomasyon yanılgısı olarak tanınmaktadır. Smith, “Yüksek risk taşıyan herhangi bir durumda, büyük dil modellerinin veya üretken yapay zeka sistemlerinin kullanımını önermem” şeklinde görüş belirtmektedir. Bu görüş, yapay zeka teknolojisine olan güvenin yanı sıra, insanların karar verme süreçlerinde makine önerilerine olan bağımlılığının potansiyel tehlikelerine dikkat çeken bir uyarı niteliğinde.