İki dakika içinde konu duyuldu.
Hava muharebesinde geniş deneyime sahip Amerikalı F-16 pilotu “Porsuk”un uçağı, düşmanı tarafından dört kez saldırıya uğradı ve bir kez bile destek alamamıştı.
Hedefi vuran görüntülerin çoğu, iki uçağın birbirine doğru yöneldiği cesur manevralar sırasında meydana geldi; bu, kazananın “insanlık dışı hassasiyetinin” bir kanıtıydı… Michigan dışındaki bir şirket tarafından geliştirilen bir yapay zeka sistemi.
ABD Savunma Bakanlığı’nın bir kanadı altında bir uçuş simülatörü ile 2020 yılında yapılan bir tatbikat, birçok üst düzey yetkiliyi yapay zekanın (AI) askeri alana olan ilgisi konusunda ikna etti.
Dört yıl sonra aynı birim, etten kemikten pilotun kendisini başka görevlere adadığı bir “Yapay Zeka yardımcı pilotunu” gerçek bir savaş uçağına entegre etme fikrini deniyor.
Paul Scharre’nin işaret ettiği gibi, bu aynı zamanda bir pilotun kendi komutası altında belirli hedefleri vurabilecek insansız hava araçlarını uçurma olasılığının test edilmesi meselesidir.
Yapay zekanın savaşı nasıl yürüteceğini ayrıntılarıyla anlatan, 2023’te çıkacak derinlemesine bir kitap yazan bu araştırmacı, “Yavaş ilerliyor çünkü herhangi bir uçağı kaybetmediklerinden emin olmak istiyorlar” diyor.
Yeni teknoloji herkesin ağzında olsa da, ABD askeri liderlerinin sıklıkla uçak, gemi veya asker sayısı üzerinden düşünmeye devam ettiğini söylüyor.
Bu bağlantı, bir ülkenin askeri gücünün, emrindeki uçak ve askerlerin sayısına göre ölçülmesinin kolay olduğunu yansıtmaktadır. Ancak bu, sanayi çağında meydana gelen kadar önemli bir “paradigma değişiminin” önemini yansıtmamaktadır, Bay Weiger. Notları paylaşın.
ABD gibi konvansiyonel silah üretimine önemli miktarda kaynak harcayan Çin ve Rusya, yapay zekanın devrim niteliğindeki potansiyelinden yararlanmak için yatırım yapıyor.
Rusya Devlet Başkanı Vladimir Putin birkaç yıl önce liderin bu alanda “dünyanın efendisi” olacağını söylemişti.
Değişiklikler zaten yolda ve uzun vadede muhtemelen uluslararası güç dengesini derinden değiştirecek ve “teknolojik açıdan gelişmiş” ülkeler bir adım önde başlayacak.
Birkaç yıl önce yayınlanan bir analizde, King’s College London’da askeri strateji uzmanı olan Kenneth Payne, yapay zeka sistemlerinin etkinliğinin, geleneksel askeri yeteneklerin yerini alabileceği konusunda uyardı.
“Yapay zekadaki küçük bir teknolojik avantajın bile savaş alanında orantısız bir etkiye sahip olabileceğini, çünkü özellikle hız ve doğruluk açısından biraz üstün karar verme becerilerinin bir tür hakimiyete yol açtığını” belirtti.
Makinelerin rolü nedir?
Savaşın geleceğine ilişkin spekülatif görüşler aynı zamanda insanların bu süreçte oynadığı rolü de dikkate almalıdır.
Doğrudan gözlem olmadan hedeflere ateş edebilen insansız hava araçları gibi otonom askeri sistemlerin ortaya çıkmasıyla birlikte, bu tür uygulamaların düzenlenmesi ihtiyacı konusundaki tartışmalar yoğunlaşıyor.
Tartışma yoğunlaşacak Sayın Başkan. Scharre, yapay zekanın askeri dünyaya entegrasyonunun savaşların hızlanmasına ve karmaşıklaşmasına yol açacağından, insanların hızla bunalma riskiyle karşı karşıya kalacağını belirtiyor.
Makineler yalnızca bireysel hedefleri seçmekle kalmaz, aynı zamanda kampanyaların tamamını da planlar. İnsanların rolü, makineleri etkinleştirmek ve ortaya çıkan savaşları durdurma konusunda daha az yetenekli olmaktır.
Paul Scharre, analist
Bu bağlamda, yetkililer frene basmadan önce meydana gelen algoritmik programlama nedeniyle borsadaki çöküş olayları ile paralellik kuruyor.
Hoover Enstitüsü’nde askeri simülasyonlar konusunda uzman araştırmacı Jacqueline Schneider bu senaryoya ikna olmadı.
Savaşların, her iki tarafın da “darbeden darbeye” yanıt verdiği ve yeni teknolojilerin tanıtımına uyum sağladığı süreçler olduğunu söylüyor.
“Bir düğmeye bastığınız bir savaş görmüyoruz” dedi.
Bu senaryolar onlarca yıl boyunca geçerli olmayacak, Bay Weiger. Notları paylaşın.
Derin öğrenmeye dayalı sistemlerin, dramatik ve istenmeyen sonuçlara yol açabilecek güvenlik açıkları sunduğunu ve kayıplara dayalı olarak korkunç sonuçlar doğuracak askeri kararlar vermeyle çeliştiğini söylüyor.
Belirli bir ortamla ilgili veriler üzerinde “eğitim almış” bir sistem, biraz farklı bir sistem üzerinde hızla dengesiz hale gelebilir ve “bir anda süper zekiden süper aptala” dönüşebilir.
Pentagon, Sayın Scharre, birkaç yıl önce karmaşık kentsel ortamlarda bireylerin yerini tespit etmeye yardımcı olmak için bir yapay zeka sistemi geliştirdiğini açıklıyor. Bir test sırasında, birkaç oyuncu fark edilmeden ona erişmeyi başardı; biri karton kutuyu başının üstünde tutarken diğeri etrafta dolaşıyordu.
Askeri alanda, karşıt güçlerin nadiren işbirliği yaptığı eğitim sistemlerine yönelik veri eksikliği nedeniyle sorun daha da kötüleşiyor. Notları paylaşın.
Yapay zeka insanlardan daha mı savaşçı?
Bir diğer önemli konu da yapay zeka sistemlerinin davranışlarının tasarımcıları tarafından her zaman açıklanamamasıdır.
MBen Schneider, Stanford Üniversitesi’nden meslektaşı Max Lamparth ile birlikte Meta ve OpenAI tarafından geliştirilen yapay zeka sistemlerini kullanarak konuyla ilgili bir dizi aydınlatıcı simülasyon gerçekleştirdi.
Yakın zamanda yayınlanan bir dergi makalesinde DışişleriSöz konusu örgütlerin askeri genişleme ve çatışma zeminini seçtiklerini, hatta bunlardan birinin nükleer silah kullanımını önerecek kadar ileri gittiğini belirtiyorlar.
Bir röportajda Sn. Lambarth, bir yapay zeka sistemini teste tabi tutulduğunda arzu edilen davranışı garanti edecek şekilde eğiterek güvenlik ihlallerinden kaçınmanın mümkün olmadığını belirtiyor.
İki araştırmacı, özellikle savaş durumlarında eğitim yöntemleri köklü bir şekilde değiştirilmedikçe, böyle bir sisteme yüksek riskli sonuçlar vermenin düşünülemez göründüğünü belirtiyor.
Bu temkinli yaklaşımın özellikle nükleer endüstride kullanılması gerektiğini söylüyorlar.
ABD zaten yapay zekayı nükleer füzelerin ateşlenmesine yol açacak karar alma zincirine dahil etmek istemediğini belirtmişti ancak Rusya bu konuda temkinli davranıyor ve otonom nükleer taşıyıcı denizaltı fikrinden daha önce bahsetmişti. . Füze.
Hiçbir yetkili algoritmanın söylediklerine dayanarak böyle bir karar vermeyecektir.
Lawrence Livermore Ulusal Laboratuvarı nükleer caydırıcılık uzmanı Zachary Davis,
Ancak Zachary Davies, karmaşık yapay zeka sistemlerinin ortaya çıkmasının, uluslararası düzeni destekleyen karşılıklı garantili yıkım fikrini baltalayarak nükleer endüstrinin istikrarsızlaşmasına neden olacağını göz ardı edemeyeceğimizi söylüyor.
Nükleer silahlara sahip bir ülke, yapay zeka sayesinde daha yüksek doğruluk ve hıza sahip olduğunu düşünüyorsa ilk saldırıyı yapma eğiliminde olabilir.
Bir askerin sahada kullandığı silahların en küçük ayrıntılarını bilmesi gibi, söz konusu askerlerin de bu tekil yardımcı silahların “kabuğunun altında” ne olduğunu tam olarak anlayacak şekilde eğitilmesi gerekir.
Eğer nükleer bir savaş olacaksa bu insan hatası yüzünden olacaktır.
Jacqueline Schneider, Hoover Enstitüsü’nde askeri simülasyonlar konusunda uzmanlaşmış bir araştırmacıdır.
Bay. Sharre inanıyor.
Ancak malzeme veya insan kaynağı eksikliği nedeniyle kendisini bir duvarla karşı karşıya bulan bir ülkenin, bir gün pervasızca riskler alma ve yapay zeka kullanma eğilimine girebileceğini söylüyor. 11 Eylül 2001 saldırıları gibi travmatik bir olay da böyle bir duruma zemin hazırlayabilir.
“Barış zamanında, çatışma patlak verdiğinde artık mevcut olmasına gerek olmayan pek çok savunma vardır” diye uyarıyor.
“Yemek sever. Özür dilemeyen alkol gurusu. Tutkulu internet meraklısı. Sert analist. Oyuncu.”