Silah artık demir değil, karar veriyor. Ateş etmek için emir beklemiyor; kendisi değerlendiriyor. Düşmanı tanıyor. Durumu analiz ediyor. Ve sonra… vuruyor. İşte burada başlayan şey teknoloji değil — ahlaki bilinçsizlik çağının kapısıdır.
Yapay zekâ destekli silah sistemleri (Autonomous Weapons Systems - AWS), artık bir hedefe kilitlenip onu yok etmekle kalmıyor. Onlar bağlam analiz ediyor, davranış örüntüsü çözümlüyor, niyet tahmini yapıyor. Yani artık düşmanı "tanıyor". Ama şu soruyu sormak gerekiyor:
Tanımak için ruh gerekir. Peki bu silahların ruhu var mı? Yoksa yalnızca niyet simülasyonu mu çalışıyorlar?
Komuta Zinciri Kırıldı: Karar İnsandan Çıktı
Savaş tarih boyunca komutanların, stratejistlerin, liderlerin sorumluluğundaydı. Şimdi, yüzlerce kilometre öteden tetiklenebilen otonom silah sistemleriyle karşı karşıyayız. Savaş meydanı artık bir ekran. Düşman ise yalnızca bir piksel hedefleme noktası.
Ve sistem bu kararı “etik kodlara göre” verdiğini iddia ediyor. Peki o etik kodlar kim tarafından yazıldı? Ve bu kod, ahlaki sorumluluk taşıyabilir mi?
Tablo: Savaşta İnsan vs. Yapay Zekâ Karar Süreçleri
Parametre | İnsan Asker | Yapay Zekâ Destekli Silah |
---|---|---|
Karar Süresi | 10–30 saniye | 1–5 milisaniye |
Duygusal Etki | Vicdan, korku, empati | Yok |
Sorumluluk | Asker, komutan, devlet | Bilinmeyen, algoritma tasarımcısı mı? |
Henüz Konuşulmayan Tehlike: Niyet Tespiti Üzerinden Ölüm Kararı
Yeni nesil silah sistemleri yalnızca fiziki tehditleri değil, “potansiyel tehdit sinyallerini” de analiz edebiliyor. Bu sistemler, bireyin hareketlerinden, bakış yönünden, el pozisyonundan çıkarım yapabiliyor. Ve yeterli risk puanına ulaşılırsa otomatik öldürme protokolü devreye giriyor.
Bu şu demektir: Henüz hiçbir saldırı yokken, bir kişi niyetle yargılanabilir. Yani savaş artık fiil üzerinden değil —
Bu noktada devreye giren şey artık savaş değil. Bu, dır.
Simülasyon Gerçekliğe Karşı: Savaşta Gerçeklik Bozulması
Bir diğer çarpıcı mesele: otonom silahlar, simülasyon verileriyle eğitilir. Ancak savaş, kaotik ve özgündür. Gerçek zamanlı anomali taşıyan bir durum, sistem tarafından
Örnek: Elinde oyuncak silah taşıyan bir çocuk, sistem tarafından yüksek tehdit puanına ulaşırsa, ölümcül hedef olabilir. Burası tam olarak sorunun başladığı noktadır. Artık bilgiyle gerçeklik arasında bir boşluk vardır. Ve o boşluğa insan bedeni düşer.
Alternatif Senaryo: “Ahlaki Kodlayıcı” Görevleri
Bazı savunma şirketleri, yapay zekâ silahları için “etik mühendisler” görevlendirmeye başladı. Bu kişilerin görevi, ölüm kararını ne zaman vereceğini belirleyen “ahlaki protokol” yazmak.
Ama şu soru ortada duruyor: Eğer bir yazılımcı, bir canlının yaşayıp yaşamayacağına karar veren kodu yazıyorsa — bu kişi hâlâ bir yazılımcı mı? Yoksa
Ve Sonuncu Tehlike: Sessizleşen Vicdan
En büyük tehdit ne silahın kendisi, ne teknolojisi. En büyük tehlike şu: İnsan artık öldürmek için tetiğe basmıyor. Dolayısıyla ahlaki yargıyı da devreden çıkarıyor. Sorumluluk bulanıklaşıyor, vicdan paslanıyor.
Ve zamanla toplumlar bu yeni savaş biçimine alışıyor. Düşman, ekranda patlayan bir ikon. Kan, yok. Çığlık, yok. Savaş, artık yalnızca bir
İnsan Olmadan Savaş?
Sorulması gereken soru şu: Eğer savaşta insan yoksa, barışta da insan kalır mı?
Ve belki daha korkuncu: Bu silahlar bir gün, düşmanın değil — insanlığın vicdanını hedef alırsa, onu savunabilecek bir sistem var mı?