Silah artık demir değil, karar veriyor. Ateş etmek için emir beklemiyor; kendisi değerlendiriyor. Düşmanı tanıyor. Durumu analiz ediyor. Ve sonra… vuruyor. İşte burada başlayan şey teknoloji değil — ahlaki bilinçsizlik çağının kapısıdır.

Yapay zekâ destekli silah sistemleri (Autonomous Weapons Systems - AWS), artık bir hedefe kilitlenip onu yok etmekle kalmıyor. Onlar bağlam analiz ediyor, davranış örüntüsü çözümlüyor, niyet tahmini yapıyor. Yani artık düşmanı "tanıyor". Ama şu soruyu sormak gerekiyor:

Tanımak için ruh gerekir. Peki bu silahların ruhu var mı? Yoksa yalnızca niyet simülasyonu mu çalışıyorlar?

Komuta Zinciri Kırıldı: Karar İnsandan Çıktı

Savaş tarih boyunca komutanların, stratejistlerin, liderlerin sorumluluğundaydı. Şimdi, yüzlerce kilometre öteden tetiklenebilen otonom silah sistemleriyle karşı karşıyayız. Savaş meydanı artık bir ekran. Düşman ise yalnızca bir piksel hedefleme noktası.

Ve sistem bu kararı “etik kodlara göre” verdiğini iddia ediyor. Peki o etik kodlar kim tarafından yazıldı? Ve bu kod, ahlaki sorumluluk taşıyabilir mi?

Tablo: Savaşta İnsan vs. Yapay Zekâ Karar Süreçleri

Parametre İnsan Asker Yapay Zekâ Destekli Silah
Karar Süresi 10–30 saniye 1–5 milisaniye
Duygusal Etki Vicdan, korku, empati Yok
Sorumluluk Asker, komutan, devlet Bilinmeyen, algoritma tasarımcısı mı?

Henüz Konuşulmayan Tehlike: Niyet Tespiti Üzerinden Ölüm Kararı

Yeni nesil silah sistemleri yalnızca fiziki tehditleri değil, “potansiyel tehdit sinyallerini” de analiz edebiliyor. Bu sistemler, bireyin hareketlerinden, bakış yönünden, el pozisyonundan çıkarım yapabiliyor. Ve yeterli risk puanına ulaşılırsa otomatik öldürme protokolü devreye giriyor.

Bu şu demektir: Henüz hiçbir saldırı yokken, bir kişi niyetle yargılanabilir. Yani savaş artık fiil üzerinden değil —

Bu noktada devreye giren şey artık savaş değil. Bu, dır.

Simülasyon Gerçekliğe Karşı: Savaşta Gerçeklik Bozulması

Bir diğer çarpıcı mesele: otonom silahlar, simülasyon verileriyle eğitilir. Ancak savaş, kaotik ve özgündür. Gerçek zamanlı anomali taşıyan bir durum, sistem tarafından

Örnek: Elinde oyuncak silah taşıyan bir çocuk, sistem tarafından yüksek tehdit puanına ulaşırsa, ölümcül hedef olabilir. Burası tam olarak sorunun başladığı noktadır. Artık bilgiyle gerçeklik arasında bir boşluk vardır. Ve o boşluğa insan bedeni düşer.

Alternatif Senaryo: “Ahlaki Kodlayıcı” Görevleri

Bazı savunma şirketleri, yapay zekâ silahları için “etik mühendisler” görevlendirmeye başladı. Bu kişilerin görevi, ölüm kararını ne zaman vereceğini belirleyen “ahlaki protokol” yazmak.

Ama şu soru ortada duruyor: Eğer bir yazılımcı, bir canlının yaşayıp yaşamayacağına karar veren kodu yazıyorsa — bu kişi hâlâ bir yazılımcı mı? Yoksa

Ve Sonuncu Tehlike: Sessizleşen Vicdan

En büyük tehdit ne silahın kendisi, ne teknolojisi. En büyük tehlike şu: İnsan artık öldürmek için tetiğe basmıyor. Dolayısıyla ahlaki yargıyı da devreden çıkarıyor. Sorumluluk bulanıklaşıyor, vicdan paslanıyor.

Ve zamanla toplumlar bu yeni savaş biçimine alışıyor. Düşman, ekranda patlayan bir ikon. Kan, yok. Çığlık, yok. Savaş, artık yalnızca bir sunuluyor.

İnsan Olmadan Savaş?

Sorulması gereken soru şu: Eğer savaşta insan yoksa, barışta da insan kalır mı?

Ve belki daha korkuncu: Bu silahlar bir gün, düşmanın değil — insanlığın vicdanını hedef alırsa, onu savunabilecek bir sistem var mı?