Dolar 43,4226
Euro 51,9365
Altın 7.334,54
BİST 13.831,09
Adana Adıyaman Afyon Ağrı Aksaray Amasya Ankara Antalya Ardahan Artvin Aydın Balıkesir Bartın Batman Bayburt Bilecik Bingöl Bitlis Bolu Burdur Bursa Çanakkale Çankırı Çorum Denizli Diyarbakır Düzce Edirne Elazığ Erzincan Erzurum Eskişehir Gaziantep Giresun Gümüşhane Hakkari Hatay Iğdır Isparta İstanbul İzmir K.Maraş Karabük Karaman Kars Kastamonu Kayseri Kırıkkale Kırklareli Kırşehir Kilis Kocaeli Konya Kütahya Malatya Manisa Mardin Mersin Muğla Muş Nevşehir Niğde Ordu Osmaniye Rize Sakarya Samsun Siirt Sinop Sivas Şanlıurfa Şırnak Tekirdağ Tokat Trabzon Tunceli Uşak Van Yalova Yozgat Zonguldak
İstanbul 15°C
Hafif Yağmurlu
İstanbul
15°C
Hafif Yağmurlu
Cum 13°C
Cts 9°C
Paz 7°C
Pts 6°C

Otonom Silah Sistemleri (LAWS): Savaşın Üçüncü Devrimi

Otonom Silah Sistemleri (LAWS): Savaşın Üçüncü Devrimi
26 Aralık 2025 15:00 | Son Güncellenme: 17 Ocak 2026 22:25
93
A+
A-

Bir savaş meydanında, askerin tetiği çekmeden önce yaşadığı o anlık tereddüt, insanlığın ve vicdanın son kalesidir. Düşmanın teslim olduğunu görmek veya sivil olabileceğini düşünmek, namlunun yönünü değiştirebilir. Peki, tetiği bir insan değil de, saniyede milyonlarca veriyi işleyen, yorulmayan, korkmayan ve en önemlisi “vicdanı olmayan” bir kod satırı çekerse ne olur?

Hoş geldiniz, savaş tarihinin barut ve nükleer silahtan sonraki üçüncü büyük devrimine: Otonom Silah Sistemleri (LAWS).

Tetiği Kim Çekiyor?

Silahlara Veda İnceleme: Hemingway’in Aşk ve Savaş Arasında Sıkışan Dünyası

Bugün sıkça duyduğumuz İHA’lar veya SİHA’lar ile karıştırmayalım. Mevcut sistemlerde, otonom uçuş özellikleri olsa bile, “ateş et” emrini veren nihayetinde bir operatördür. Buna askeri literatürde “Human-in-the-loop” (Döngüde insan var) denir.

Ancak LAWS teknolojisi, insanı bu döngüden çıkarıyor. Yapay zeka algoritmaları, sensörlerden gelen veriyi işliyor, hedefi tanımlıyor (yüz tanıma, ısı haritası, davranış analizi) ve saldırı kararını kendi başına veriyor. Bu sistemler, biyolojik bir pilotun veya askerin tepki veremeyeceği kadar hızlı kararlar alabiliyor. Buna da “Hyperwar” (Hiper Savaş) deniyor.

Sürü Zekası ve “Flash War” Riski

Tek bir otonom robottan daha korkutucu olan şey, onların “sürü” (swarm) halinde hareket etmesidir. Doğadaki kuş veya arı sürülerini taklit eden bu algoritmalar, birbirleriyle haberleşerek savunma sistemlerini saniyeler içinde alt edebilir.

Ancak buradaki en büyük risk teknik arızalar değil, algoritmik tırmanmadır. İki düşman ülkenin otonom sistemleri karşılaştığında, bir tarafın savunma manevrasını diğer taraf “saldırı hazırlığı” olarak algılayabilir. Milisaniyeler içinde gerçekleşen bu veri alışverişi, insanlar daha ne olduğunu bile anlamadan topyekûn bir savaşı tetikleyebilir. Borsalarda yaşanan “Flash Crash” olaylarının, savaş sahasında yaşandığını hayal edin. Sonuçları sadece para kaybı olmayacaktır.

Cenevre’de Soğuk Rüzgarlar

Birleşmiş Milletler çatısı altında, “Katil Robotların” yasaklanması için yıllardır süren diplomatik girişimler var. İnsan Hakları İzleme Örgütü (HRW) gibi kurumlar, ölüm kalım kararının asla bir algoritmaya bırakılamayacağını savunuyor. Ancak ABD, Çin, Rusya ve İsrail gibi askeri süper güçler, bu teknolojiyi yasaklayan bağlayıcı bir anlaşmaya yanaşmıyor. Argümanları ise şu: “Otonom sistemler daha hassas vuruş yapar, sivil kayıplarını azaltır.”

Sonuç: Pandora’nın Kutusu Açıldı mı?

Otonom silah sistemleri LAWS, sadece askeri bir teknoloji değil, derin bir etik sınavdır. Sorumluluk kimde olacak? Hatalı bir vuruşta yazılımcı mı, komutan mı, yoksa makine mi yargılanacak? Teknoloji geliştikçe savaşın maliyeti (insan hayatı açısından) düşüyor gibi görünse de, savaş başlatmanın eşiği de tehlikeli bir şekilde alçalıyor. Tetiği yapay zekaya emanet etmeye hazır olup olmadığımız sorusu, cevabını savaş alanlarında değil, vicdanlarımızda aramamızı gerektiriyor.

Derinlik.net

Derinlik.net; tarafsız, güvenilir ve özenle seçilmiş içerikleriyle okurlarına hayatın farklı alanlarında gerçek bir perspektif sunan bağımsız bir dijital yayın platformudur.
YORUMLAR

Henüz yorum yapılmamış. İlk yorumu yukarıdaki form aracılığıyla siz yapabilirsiniz.