Bizle irtibata geçin

Araştırma&Rapor

Japonya, Savunmada Yapay Zekâya İnsan Kontrolü Şartı Getirdi

Yayınlanmış

-

Japonya Sabunma YZ- Japan Defense AI

Japonya Savunma YZ

Tokyo, tamamen otonom ölümcül silahlara karşı kırmızı çizgi çizerken, küresel normların oluşumuna katkı hedefliyor

Japonya Savunma Bakanlığı’na bağlı Acquisition, Technology & Logistics Agency (ATLA), 2025 yazında savunma amaçlı yapay zekâ (YZ) araştırma-geliştirme projelerine ilişkin ilk kapsamlı yönergelerini açıkladı. Kılavuz, “insan merkezli” bir yaklaşımı esas alıyor ve özellikle insan müdahalesi olmadan hedef seçip ateş edebilen tamamen otonom ölümcül silah sistemlerinin (LAWS) geliştirilmesine destek verilmeyeceğini vurguladı. (ATLA, 2025).

Yetkililer, bu adımın Japonya’nın hem ulusal güvenlik stratejisiyle hem de uluslararası alandaki etik sorumluluk iddiasıyla uyumlu olduğunu söylüyor. ATLA’nın açıklamasında, “Savunma alanında yapay zekâ entegrasyonu kaçınılmaz; ancak ölümcül kuvvet kullanımında nihai karar her zaman insana ait olmalıdır” ifadesine yer verildi (Japonya Savunma Bakanlığı, 2025).

Üç Aşamalı Risk Yönetimi

Yönergeler, yeni geliştirilecek YZ tabanlı sistemler için risk sınıflandırması, yasal-politik inceleme ve teknik değerlendirme aşamalarından oluşan bir çerçeve sunuyor:

  • Risk sınıflandırması: Projeler, yapay zekânın silahın yıkıcı kapasitesine katkısı üzerinden “düşük” veya “yüksek risk” olarak işaretlenecek.
  • Yasal-politik inceleme: Yüksek riskli projeler, uluslararası insancıl hukuk ve “anlamlı insan kontrolü” kriterleri açısından denetlenecek.
  • Teknik değerlendirme: Sistemler şeffaflık, güvenilirlik, emniyet ve önyargı azaltma gibi teknik standartlara göre test edilecek (ATLA, 2025).

Bu yaklaşım, yalnızca askeri Ar-Ge süreçlerine değil, özel sektörle yapılacak iş birliklerine de yön gösterici olacak. Tokyo merkezli analist Hiroyasu Harada’ya göre, “Zamanlama kritik. Japonya hem ileri teknolojiyi hızla savunmaya entegre etmek istiyor hem de uluslararası normlarda güven inşa etmeyi hedefliyor” (Harada, 2025).

Rekor Savunma Bütçesiyle Paralel

Japonya, bölgesel güvenlik kaygılarının arttığı bir dönemde savunma kapasitesini hızla genişletiyor. Hükümetin 2026 mali yılı için talep ettiği yaklaşık 60 milyar dolarlık (8,8 trilyon yen) rekor bütçe, bu yönergelerle aynı dönemde gündeme geldi (Nikkei Asia, 2025).

Ödeneklerin önemli bir bölümü, çok katmanlı sahil savunma konsepti SHIELD kapsamında insansız hava, kara ve deniz araçlarına ayrılmış durumda (Defense News, 2025). Bu tablo, Japonya’nın bir yandan ileri teknolojileri hızla benimserken diğer yandan etik sınırlara bağlı kalmaya çalıştığını gösteriyor.

Uluslararası ve Sivil Toplum Tepkileri

Yönergeler, küresel düzeyde devam eden “otonom silahlar” tartışmasına da doğrudan bağlanıyor.

  • Sivil toplum: Human Rights Watch ve Stop Killer Robots kampanyası, uzun süredir “ölümcül otonom sistemlerin tamamen yasaklanması” çağrısı yapıyor. HRW’nin 2025 raporunda, “Anlamlı insan kontrolü yoksa, bu sistemler hem hukuki hem de etik açıdan kabul edilemez” deniliyor (Human Rights Watch, 2025). Japonya’nın kılavuzu bu taleple örtüşse de, hükümetin bağlayıcı bir küresel yasak yerine rehber niteliğinde ilkeleri savunması, bazı çevrelerce yetersiz bulunuyor.
  • Diplomasi: Japonya, Birleşmiş Milletler Silahların Belirli Konvansiyonel Silahlar (CCW) toplantılarında “anlamlı insan denetimi” ilkesini destekliyor. Ancak Tokyo’nun yaklaşımı, tek taraflı sert yasak çağrısından çok, uluslararası konsensüs arayışına dayanıyor (BM CCW, 2024–2025).
  • Batılı düşünce kuruluşları: ABD merkezli CSIS gibi kurumlar ise Japonya’nın “soft law” yani bağlayıcı olmayan yönergelere ağırlık vermesinin, yenilik hızını artırsa da yaptırım ve denetim mekanizmalarını zayıf kılabileceğini savunuyor (CSIS, 2025).

Etik ve Strateji Dengesi

Mart 2025’te kabul edilen “Yapay Zekâ Teşvik Yasası” da benzer şekilde, inovasyonu hızlandırırken insan onuru, toplumsal güven ve uluslararası uyum ilkelerini vurguluyor. Ancak bu yasa da yaptırımlardan ziyade gönüllü iş birliği ve rehberlik mekanizmalarına dayanıyor (Japanese Diet, 2025).

Savunma analisti Harada, bu çifte yaklaşımı şöyle özetliyor:

“Japonya hem teknolojide geri kalmak istemiyor hem de etik kırmızı çizgilerini netleştiriyor. Asıl mesele, bu kırmızı çizgilerin sahada ne ölçüde uygulanabileceği olacak.” (Harada, 2025).

Açık Sorular

  • Denetim gücü: Yüksek riskli projelerin nasıl engelleneceği, uygulamada hangi yaptırımların işletileceği belirsiz.
  • Küresel etki: Japonya’nın yönergeleri diğer demokrasi yanlısı ülkeler için örnek olabilir. Ancak bağlayıcı bir küresel standart için BM’de hangi koalisyonları kurabileceği hâlâ soru işareti.
  • Teknoloji-etik dengesi: Çin, Rusya ve Kuzey Kore gibi aktörlerin agresif yapay zekâ entegrasyonu sürerken, Japonya’nın “insan merkezli” çizgisi caydırıcılığını ne kadar etkileyecek?

Sonuç olarak, Tokyo’nun yeni yönergeleri, askeri yapay zekâya dair küresel etik tartışmalara güçlü bir katkı sunuyor. Japonya, ileri teknolojiyi savunmada benimsemeye devam ederken, ölümcül güç kullanımında insanın vazgeçilmez rolünü vurgulayan ülkelerden biri olarak öne çıkıyor. Ancak kılavuzun gerçek etkisi, yalnızca kâğıt üzerinde değil, uygulamadaki denetim gücüyle ölçülecek.

Kaynak Notları

  1. ATLA (JMOD). (2025). Responsible AI Guidelines.
  2. Japonya Savunma Bakanlığı. (2025). Basın Açıklaması.
  3. Harada, H. (2025). Crisis Intelligence.
  4. Nikkei Asia. (2025). Japan requests record ¥8.8 trillion defense budget.
  5. Defense News. (2025). Japan’s SHIELD program for unmanned defense systems.
  6. Human Rights Watch. (2025). Stop Killer Robots.
  7. BM CCW. (2024–2025). Meeting Records.
  8. CSIS. (2025). Japan’s AI policy: soft law approach.
  9. Japanese Diet. (2025). AI Promotion Act.

 

Gazete Makina sitesinden daha fazla şey keşfedin

Okumaya devam etmek ve tüm arşive erişim kazanmak için hemen abone olun.

Okumaya Devam Edin