Bloomberght
SON DAKİKA
Bloomberg HT Görüş Dr. Ali Çınar Algoritmalar ve askerî doktrin: AI şirketleri savunma dünyasında nerede duruyor?

Algoritmalar ve askerî doktrin: AI şirketleri savunma dünyasında nerede duruyor?

02 Mart 2026, 10:08 Güncelleme :

Dünyanın gündemi tam olarak ABD ve İsrail’in İran’la savaşa odaklansa da, savaş başlamadan önce iki önemli yapay zekâ şirketinin ABD Savaş Bakanlığı ile yaşadıkları dikkatleri üzerine çekmişti. Aslında Washington’da teknoloji ile savunma arasındaki gerilim yeni değil. Ancak bu kez tartışmanın merkezinde sıradan bir yazılım değil, savaş doktrinini dönüştürme potansiyeline sahip yapay zekâ var. Soru artık şu: Frontier AI sistemlerinin sınırlarını kim belirleyecek — devlet mi, yoksa bu teknolojiyi geliştiren şirketler mi?

Pentagon’un büyük yapay zekâ laboratuvarlarıyla 200 milyon dolara kadar çıkabilen çerçeve anlaşmalar üzerinde çalışıyordu Bu büyüklük, AI’ın artık deneysel bir teknoloji değil, ulusal güvenlik altyapısının parçası olarak görüldüğünü gösteriyor. Savunma dünyasında mesele yalnızca otomasyon değil; karar döngüsünü hızlandırmak.

Gerilim, Anthropic CEO’su Dario Amodei’nin Pentagon’a bazı alanlarda bu antlasmaya açık şekilde “hayır” demesiyle tırmandı.

Başkan Donald Trump, tüm federal kurumlara Anthropic tarafından geliştirilen teknolojilerin kullanımını derhal durdurmaları talimatını verdi. Trump şu açıklamada bulundu: “ABD, radikal solcu ve ‘woke’ bir şirketin büyük ordumuzun nasıl savaşacağına ve nasıl kazanacağına yön vermesine asla izin vermeyecektir! Bu kararlar başkomutana ve Pentagon liderliğine aittir.”Bu çıkış, tartışmayı teknik ve etik bir zeminden çıkarıp doğrudan siyasi bir güç mücadelesine dönüştürdü. Artık mesele yalnızca AI’ın nasıl kullanılacağı değil, bu kararın kim tarafından verileceğiydi.

Tam bu atmosferde OpenAI farklı bir pozisyon aldı. Bu krizi firsat bilerek, Pentagon ile yaptığı anlaşmaya ilişkin açıklamasında kullanım alanlarını sağlık hizmetlerinin iyileştirilmesi, program ve tedarik verilerinin analizi, siber savunma ve sınıflandırılmış ortamlarda güvenli model çalıştırma olarak sıraladı. Şirket, kitlesel yurtiçi gözetim, otonom silah hedefleme ve kritik otomatik karar sistemlerinin sözleşme kapsamında yasak olduğunu vurguladı. OpenAI CEO’su Sam Altman ise X platformundaki paylaşımında şirketin ABD’nin demokratik değerleri doğrultusunda ulusal güvenlik kurumlarıyla çalışmaya devam edeceğini belirtti. Mesaj nettir: Devletle iş birliği mümkündür, ancak sınırlar sözleşmelerle tanımlanır.

Anthropic CEO’su Dario Amodei, CBS’e verdiği oldukça dikkat çeken röportajında iki kırmızı çizgi koydu: Amerikalıların kitlesel yurtiçi gözetimi ve tam otonom öldürücü silah sistemleri. Şirketin savunma kurumlarıyla çalışmaya tamamen kapalı olmadığını, ancak etik sınırların pazarlık konusu olamayacağını vurguladı. Ulusal güvenliğin önemli olduğunu, fakat kontrolsüz askerîleştirmenin uzun vadede riskli olduğunu ifade etti.

İki şirket arasındaki fark burada belirginleşiyor.

Anthropic, etik kırmızı çizgileri kamuoyu önünde yüksek sesle ilan eden ve bazı askeri entegrasyon alanlarını prensip olarak reddeden bir yaklaşım benimsiyor. OpenAI ise devletle çalışmayı sürdürüyor, ancak kullanım sınırlarını sözleşme metinleriyle çerçeveleyerek riski yönetmeye çalışıyor.

İşin ilginci, Google ve OpenAI’de yüzlerce çalışan, şirketlerini Claude gibi yapay zekâ araçlarının askerî uygulamaları konusunda Pentagon ile yaşadığı anlaşmazlıkta Anthropic’in yanında durmaya çağıran açık bir mektuba imza attı.

“Bölünmeyeceğiz” başlıklı mektup, her iki şirketin liderliğine “aralarındaki farklılıkları bir kenara bırakarak birlikte hareket etmeleri ve Pentagon konusundaki reddi sürdürmeleri” çağrısında bulunuyor.

İki şirketin üst yönetimindeki ayrışma yalnızca ideolojik değil; stratejik.

Deloitte araştırmaları organizasyonların yüzde 79’unun AI’ı stratejik dönüşüm unsuru olarak gördüğünü ortaya koyuyor. Savunma dünyasında ise hız doğrudan güç anlamına geliyor. İstihbarat analizini saatlerden dakikalara indiren bir sistem, askeri üstünlük sağlayabilir.Ancak aynı teknoloji gözetimi ölçeklendirebilir, hedefleme zincirini kısaltabilir ve hata maliyetini büyütebilir. Bu nedenle mesele teknik değil; doktrinsel.

Avrupa bu alanda daha regülasyon merkezli ve temkinli ilerlerken, Çin devlet-merkezli modelle AI şirketlerini doğrudan ulusal stratejinin parçası haline getiriyor. ABD ise özel sektör ile devlet arasında sert ama inovasyon odaklı bir denge kurmaya çalışıyor.

Peki bundan sonra ne olur?

Kısa vadede savunma projelerinde devletle tam uyumlu çalışabilecek az sayıda büyük oyuncunun kalması muhtemel. Sözleşmeler daha sert yazılacak, kullanım sınırları daha ayrıntılı tanımlanacak. Anthropic’in federal sistemlerden dışlanması sektörde caydırıcı bir örnek oluşturabilir.

Orta vadede daha kritik bir soru gündeme gelecek: Yapay zekâ karar destek sistemi olarak mı kalacak, yoksa operasyonel karar zincirinin aktif bir parçası mı olacak? Bugün herkes “insan denetimi” diyor. Ancak karar döngüsü insan hızının ötesine geçtiğinde, bu denetim ne kadar gerçek olacak?

Yapay zekâ çağında askeri gücün sınırlarını kim çizecek — kodu yazan şirket mi, yoksa savaşı yöneten devlet mi?