Pentagon ile Anthropic Arasında Kriz
ABD hükümeti ile yapay zekâ şirketi Anthropic arasında, savunma teknolojilerinin sınırları ve etik çerçevesi üzerine ciddi bir gerilim yaşanıyor. Anthropic’in geliştirdiği Claude modeli, Ocak ayında Venezuela Devlet Başkanı Nicolás Maduro’ya yönelik ABD özel kuvvet operasyonunda kullanıldığı iddialarıyla gündeme gelirken, bu gelişme hem şirketin etik kullanım ilkeleri hem de Pentagon’un yapay zekâ vizyonu açısından yeni bir kırılma noktası oluşturdu. Pentagon’un şirketten kullanım şartlarını gevşetmesini talep etmesine Anthropic’in olumsuz yanıt vermesi, şirketi önemli bir maddi ve kurumsal baskıyla karşı karşıya bıraktı. Bu süreçte OpenAI’nin benzer bir anlaşmayı Pentagon ile yapması ise kullanıcılar arasında tepkiye yol açarken, yapay zekânın savaş alanında kullanımının sınırları konusundaki tartışmalar da giderek derinleşmeye devam ediyor.
Anthropic, 2021 yılında eski OpenAI yöneticileri tarafından kuruldu ve kısa sürede özellikle Claude adlı büyük dil modeli (LLM) ile öne çıktı. Şirket kendisini kamu yararına çalışan bir şirket olarak tanımlıyor ve gelişmiş yapay zekânın insanlığın uzun vadeli yararı doğrultusunda sorumlu biçimde geliştirilmesi gerektiğini vurguluyor. Anthropic, ABD Savunma Bakanlığı’nın sınıflandırılmış ağlarında kullanılmasına izin verilen ilk yapay zekâ şirketi olarak Pentagon ile doğrudan çalışan firmalardan biri olarak dikkat çekiyor. Ancak Savunma Bakanı Pete Hegseth’in geçtiğimiz haftalarda şirketten Pentagon’un kullanım şartlarını gevşetmesini talep etmesi ve aksi halde sözleşmenin riske girebileceği yönünde uyarıda bulunması gerilimi artırmıştı. Trump yönetimi ise askeri yapay zekâ sistemlerinin “ideolojik kısıtlamalardan arındırılmış” biçimde çalışmasını istiyor. Pentagon yetkilileri de askeri operasyonlarda kullanılan araçların önceden tanımlanmış etik sınırlamalarla kısıtlanmaması gerektiğini savunuyor.
Anthropic ise bu süreçte iki temel konuda geri adım atmadı: ABD vatandaşlarına yönelik iç gözetim faaliyetlerinde yapay zekâ kullanımının engellenmesi ve tamamen otonom silah sistemlerinin, özellikle insan müdahalesi olmadan hedef vurabilen drone sürülerinin, geliştirilmemesi. Şirketin CEO’su Dario Amodei, insan kontrolü olmadan çalışan silahların anayasal denetim mekanizmalarını aşındırabileceğini ve yasa dışı emirleri reddedebilecek insan faktörünü ortadan kaldıracağını savunuyor. Amodei ayrıca kitlesel gözetimin demokratik toplumlar için ciddi riskler barındırdığına dikkat çekiyor. Pentagon cephesi ise askeri operasyonların yasal çerçevede yürütüldüğünü ve yapay zekâ araçlarının kullanım sorumluluğunun nihai olarak devlete ait olduğunu belirtiyor.
Pentagon ile yapay zekâ şirketi Anthropic arasında yaşanan kriz yalnızca teknik ya da hukuki bir anlaşmazlık olarak görülmüyor. Mevcut gerilim aynı zamanda devlet ile teknoloji şirketleri arasında yapay zekânın askeri kullanımına ilişkin yetki ve kontrol mücadelesinin de bir göstergesi olarak değerlendiriliyor. Gerilimin en görünür anlarından biri, Şubat ayı sonunda Pentagon’da yapılan yüz yüze görüşmede yaşandığı belirtiliyor. ABD medyasının iddiasını göre bu görüşmede Amodei, yapay zekâ destekli otonom silahların yaratabileceği riskler konusunda Savunma Bakanı’nı uyarmaya çalışırken Hegseth sözünü keserek bu tartışmaya kapalı olduğunu belirtti. Anthropic, uzun süredir yapay zekâ güvenliği konusunda en katı tutumu benimseyen şirketlerden biri olarak biliniyor. Şirket, biyolojik silah üretimi gibi riskleri azaltmak amacıyla modellerine çeşitli filtreler yerleştirmiş ve bazı hassas kavramların kullanımını dahi sınırlamıştı. Ancak bu tür güvenlik önlemleri, zaman zaman devlet kurumlarının teknolojiyi kullanmasını zorlaştıran bir unsur olarak da öne çıktı.
ABD Savunma Bakanlığı ise Anthropic’i resmen “tedarik zinciri riski” olarak sınıflandırdığını duyurarak taraflar arasındaki gerilimi daha da tırmandırdı. Bu karar doğrultusunda Pentagon ile çalışan şirketlerin Anthropic ile iş birliği yapması büyük ölçüde sınırlandırılacak ve şirketin savunma ekosistemi içindeki faaliyetleri ciddi biçimde kısıtlanabilecek. Bu tür bir sınıflandırma genellikle ABD’ye rakip ülkelerle bağlantılı yabancı firmalar için kullanılırken, bir Amerikan teknoloji şirketine uygulanması dikkat çekici bir adım olarak değerlendiriliyor. ABD Senatosu’nda savunma politikalarından sorumlu bazı üst düzey senatörler ise Pentagon ile Anthropic arasında giderek tırmanan gerilimin düşürülmesi çağrısında bulundu. Cumhuriyetçi ve Demokrat Senatörlerden oluşan bir grup, Savunma Bakanı Pete Hegseth ile Anthropic CEO’su Dario Amodei’ye gönderdikleri mektupta taraflardan müzakereleri uzatmalarını istedi ve Kongre ile birlikte daha kapsamlı bir çözüm aramaları çağrısında bulunuldu.
Anthropic ile Trump yönetimi arasındaki gerilim devam ederken, OpenAI’nin aynı konuda Pentagon ile anlaşma yapması ise kamuoyunda tepki çekti. Şirketin CEO’su Sam Altman, OpenAI’ın yapay zekâ modellerinin Savunma Bakanlığı’nın ağına entegre edilmesine yönelik bir anlaşma imzaladıklarını açıkladı. Bu anlaşmaya göre şirket, yapay zekâ sistemlerinin Savunma Bakanlığı tarafından “yasal olan her amaç için” kullanılmasına izin veriyor. Bununla birlikte OpenAI, kendi güvenlik ilkelerini korumak amacıyla sistemlerine bazı teknik sınırlamalar yerleştirme hakkını da saklı tuttuğunu belirtti. Ancak anlaşmanın bu hali, özellikle sivil özgürlükler ve gözetim konularında çeşitli eleştirilerle karşılandı.
OpenAI, Savunma Bakanlığı ile yaptığı yapay zekâ anlaşmasını kamuoyunda yükselen eleştirilerin ardından yeniden düzenlediğini açıkladı. Şirket, Pentagon’un sınıflandırılmış sistemlerinde kullanılacak yapay zekâ teknolojilerine ilişkin anlaşmaya, teknolojinin Amerikan vatandaşlarına yönelik kitlesel gözetim amacıyla kullanılmasını engelleyen yeni koruma maddeleri eklediğini duyurdu. Pentagon ise OpenAI ile yapılan bu düzenlemenin makul bir müzakere süreci sonucunda gerçekleştiğini belirtti. Savunma Bakanlığı yetkilileri, teknoloji şirketleriyle yapılan anlaşmalarda diyaloga açık olduklarını ifade ederken, ulusal güvenlik alanında kullanılacak teknolojilerin sınırlarının nihai olarak devlet tarafından belirlenmesi gerektiğini savunuyor. Pentagon ayrıca OpenAI’ye, şirketin teknolojisinin savunma istihbarat kurumları tarafından kullanılmayacağı yönünde güvence verildiğini açıkladı. Gelen tepkiler üzerine Sam Altman da yapay zekânın askeri kullanımına ilişkin nihai kararların teknoloji şirketleri tarafından değil, demokratik süreçler aracılığıyla seçilmiş siyasi temsilciler tarafından verilmesi gerektiğini söyledi. Altman, yapay zekâ gibi kritik teknolojilerin kullanımına dair sınırların belirlenmesinin hükümetin ve demokratik kurumların sorumluluğunda olduğunu vurguladı.
ABD hükümetinin Anthropic ile çalışmayı durdurma kararına rağmen şirketin yapay zekâ uygulaması Claude’un popülaritesi hızla arttı. Kararın ardından Claude, Apple App Store’da en çok indirilen uygulamalar arasında ilk sıraya yükselerek ilk kez OpenAI’nin ChatGPT uygulamasını geride bıraktı. Bu gelişme, şirketin hükümetle yaşadığı krizin teknoloji kullanıcıları arasında beklenmedik bir destek dalgası yarattığını gösteriyor. Anthropic’in Pentagon ile yaşadığı anlaşmazlık teknoloji dünyasında şirketin etik bir duruş sergilediği yönünde yorumlanırken, bazı kullanıcılar ve aktivistler şirketi desteklemek amacıyla kampanyalar başlattı. Bu noktada kullanıcıların güvenlik endişeleri de ChatGPT’nin popülaritesini kaybetmesine neden oldu.
Gelinen noktada Anthropic ile Pentagon arasındaki çatışmanın merkezinde temel bir soru yer alıyor: gelişmiş yapay zekâ teknolojilerinin nasıl kullanılacağına kim karar vermeli? Teknoloji şirketleri mi, yoksa devlet kurumları mı? Bu soru yalnızca ABD’de değil, tüm dünyada askeri yapay zekâ politikalarının şekillenmesinde belirleyici olacak daha geniş bir tartışmanın parçası olarak görülüyor. Kriz henüz tamamen sona ermiş değil. Taraflar arasında hukuki süreçlerin başlaması ve müzakerelerin yeniden açılması ihtimali konuşulurken, Anthropic ile Pentagon arasındaki gerilim devlet ile teknoloji şirketleri arasındaki ilişkilerde yeni bir dönemin habercisi olarak görülebilir. Yapay zekâ teknolojilerinin askeri gücün merkezine yerleştiği bir dönemde, etik sınırlamalar ile stratejik çıkarlar arasındaki denge her zamankinden daha kritik hale geliyor.



















