ABD’de yapay zeka–devlet ilişkileri yeni bir eşiğe taşındı. OpenAI, ABD Savunma Bakanlığı ile yapay zeka modellerinin kurumun gizli ağlarına entegre edilmesini kapsayan stratejik bir anlaşmaya imza attı.
Gelişmeyi şirketin CEO’su Sam Altman duyururken, anlaşmanın iki temel ilkeye dayandığını vurguladı: yurt içi kitlesel gözetimin yasaklanması ve güç kullanımında insan sorumluluğunun korunması.
Altman’a göre OpenAI’ın modelleri, otonom silah sistemlerinde tam yetkiyle kullanılmayacak ve insan denetimi temel şart olacak.
Şirket ayrıca, sistemlerin yalnızca bulut altyapısı üzerinden dağıtılacağını ve güvenlik mekanizmalarının doğrudan bakanlıkla koordineli şekilde geliştirileceğini açıkladı. Bu kapsamda özel mühendis ekiplerinin Savunma Bakanlığı ile birlikte çalışacağı belirtiliyor.

ANTHROPİC KRİZİ SONRASI DENGE DEĞİŞTİ
Anlaşma, Başkan Donald Trump yönetiminin devlet kurumlarına Anthropic ve Claude hizmetlerini kullanmayı bırakma çağrısının hemen ardından geldi.
Savunma Bakanı Pete Hegseth’in, güvenlik sınırlarını gevşetmeyi reddeden Anthropic’i “tedarik zinciri riski” olarak değerlendirme tehdidi süreci daha da alevlendirmişti.
Anthropic ise kitlesel gözetim ve otonom silahlar konusundaki kırmızı çizgilerinden geri adım atmayacağını net bir dille duyurdu.
KAMUOYUNDA TEPKİ BÜYÜYOR
OpenAI cephesi, hükümet sözleşmesinin karşılıklı güvenlik şartlarına dayandığını savunsa da, sosyal medyada tepkiler çığ gibi büyüyor.
Eleştirmenler, yapay zeka şirketlerinin askeri entegrasyonunun etik sınırları zorladığını savunuyor ve OpenAI’ı “savaş makinesine dönüşmekle” suçluyor.
Yapay zekanın savunma sanayisindeki rolü giderek genişlerken, teknoloji devlerinin kamu kurumlarıyla kurduğu bu derin bağın önümüzdeki dönemde hem hukuki hem de etik açıdan daha sert tartışmalara sahne olması bekleniyor.
KAYNAK: AA