ABD Savunma Bakanlığı (Pentagon), yapay zeka şirketi Anthropic’i ‘tedarik güvenliği riski’ ilan ederek askeri sözleşmelerde kullanımını durdurdu.
ABD hükümeti ile yapay zeka aracı Claude'un geliştiricisi Anthropic arasında, şirketin yapay zeka teknolojisindeki bazı güvenlik kısıtlamalarını kaldırmaması üzerine bir süredir tırmanan gerilimde Pentagon'dan yeni adım geldi.
Pentagon'dan yapılan açıklamada, "Derhal yürürlükte olmak üzere, Anthropic yönetimine şirketin ve ürünlerinin tedarik güvenliği açısından riskli olarak sınıflandırıldığı resmen bildirilmiştir." ifadesi kullanıldı.
Açıklamada, bir tedarikçinin "kritik bir yeteneğin yasal kullanımını kısıtlayarak komuta zincirine dahil olmasına izin verilmeyeceği" belirtildi.
Anthropic'in Üst Yöneticisi (CEO) Dario Amodei, yaptığı açıklamada, bu adımın "hukuken geçerli olduğuna inanmadıklarını" ve mahkemeye başvuracaklarını bildirdi.
Firmanın "tedarik güvenliği açısından riskli" ilan edilmesiyle, hükümetle yapılan askeri sözleşmelerde Claude'un kullanımının önüne geçilebileceği belirtiliyor.
HÜKÜMET İLE ANTHROPIC ARASINDAKİ GERİLİM
ABD ordusunun bugüne kadar istihbarat çalışmaları, silah geliştirme faaliyetleri ve askeri operasyonların yürütüldüğü sistemlerde Anthropic'in geliştirdiği yapay zeka sohbet robotu Claude modelini kullandığı belirtiliyor.
Şirketin, Claude modelini "tüm yasal askeri amaçlar" için kullanıma açmayı reddetmesinin ve askeri kullanıma dair güvenlik endişeleri, Pentagon ile anlaşmazlıklara yol açmıştı.
ABD Savunma Bakanı Pete Hegseth, 24 Şubat'ta Anthropic'e ültimatom vermiş, Pentagon'un şirketin yapay zekasını istediği şekilde kullanmasına 27 Şubat'a kadar izin vermedikleri takdirde hükümetle sözleşmelerini kaybetme riskinin bulunduğunu söylemişti.
ABD Başkanı Donald Trump da 27 Şubat'ta Pentagon ile Anthropic arasında yaşanan tartışmaların ardından tüm federal kurumlara Anthropic teknolojisinin kullanımının derhal durdurulması talimatını vermişti.
