Compania americană de inteligență artificială Anthropic a declarat, joi, că nu va ceda presiunilor Pentagonului de a permite utilizarea militară nerestricționată a tehnologiei sale, de teama că aceasta ar putea fi folosită pentru supravegherea în masă sau în arme complet autonome, transmite Deutsche Welle.
Ce argumente a adus Anthropic
„Utilizarea acestor sisteme pentru supraveghere internă în masă este incompatibilă cu valorile democratice”, a declarat directorul executiv Dario Amodei, adăugând că sistemele de inteligență artificială nu sunt încă suficient de fiabile pentru a fi utilizate în alimentarea armelor mortale fără un om care să aibă controlul final.
„Nu vom furniza în mod conștient un produs care pune în pericol combatanții și civilii americani”, a spus el.
Anthropic – alături de OpenAI, Google și chatbot-ul Grok al lui Elon Musk – a fost însărcinată de Pentagon în 2025 să furnizeze modele de inteligență artificială pentru o serie de aplicații militare, în cadrul unui contract în valoare de 200 de milioane de dolari (170 de milioane de euro).
La începutul acestei săptămâni, după o întâlnire cu Amodei, secretarul Apărării, Pete Hegseth, a dat companiei Anthropic un ultimatum: să își deschidă tehnologia de inteligență artificială pentru utilizare într-un „mediu secret” până vineri, așa cum au făcut și celelalte companii, sau riscă să piardă contractul cu guvernul.
Oficialii militari au avertizat că ar putea merge chiar mai departe și să desemneze compania drept un risc în lanțul de aprovizionare sau să invoce legislația din epoca Războiului Rece, numită Legea producției de apărare, pentru a acorda armatei o autoritate mai amplă în utilizarea produselor sale.
„Aceste amenințări nu ne schimbă poziția: nu putem, în deplină conștiință, să le acceptăm cererea”, a declarat Amodei, numind amenințările „inerent contradictorii”, deoarece etichetează sistemele Anthropic simultan drept un „risc de securitate” și „esențiale pentru securitatea națională”.
„Anthropic înțelege că Departamentul de Război, nu companiile private, ia decizii militare”, a spus el, referindu-se la titlul dat de administrația Trump Departamentului Apărării. „Cu toate acestea, într-un set restrâns de cazuri, credem că AI poate submina, mai degrabă decât să apere, valorile democratice.”
Pentagonul spune că nu va utiliza tehnologia pentru supravegherea în masă
Purtătorul de cuvânt al Pentagonului, Sean Parnell, a declarat joi pe rețelele sociale că armata „nu are niciun interes în utilizarea inteligenței artificiale pentru supravegherea în masă a americanilor (ceea ce este ilegal) și nici nu vrem să folosim inteligența artificială pentru a dezvolta arme autonome care funcționează fără implicarea umană”.
Cu toate acestea, oficialii au confirmat și un schimb de replici între Anthropic și Pentagon care a avut ca subiect rachetele balistice intercontinentale, subliniind sensibilitatea subiectelor aflate în centrul disputei.
Parnell a declarat că deschiderea utilizării tehnologiei ar împiedica Anthropic să „pună în pericol operațiuni militare critice”, avertizând: „Nu vom permite NICIUNEI companii să dicteze termenii privind modul în care luăm deciziile operaționale”.
Între timp, senatorul democrat de rang înalt din Comisia de Informații a Senatului, Mark Warner din Virginia, a declarat că este „profund tulburat” de rapoartele conform cărora Pentagonul „lucrează pentru a intimida o companie americană de top”.
El a afirmat într-o declarație că „aceasta este o indicație suplimentară a faptului că Departamentul Apărării încearcă să ignore complet guvernanța AI” și „subliniază în continuare necesitatea ca Congresul să adopte mecanisme puternice și obligatorii de guvernanță a AI pentru contexte de securitate națională”.
Editor : Ș.R.