SHBA përdori modelin e njohur AI për kapjen e Maduros
Ushtria amerikane përdori modelin e Inteligjencës Artificiale Claude, të zhvilluar nga Anthropic, gjatë operacionit për kapjen e presidentit venezuelas Nicolás Maduro, sipas dy burimeve me njohuri mbi situatën që folën për Axios.
Tashmë, reagimet pas këtij raportimi mund të rrezikojnë marrëdhëniet e biznesit mes kompanisë dhe Pentagonit.
Pas publikimit të lajmit për përdorimin e Claude gjatë operacionit, një zyrtar i lartë i administratës amerikane deklaroi për Axios se Pentagoni do të rishqyrtojë partneritetin me Anthropic.
Sipas zyrtarit, shqetësim ka shkaktuar fakti që kompania kishte kërkuar të dinte nëse softueri i saj ishte përdorur në operacionin për kapjen e Maduro-s, çka në Departamentin e Mbrojtjes u interpretua si një sinjal se kompania mund të mos e miratonte një përdorim të tillë.
“Çdo kompani që do të vinte në rrezik suksesin operacional të forcave tona në terren është një kompani me të cilën duhet të rishqyrtojmë partneritetin,” tha ai.
Pse ka rëndësi
Ngjarja nxjerr në pah tensionin mes laboratorëve të mëdhenj të Inteligjencës Artificiale dhe Ushtrisë amerikane.
Nga njëra anë, kompanitë po hyjnë gjithnjë e më shumë në kontrata me Pentagonin; nga ana tjetër, ato përpiqen të ruajnë kufizime mbi mënyrën se si përdoren teknologjitë e tyre.
Modelet e AI mund të përpunojnë sasi të mëdha të dhënash në kohë reale – një aftësi thelbësore për operacionet ushtarake, ku vendimmarrja ndodh në mjedise kaotike dhe me ritëm të shpejtë.
Axios nuk arriti të konfirmojë rolin e saktë që Claude luajti në operacionin për kapjen e Maduro-s. Ushtria e ka përdorur më parë modelin për analizimin e imazheve satelitore dhe të dhënave të inteligjencës.
Burimet thanë se këtë herë Claude u përdor gjatë operacionit aktiv, jo vetëm në fazën përgatitore.
Sipas raportimeve, asnjë amerikan nuk u vra gjatë operacionit, ndërsa Kuba dhe Venezuela deklaruan se dhjetëra ushtarë dhe personel sigurie të tyre humbën jetën.
Pika e përplasjes
Pentagoni dëshiron që kompanitë e AI t’i lejojnë të përdorin modelet e tyre në çdo skenar, për sa kohë që respektohet ligji.
Ndërkohë, Anthropic – e cila e ka pozicionuar veten si një kompani që vendos sigurinë dhe etikën në plan të parë – po negocion me Pentagonin kushtet e përdorimit të teknologjisë së saj.
Kompania kërkon garanci që modeli i saj të mos përdoret për survejim masiv të qytetarëve amerikanë apo për operimin e armëve plotësisht autonome.
Një burim i njohur me negociatat tha për Axios se kompania është e bindur se Ushtria ka respektuar politikën ekzistuese të përdorimit, e cila përfshin kufizime shtesë.
Një zëdhënës i Anthropic deklaroi:
“Nuk mund të komentojmë nëse Claude, apo ndonjë model tjetër AI, është përdorur në ndonjë operacion specifik, të klasifikuar apo jo. Çdo përdorim i Claude duhet të përputhet me politikat tona të përdorimit. Ne punojmë ngushtë me partnerët tanë për të siguruar përputhshmëri”.
Konteksti më i gjerë
Sekretari amerikan i Mbrojtjes, Pete Hegseth, ka theksuar rëndësinë e integrimit të shpejtë të Inteligjencës Artificiale në të gjitha aspektet e punës së ushtrisë, pjesërisht për të ruajtur avantazhin ndaj Kinës.
Anthropic është një nga disa kompani të mëdha të AI që bashkëpunojnë me Pentagonin.
OpenAI, Google dhe xAI kanë arritur marrëveshje që u lejojnë përdoruesve ushtarakë qasje në modelet e tyre me më pak kufizime sesa përdoruesit e zakonshëm.
Megjithatë, puna më sensitive e Ushtrisë – nga testimi i armëve te komunikimet gjatë operacioneve aktive – zhvillohet në sisteme të klasifikuara.
Aktualisht, vetëm sistemi i Anthropic është i disponueshëm në këto platforma të klasifikuara.
Anthropic ka gjithashtu një partneritet me Palantir Technologies, kompani e specializuar në softuer analitik me kontrata të gjera me Pentagonin, që lejon integrimin e Claude në produktet e saj të sigurisë.
Nuk është e qartë nëse përdorimi i Claude gjatë operacionit ishte i lidhur me këtë partneritet.
Çfarë pritet
Diskutimet mes Pentagonit dhe OpenAI, Google dhe xAI për lejimin e përdorimit të modeleve të tyre në sisteme të klasifikuara janë ende në vazhdim.
Në të njëjtën kohë, Anthropic dhe Pentagoni po shqyrtojnë mundësinë e zbutjes së disa kufizimeve mbi përdorimin e Claude.
Ngjarja pritet të ndikojë ndjeshëm në mënyrën se si do të strukturohen marrëdhëniet mes kompanive të inteligjencës artificiale dhe institucioneve ushtarake në të ardhmen.