Teknikjättarna Microsoft, Google och xAI säger att de kommer att ge USA:s federala regering tillgång till sina nya artificiella intelligensmodeller för nationella säkerhetstester.
Center for AI Standards and Innovation (CAISI) vid Department of Commerce tillkännagav avtalet på tisdagen mitt i ökande oro över de möjligheter som Anthropics nyligen avtäckta Mythos-modell kan ge hackare.
Rekommenderade berättelser
lista med 4 artiklarslutet av listan
Enligt det nya avtalet kommer den amerikanska regeringen att tillåtas att utvärdera modellerna innan de distribueras och bedriva forskning för att bedöma deras kapacitet och säkerhetsrisker.
Avtalet uppfyller ett löfte som USA:s president Donald Trumps administration gav i juli om att samarbeta med teknikföretag för att kontrollera deras AI-modeller för ”nationella säkerhetsrisker”.
Microsoft kommer att arbeta med amerikanska regeringsforskare för att testa AI-system ”på ett sätt som undersöker oväntade beteenden”, sade företaget i ett uttalande. Tillsammans kommer de att utveckla delade datamängder och arbetsflöden för att testa företagets modeller, sa företaget.
Microsoft undertecknade ett liknande avtal med Storbritanniens AI Security Institute, enligt uttalandet.
Oron växer i Washington över de nationella säkerhetsrisker som kraftfulla AI-system utgör. Genom att säkra tidig tillgång till gränsmodeller siktar amerikanska tjänstemän på att identifiera hot som sträcker sig från cyberattacker till militärt missbruk innan verktygen används i stor utsträckning.
Utvecklingen av avancerade AI-system, inklusive Anthropic’s Mythos, under de senaste veckorna har skapat uppståndelse globalt, inklusive bland amerikanska tjänstemän och företags Amerika, över deras förmåga att överta hackare.
”Oberoende, rigorös mätvetenskap är avgörande för att förstå frontier AI och dess nationella säkerhetsimplikationer,” sa CAISI-chefen Chris Fall i ett uttalande.
Flytten bygger på 2024 års avtal med OpenAI och Anthropic under president Joe Bidens administration när CAISI var känt som US Artificial Intelligence Safety Institute. Under Biden fokuserade institutet på att utveckla AI-tester, definitioner och frivilliga säkerhetsstandarder. Det leddes av Bidens tekniska rådgivare Elizabeth Kelly, som sedan har gått med i Anthropic, enligt hennes LinkedIn-profil.
CAISI, som fungerar som regeringens huvudsakliga nav för testning av AI-modeller, sa att de redan hade genomfört mer än 40 utvärderingar, inklusive på banbrytande modeller som ännu inte är tillgängliga för allmänheten.
Utvecklare lämnar ofta över versioner av sina modeller med skyddsräcken avskalade så att centret kan undersöka nationella säkerhetsrisker, sa byrån.
xAI svarade inte omedelbart på en begäran om kommentar. Google avböjde att kommentera.
På Wall Street sjönk Microsofts aktie med 0,6 procent vid middagshandeln i hälarna på tillkännagivandet. Alphabet, Googles moderbolag, utvecklade å andra sidan i motsatt riktning. Aktien steg 1,3 procent. xAI är inte börsnoterat.
Tillkännagivandena följde på en överenskommelse mellan Pentagon och sju stora teknikföretag – Google, Microsoft, Amazon Web Services, Nvidia, OpenAI, Reflection och SpaceX – om att använda sina AI-system över klassificerade datornätverk.
Försvarsdepartementet sa att avtalet kommer att tillhandahålla deras resurser för att ”förstärka krigskrigares beslutsfattande i komplexa operativa miljöer”.
Särskilt frånvarande från listan är AI-företaget Anthropic efter dess offentliga tvist och rättsliga kamp med Trump-administrationen om etiken och säkerheten för AI-användning i krig.

