Sedan kärnkraftsålderns gryning har beslutsfattare och strateger försökt förhindra ett land från att använda kärnvapen av misstag. Men risken för olyckor är fortfarande lika stor som den var under det kalla kriget. 1983 indikerade ett sovjetiskt tidig varningssystem felaktigt att ett amerikanskt kärnvapenangrepp mot Sovjetunionen var på gång; En sådan varning kunde ha utlöst en katastrofal sovjetisk motattack. Ödet undveks bara för att den jourhavande arbetsledaren, Stanislav Petrov, fastställde att larmet var falskt. Hade han inte det hade sovjetisk ledning haft anledning att avfyra världens mest destruktiva vapen mot USA.
Den snabba spridningen av artificiell intelligens har förvärrat hoten mot kärnvapenstabiliteten. En rädsla är att en kärnvapenstat kan delegera beslutet att använda kärnvapen till maskiner. USA har dock infört skyddsåtgärder för att säkerställa att människor fortsätter att göra det sista samtalet om huruvida de ska inleda en strejk. Enligt 2022 års nationella försvarsstrategi kommer en människa att förbli ”i kretsen” för beslut om att använda, eller sluta använda, ett kärnvapen. Och USA:s president Joe Biden och den kinesiske ledaren Xi Jinping enades i två uttalanden att ”det borde finnas mänsklig kontroll över beslutet att använda kärnvapen.”
Ändå utgör AI en annan lömsk risk för kärnsäkerheten. Det gör det enklare att skapa och sprida deepfakes – övertygande förändrade videor, bilder eller ljud som används för att generera falsk information om personer eller händelser. Och dessa tekniker blir allt mer sofistikerade. Några veckor efter Rysslands invasion av Ukraina 2022 visade en allmänt delad djupförfalskning den ukrainska presidenten Volodymyr Zelensky berättade för ukrainarna att lägga ner sina vapen; 2023 ledde ett djupt falskt folk att felaktigt tro att Rysslands president Vladimir Putin avbröt statlig television för att utlysa en fullskalig mobilisering. I ett mer extremt scenario kan en djupförfalskning övertyga ledaren för en kärnvapenstat om att ett första anfall från en motståndare var på gång eller att en AI-stödd underrättelseplattform skulle kunna ge upphov till falsklarm om en mobilisering, eller till och med en smutsig bombattack, av en motståndare.
Trump-administrationen vill utnyttja AI för nationell säkerhet. I juli släpptes en handlingsplan som kräver att AI ska användas ”aggressivt” över hela försvarsdepartementet. I december presenterade avdelningen GenAI.mil, en plattform med AI-verktyg för anställda. Men eftersom administrationen bäddar in AI i nationell säkerhetsinfrastruktur, kommer det att vara avgörande för beslutsfattare och systemdesigners att vara försiktiga med vilken roll maskiner spelar i de tidiga faserna av kärnkraftsbeslut. Tills ingenjörer kan förhindra problem som är inneboende i AI, såsom hallucinationer och spoofing – där stora språkmodeller förutsäger felaktiga mönster eller fakta – måste den amerikanska regeringen se till att människor fortsätter att kontrollera kärntekniska system för tidig varning. Andra kärnvapenstater borde göra detsamma.
KASKADERANDE KRISER
Idag använder president Donald Trump en telefon för att komma åt deepfakes; han publicerar dem ibland på sociala medier, liksom många av hans nära rådgivare. När gränserna blir suddiga mellan verklig och falsk information, finns det en växande möjlighet att sådana djupa förfalskningar kan infektera nationella säkerhetsbeslut med höga insatser, inklusive kärnvapen.
Om desinformation kan vilseleda USA:s president i några minuter, kan det innebära en katastrof för världen. Enligt amerikansk lag behöver en president inte konferera med någon för att beordra användning av kärnvapen för vare sig en vedergällningsattack eller en första attack. Amerikanska militära tjänstemän står redo att placera ut flygplan, ubåtar och markbaserade missiler som bär kärnstridsspetsar. En amerikansk interkontinental ballistisk missil kan nå sitt mål inom en halvtimme – och när en sådan missil väl har avfyrats kan ingen återkalla den.
Deepfakes kan hjälpa till att skapa förevändningar för krig.
Både amerikanska och ryska kärnvapenstyrkor är beredda att ”inleda på varning”, vilket innebär att de kan sättas in så snart fiendens missiler upptäcks på väg. Det återstår bara några minuter för en ledare att utvärdera om en motståndares kärnvapenattack har börjat. (Under nuvarande amerikansk politik har presidenten möjligheten att skjuta upp ett beslut tills efter att en motståndares kärnvapen slår till i USA.) Om USA:s system för tidig varning upptäcker ett hot mot USA kommer amerikanska tjänstemän att försöka verifiera attacken med både hemligstämplade och oklassificerade källor. De kan titta på satellitdata för aktivitet vid kända militära anläggningar, övervaka senaste uttalanden från utländska ledare och kolla sociala medier och utländska nyhetskällor för sammanhang och på plats konton. Militärer, tjänstemän och politiskt utnämnda måste sedan bestämma vilken information som ska kommuniceras upp i kedjan och hur den presenteras.
AI-driven desinformation kan leda till kaskadkriser. Om AI-system används för att tolka data för tidiga varningar, kan de hallucinera en attack som inte är verklig – vilket sätter amerikanska tjänstemän i en liknande position som den Petrov var i för fyra decennier sedan. Eftersom den interna logiken i AI-system är ogenomskinlig, lämnas människor ofta i mörkret om varför AI kom till en viss slutsats. Forskning visar att personer med en genomsnittlig förtrogenhet med AI tenderar att skjuta upp maskinutdata snarare än att kontrollera för partiskhet eller falska positiva resultat, även när det kommer till nationell säkerhet. Utan omfattande utbildning, verktyg och operativa processer som står för AI:s svagheter, kan rådgivare till Vita husets beslutsfattare misslyckas med att anta – eller åtminstone underhålla – möjligheten att AI-genererat innehåll är korrekt.
Deepfakes som överförs på media med öppen källkod är nästan lika farliga. Efter att ha sett en deepfake-video kan en amerikansk ledare till exempel misstolka ryska missiltester som början på offensiva anfall eller misstag kinesiska övningar med levande eld som en attack mot amerikanska allierade. Deepfakes kan hjälpa till att skapa förevändningar för krig, ge allmänhetens stöd för en konflikt eller skapa förvirring.
ETT KRITISKT ÖGA
I juli släppte Trump-administrationen en AI-handlingsplan som krävde aggressiv utplacering av AI-verktyg över hela försvarsdepartementet, världens största byråkrati. AI har visat sig användbart för att göra delar av militären mer effektiva. Maskininlärning gör det lättare att schemalägga underhåll av marinens jagare. AI-teknik inbäddad i autonom ammunition, som drönare, kan tillåta soldater att stå tillbaka från frontlinjerna. Och AI-översättningsverktyg hjälper underrättelsetjänstemän att analysera data om främmande länder. AI kan till och med vara till hjälp i vissa andra vanliga uppgifter för underrättelseinsamling, som att identifiera skillnader mellan bilder på bombplan parkerade på flygfält från en dag till en annan.
Att implementera AI över militära system behöver inte vara allt eller inget. Det finns områden som bör vara förbjudna för AI, inklusive kärntekniska system för tidig varning och ledning och kontroll, där riskerna för hallucinationer och spoofing uppväger fördelarna som AI-driven programvara kan ge. De bästa AI-systemen är byggda på korskontrollerade och omfattande datauppsättningar. Nukleära system för tidig varning saknas både eftersom det inte har förekommit några kärnvapenattacker sedan de på Hiroshima och Nagasaki. Alla AI-atomdetekteringssystem skulle sannolikt behöva träna på befintliga missiltest- och rymdspårningsdata plus syntetiska data. Ingenjörer skulle behöva programmera försvar mot hallucinationer eller felaktiga förtroendebedömningar – betydande tekniska hinder.
Det kan vara frestande att ersätta kontroller från högutbildad personal med AI-verktyg eller att använda AI för att smälta samman olika datakällor för att påskynda analysen, men att ta bort kritiska mänskliga ögon kan leda till fel, partiskhet och missförstånd. Precis som försvarsdepartementet kräver meningsfull mänsklig kontroll av autonoma drönare, borde det också kräva att varje del av kärnteknisk tidig varning och underrättelseteknik uppfyller en ännu högre standard. AI-dataintegreringsverktyg bör inte ersätta mänskliga operatörer som rapporterar om inkommande ballistiska missiler. Ansträngningar för att bekräfta tidig varning om en kärnvapenuppskjutning från satellit- eller radardata bör endast vara delvis automatiserade. Och deltagare i viktiga nationella säkerhetskonferenssamtal bör endast överväga verifierade och oförändrade data.
I juli 2025, försvarsdepartementet begärde medel från kongressen för att lägga till ny teknik till kärnkraftsledning, kontroll och kommunikation. Den amerikanska regeringen skulle vara bäst betjänt av att begränsa AI och automationsintegration till cybersäkerhet, affärsprocesser och analyser, och enkla uppgifter, som att se till att reservkraften slås på när det behövs.
EN VINTAGE STRATEGI
Idag är faran för kärnvapenkrig större än den har varit på decennier. Ryssland har hotat att använda kärnvapen i Ukraina, Kina utökar snabbt sin arsenal, Nordkorea har nu möjlighet att skicka ICBM till USA, och politiken som förhindrar spridning vacklar. Mot denna bakgrund är det ännu viktigare att se till att människor, inte maskiner som tränas på dåliga eller ofullständiga data, bedömer en motståndares handlingar, avsikter och mål.
Underrättelsebyråer måste bli bättre på att spåra härkomsten av AI-härledd information och standardisera hur de vidarebefordrar till beslutsfattare när data utökas eller syntetiskt. Till exempel, när National Geospatial-Intelligence Agency använder AI för att generera intelligens, lägger den till en avslöjande i rapporten om innehållet är maskingenererat. Underrättelseanalytiker, beslutsfattare och deras personal bör utbildas för att skapa ytterligare skepsis och faktakontroll till innehåll som inte är omedelbart verifierbart, precis som många företag nu är vaksamma mot nätfiske. Och underrättelsetjänster behöver förtroende från beslutsfattare, som kanske är mer benägna att tro vad deras egna ögon och enheter säger dem – sant eller falskt – än vad en underrättelsebedömning visar.
Experter och teknologer bör fortsätta arbeta för att hitta sätt att märka och bromsa bedräglig information, bilder och videor som flödar genom sociala medier, vilket kan påverka beslutsfattare. Men med tanke på svårigheten att bevaka information med öppen källkod är det desto viktigare att sekretessbelagd information är korrekt.
AI kan redan lura ledare att se en attack som inte finns där.
Trump-administrationens uppdateringar av USA:s nukleära ställning i den nationella försvarsstrategin borde skydda sig mot de troliga och svårhanterliga AI-informationsriskerna för kärnvapen genom att bekräfta att en maskin aldrig kommer att fatta ett beslut om kärnvapenuppskjutning utan mänsklig kontroll. Som ett första steg bör alla kärnvapenstater vara överens om att endast människor kommer att fatta beslut om kärnvapenanvändning. Då borde de förbättra kanalerna för kriskommunikation. En hotline för dialog finns mellan Washington och Moskva men inte mellan Washington och Peking.
USA:s kärnkraftspolitik och hållning har förändrats lite sedan 1980-talet, då ledare var oroliga för att Sovjetunionen skulle attackera direkt. Politiker kunde då inte ha lindat huvudet kring hur mycket desinformation som skulle levereras till de personliga enheterna hos de personer som ansvarar för kärnvapen idag. Både den lagstiftande och den verkställande grenen bör omvärdera kärnvapenhållningspolitiken byggd för det kalla kriget. Politiker kan till exempel kräva att framtida presidenter konfererar med kongressens ledare innan de inleder en första kärnvapenattack eller kräver en tidsperiod för underrättelsepersonal att validera den information som ligger till grund för beslutet. Eftersom USA har kapabla alternativ för andra slag bör noggrannhet ha företräde framför hastighet.
AI har redan potential att lura viktiga beslutsfattare och medlemmar i kärnkraftsledningskedjan att se en attack som inte finns där. Tidigare var det bara autentisk dialog och diplomati som avvärjde missförstånd mellan kärnvapenbeväpnade stater. Policyer och praxis bör skydda mot de skadliga informationsrisker som i slutändan kan leda till undergång.

