Hem Samhälle Ekonomi En farlig vändpunkt? Anthropics påståenden om AI-hackning splittrar experter

En farlig vändpunkt? Anthropics påståenden om AI-hackning splittrar experter

En farlig vändpunkt? Anthropics påståenden om AI-hackning splittrar experter

En alarmerande vattendelare för artificiell intelligens, eller ett överhypat hot?

AI-startföretaget Anthropics senaste tillkännagivande att de upptäckte världens första artificiell intelligens-ledda hackningskampanj har lett till en mängd svar från cybersäkerhetsexperter.

Rekommenderade berättelser

lista med 4 artiklarslutet av listan

Medan vissa observatörer har slagit larm om den länge fruktade ankomsten av en farlig böjningspunkt, har andra välkomnat påståendena med skepsis och hävdat att startupens konto utelämnar avgörande detaljer och väcker fler frågor än svar.

I en rapport på fredagen sa Anthropic att dess assistent Claude Code manipulerades för att utföra 80-90 procent av en ”storskalig” och ”mycket sofistikerad” cyberattack, med mänsklig intervention som krävdes ”endast sporadiskt”.

Anthropic, skaparen av den populära Claude chatboten, sa att attacken syftade till att infiltrera statliga myndigheter, finansiella institutioner, teknikföretag och kemiska tillverkningsföretag, även om operationen bara var framgångsrik i ett litet antal fall.

Det San Francisco-baserade företaget, som tillskrev attacken till kinesiska statssponsrade hackare, specificerade inte hur det hade avslöjat operationen, och inte heller identifierade de ”ungefär” 30 enheter som de sa hade varit måltavla.

Roman V Yampolskiy, en AI- och cybersäkerhetsexpert vid University of Louisville, sa att det inte rådde någon tvekan om att AI-assisterad hacking utgjorde ett allvarligt hot, även om det var svårt att verifiera de exakta detaljerna i Anthropics konto.

”Moderna modeller kan skriva och anpassa exploateringskod, sålla igenom enorma volymer stulen data och orkestrera verktyg snabbare och billigare än mänskliga team”, sa Yampolskiy till Bladet.

”De sänker kompetensbarriären för inträde och ökar skalan där välresursstarka aktörer kan verka. Vi sätter effektivt ett juniort cyberoperationsteam i molnet, som kan hyras per timme.”

Yampolskiy sa att han förväntade sig att AI skulle öka både frekvensen och svårighetsgraden av attacker.

Jaime Sevilla, chef för Epoch AI, sa att han inte såg mycket nytt i Anthropics rapport, men tidigare erfarenheter tydde på att AI-assisterade attacker var både genomförbara och sannolikt kommer att bli allt vanligare.

”Detta kommer sannolikt att drabba medelstora företag och statliga myndigheter hårdast”, sa Sevilla till Bladet.

”Historiskt sett var de inte tillräckligt värdefulla mål för dedikerade kampanjer och ofta underinvesterade i cybersäkerhet, men AI gör dem till lönsamma mål. Jag förväntar mig att många av dessa organisationer ska anpassa sig genom att anställa cybersäkerhetsspecialister, lansera sårbarhetsprogram och använda AI för att upptäcka och korrigera svagheter internt.”

Medan många analytiker har uttryckt sin önskan om mer information från Anthropic, har vissa avvisat dess påståenden.

Efter att USA:s senator Chris Murphy varnade för att AI-ledda attacker skulle ”förstöra oss” om reglering inte blev en prioritet, kallade Meta AI-chefsforskaren Yann LeCun ut lagstiftaren för att ha blivit ”spelad” av ett företag som söker regulatorisk fångst.

”De skrämmer alla med tvivelaktiga studier så att modeller med öppen källkod regleras ur existens,” sa LeCun i ett inlägg på X.

Anthropic svarade inte på en begäran om kommentar.

En talesperson för den kinesiska ambassaden i Washington, DC, sa att Kina ”konsekvent och resolut” motsatte sig alla former av cyberattacker.

”Vi hoppas att relevanta parter kommer att anta en professionell och ansvarsfull attityd och basera sin karaktärisering av cyberincidenter på tillräckliga bevis, snarare än ogrundade spekulationer och anklagelser,” sa Liu Pengyu till Bladet.

Toby Murray, datasäkerhetsexpert vid University of Melbourne, sa att Anthropic hade affärsincitament att lyfta fram både farorna med sådana attacker och dess förmåga att motverka dem.

”Vissa människor har ifrågasatt Anthropics påståenden som tyder på att angriparna kunde få Claude AI att utföra mycket komplexa uppgifter med mindre mänsklig tillsyn än vad som vanligtvis krävs,” sa Murray till Bladet.

”Tyvärr ger de oss inga konkreta bevis för att säga exakt vilka uppgifter som utfördes eller vilken tillsyn som tillhandahölls. Så det är svårt att döma på ett eller annat sätt om dessa påståenden.”

Ändå sa Murray att han inte tyckte att rapporten var särskilt överraskande, med tanke på hur effektiva vissa AI-assistenter är i uppgifter som kodning.

”Jag ser inte AI-driven hacking som förändrar de typer av hack som kommer att inträffa,” sa han.

”Men det kan inleda en förändring av skalan. Vi bör förvänta oss att se fler AI-drivna hack i framtiden och att dessa hack ska bli mer framgångsrika.”

Även om AI kommer att utgöra ökande risker för cybersäkerhet, kommer det också att vara avgörande för att stärka försvaret, säger analytiker.

Fred Heiding, en forskare vid Harvard University som specialiserat sig på datorsäkerhet och AI-säkerhet, sa att han tror att AI kommer att ge en ”betydande fördel” för cybersäkerhetsspecialister på lång sikt.

”Idag hålls många cyberoperationer tillbaka av en brist på mänskliga cyberproffs. AI kommer att hjälpa oss att övervinna denna flaskhals genom att göra det möjligt för oss att testa alla våra system i stor skala”, sa Heiding till Bladet.

Heiding, som beskrev Anthropics konto som i stort sett trovärdigt men ”överskattat”, sa att den stora faran är att hackare kommer att få ett fönster av möjligheter att gå amok när säkerhetsexperter kämpar för att komma ikapp med deras utnyttjande av allt mer avancerad AI.

”Tyvärr kommer det defensiva samhället sannolikt att vara för långsamt för att implementera den nya tekniken i automatiserade säkerhetstestnings- och patchningslösningar,” sa han.

”Om så är fallet kommer angripare att orsaka förödelse på våra system med en knapptryckning, innan vårt försvar har hunnit komma ikapp.”