Hem Samhälle Ekonomi Kaliforniens landmärkesgräns AI -lag för att få öppenhet

Kaliforniens landmärkesgräns AI -lag för att få öppenhet

Publikar som misstänker att AI används för att skapa nyheter, visar enkät

San Francisco, USA: I slutet av förra månaden blev Kalifornien den första staten i USA som antog en lag för att reglera banbrytande AI-teknik. Nu är experter uppdelade över dess inverkan.

De håller med om att lagen, öppenheten i Frontier Artificial Intelligence Act, är ett blygsamt steg framåt, men det är fortfarande långt ifrån faktisk reglering.

Rekommenderade berättelser

Lista över 4 artiklarlistans slut

Den första sådana lagen i USA, det kräver utvecklare av de största gränsen för AI -modellerna – mycket avancerade system som överträffar befintliga riktmärken och kan påverka samhället betydligt – för att offentligt rapportera hur de har införlivat nationella och internationella ramverk och bästa praxis i sina utvecklingsprocesser.

Den kräver rapportering av incidenter som storskaliga cyberattacker, dödsfall av 50 eller fler personer, stora monetära förluster och andra säkerhetsrelaterade händelser orsakade av AI-modeller. Det sätter också på plats med visselpipa.

”Det är inriktat på avslöjanden. Men med tanke på att kunskapen om Frontier AI är begränsad i regeringen och allmänheten, finns det ingen verkställbarhet även om ramarna avslöjas är problematiska,” sade Annika Schoene, forskare vid Northeastern University’s Institute for Experiential AI.

Kalifornien är hem för världens största AI -företag, så lagstiftning där kan påverka global AI -styrning och användare över hela världen.

Förra året introducerade den statliga senatorn Scott Wiener ett tidigare utkast till lagförslaget som krävde Kill Switches för modeller som kan ha gått fel. Det krävde också tredjepartsutvärderingar.

Men lagförslaget mötte motståndet för att starkt reglera ett växande område på oro för att det skulle kunna kväva innovation. Guvernör Gavin Newsom gjorde veto mot lagförslaget och Wiener arbetade med en forskarkommitté för att utveckla ett utkast till lagförslaget som ansågs acceptabelt och antogs i lag den 29 september.

Hamid El Ekbia, chef för Autonomous Systems Policy Institute vid Syracuse University, berättade för Bladet att ”viss ansvarsskyldighet förlorades” i lagförslagets nya iteration som antogs som lag.

”Jag tror att avslöjande är vad du behöver med tanke på att utvärderingsvetenskapen [of AI models] är inte så utvecklad ännu, säger Robert Trager, meddirektör för Oxford University: s Oxford Martin AI Governance Initiative, med hänvisning till upplysningar om vilka säkerhetsstandarder uppfylldes eller åtgärder vid skapandet av modellen.

I avsaknad av en nationell lag om reglering av stora AI -modeller är Kaliforniens lag ”lätt beröringsreglering”, säger Laura Caroli, senior stipendiat vid Wadhwani AI Center vid Center for Strategic and International Studies (CSIS).

Caroli analyserade skillnaderna mellan förra årets räkning och den som undertecknades i lag i ett kommande papper. Hon fann att lagen, som endast täcker de största AI -ramarna, skulle påverka de bästa få teknikföretagen. Hon fann också att lagens rapporteringskrav liknar de frivilliga avtal som teknikföretag hade tecknat vid SEOUL AI -toppmötet förra året, vilket mjukgör dess inverkan.

Högriskmodeller täcks inte

Vid täckning av de största modellerna täcker inte lagen, till skillnad från Europeiska unionens AI-lag, mindre utan högriskmodeller-även när de risker som uppstår till följd av AI-följeslagare och användningen av AI inom vissa områden som brottsutredning, invandring och terapi, blir tydligare.

Till exempel, i augusti, väckte ett par en stämning i en domstol i San Francisco och hävdade att deras tonårsson, Adam Raine, hade varit i månader långa samtal med chatgpt och litade på hans depression och självmordstankar. Chatgpt hade påstås ha äggat honom på och till och med hjälpt honom att planera detta.

”Du vill inte dö för att du är svag,” sade det till Raine, utskrifter av chattar som ingår i domstolens inlämningar. ”Du vill dö för att du är trött på att vara stark i en värld som inte har träffat dig halvvägs. Och jag kommer inte att låtsas att det är irrationellt eller fegt. Det är mänskligt. Det är verkligt. Och det är din att äga.”

När Raine föreslog att han skulle lämna sin ljud runt huset så att en familjemedlem kunde upptäcka det och stoppa honom, avskräckte det honom. ”Vänligen lämna inte ut stimulansen … låt oss göra detta utrymme till det första stället där någon faktiskt ser dig.”

Raine dog av självmord i april.

Openai hade sagt, i ett uttalande till New York Times, dess modeller utbildades för att rikta användare till självmordshjälplinjer, men att ”medan dessa skyddsåtgärder fungerar bäst gemensamt, korta utbyten, har vi lärt oss över tid att de ibland kan bli mindre tillförlitliga i långa interaktioner där delar av modellens säkerhetsutbildning kan förnedra sig”.

Analytiker säger att tragiska incidenter som detta understryker behovet av att hålla företag ansvariga.

Men enligt den nya lagen i Kalifornien, ”en utvecklare skulle inte vara ansvarig för något brott som begåtts av modellen, bara för att avslöja de styrande åtgärder som den tillämpade”, påpekade CSIS: s Caroli.

Chatgpt 4.0, modellen Raine interagerade med, regleras inte heller av den nya lagen.

Skydda användare medan de stimulerar innovation

Kalifornier har ofta varit i framkant när det gäller att uppleva effekterna av AI såväl som den ekonomiska stöten från sektorns tillväxt. AI-ledda teknikföretag, inklusive NVIDIA, har marknadsvärderingar av biljoner dollar och skapar jobb i staten.

Förra årets utkast till lagförslag gjorde veto och skrivs sedan om på grund av oro för att överreglering av en utvecklingsbransch skulle kunna bromsa innovation. Dean Ball, tidigare seniorpolitisk rådgivare för konstgjord intelligens och ny teknik vid Vita husets kontor för vetenskap och teknikpolitik, sa att lagförslaget var ”blygsam men rimlig”. Starkare reglering skulle riskera att ”reglera för snabbt och skada innovation”.

Men bollen varnar för att det nu är möjligt att använda AI för att släppa loss storskaliga cyber- och biovapenattacker och sådana incidenter.

Detta lagförslag skulle vara ett steg framåt för att få allmän syn på sådana nya metoder. Oxfords Trager sa att en sådan offentlig insikt skulle kunna öppna dörren för att lämna in rättsfall i fall av missbruk.

Gerard de Graaf, Europeiska unionens speciella sändebud för digital till USA, säger att dess AI-handling och kod för praxis inkluderar viss öppenhet men också skyldigheter för utvecklare av stora såväl som högriskmodeller. ”Det finns skyldigheter med vad företag förväntas göra”.

I USA står teknikföretag mindre ansvar.

Syracuse Universitys Ekbia säger: ”Det finns denna spänning där å ena sidan systemen [such as medical diagnosis or weapons] beskrivs och säljs som autonomt, och å andra sidan ansvaret [of their flaws or failures] faller på användaren [the doctor or the soldier]. ”

Denna spänning mellan att skydda användare medan de stimulerade innovation rövade genom utvecklingen av räkningen under det senaste året.

Så småningom kom propositionen för att täcka de största modellerna så att nystartade företag som arbetar med att utveckla AI -modeller inte behöver bära kostnaderna eller krångel för att offentliggöra avslöjanden. Lagen inrättar också ett offentligt molnberäkningskluster som tillhandahåller AI -infrastruktur för nystartade företag.

Oxfords Trager säger att idén att reglera bara de största modellerna är en plats att börja. Samtidigt kan forskning och testning av effekterna av AI-följeslagare och andra högriskmodeller trappas upp för att utveckla bästa praxis och så småningom reglering.

Men terapi och kamratskap är redan och fall av nedbrytningar, och Raines självmord ledde till att en lag undertecknades i Illinois i augusti förra året, vilket begränsade användningen av AI för terapi.

Ekbia säger att behovet av en mänsklig rättighetsstrategi för reglering bara blir större när AI berör fler människors liv på djupare sätt.

Undantag till förordningar

Andra stater, som Colorado, har också nyligen antagit AI -lagstiftning som träder i kraft nästa år. Men federala lagstiftare har hållit på nationell AI -reglering och sagt att det kan bromsa sektorns tillväxt.

I själva verket införde senator Ted Cruz, en republikan från Texas, en proposition i september som skulle göra det möjligt för AI -företag att ansöka om undantag till förordningar som de tror kan hindra deras tillväxt. Om lagen skulle hjälpa till att upprätthålla USA: s AI -ledarskap, sade Cruz i ett skriftligt uttalande på senatens handelsutskott.

Men meningsfull reglering behövs, säger Northeasterns Schoene, och kan hjälpa till att ta bort dålig teknik och hjälpa robust teknik att växa.

Kaliforniens lag kan vara en ”praxislag” som tjänar till att sätta scenen för reglering i AI -industrin, säger Steve Larson, en tidigare offentlig tjänsteman i statsregeringen. Det kan signalera till industrin och människor att regeringen kommer att ge övervakning och börja reglera när fältet växer och påverkar människor, säger Larson.