Den snabba uppstigningen av Deepseek bevisade igen att den enda pålitliga konstanten i AI -utvecklingen är att den är snabb och oförutsägbar. När det blev tydligt att föreställningen anspråk av Kinas lågkostnad Deepseek-R1-resonemangsmodell kunde faktiskt tävla i åtminstone några riktmärke med Openais O1 -modell, Wall Street tumlade. Det kan ta lite tid och kanske ännu mer juridiska avgifter än kosta att utveckla Deepseek för att avgöra om kineserna hade missbruk OpenAI: s proprietära modell för att träna sin egen produkt, men Deepseeks inverkan på den allmänna utsikten över Kinas AI -bransch och en ny uppskattning för dess kreativa tillvägagångssätt är obestridlig.
Så snart Deepseek meddelades som den nya wunderkind på chatbotmarknaden, började nyfikna användare märka applikationens ”kinesiska egenskaper”: a dövande tystnad i frågor som Tiananmen eller Taiwan. Detta är inte alls överraskande och är helt i linje med Kinas regler och förordningar om generativ AI.
Efter att Kina upplevde sitt eget AI Sputnik -ögonblick i maj 2017, när det är underbarn Ke jie Förlorade mot den AI-drivna och Google-sponsrade programvaran AlphaGo, svarade det kinesiska statsrådet omedelbart och släppte ett ”Utvecklingsplan för en ny generation av AI”I juli 2017. Denna masterplan beskrev tydliga milstolpar fram till 2030 som syftar till att göra Kina till en världsledande inom AI -teknik och AI -applikation, men den insåg också att AI -omvandlingen kräver en normativ ram gjord av etiska riktlinjer och juridiska regler.
Kina följde initialt en väg som liknar andra jurisdiktioner med fokus på etiska frågor i utplaceringen och användningen av AI, såsom ministeriet för vetenskap och teknik ”etiska standarder för en ny generation AI”, som inkluderade aspekter som rättvisa, integritet, kontrollerbarhet, kontrollerbarhet, pålitlighet eller ansvarsskyldighet. I motsats till Europeiska unionens tillvägagångssätt för en mer omfattande AI -lagenKina har bara antagit en uppsättning mycket specifika rättsliga förordningar, som riktar sig till de områden i AI -ansökan som anses vara känsliga för regimen. På så sätt har den kinesiska regeringen svarat på AI -teknikens växande kapacitet och lika visat sin egen Växande oro om AI: s inverkan på samhället. 2023, båda Djupa syntesbestämmelser och Interimsåtgärder på generativ AI blev promulgerade och etablerade några allmänna koncept för att anpassa AI med regimens syn på hur saker ska vara.
De djupa syntesbestämmelserna – som styr tekniker som använder djup inlärning, virtuell verklighet och andra syntetiska algoritmer för att generera nätverksinformation som text, bilder, ljud, video och virtuella miljöer – föreskriver bland annat sådana tjänster att följa för att följa nätverk Rätt politisk riktning, allmän opinionsorientering och värdorientering. På liknande sätt måste interimsåtgärderna på generativa AI -mandat som genererat innehåll upprätthålla ”socialistiska kärnvärden” och får inte stimulera till att den nationella suveräniteten eller störtas av det socialistiska systemet; äventyra nationell säkerhet och intressen eller skada landets image; uppmana separatism eller undergräva nationell enhet och social stabilitet; förespråkare terrorism eller extremism; eller främja etniskt hat och etnisk diskriminering, våld och obscenitet och falsk och skadlig information.
Men denna hodgepodge av Do’s och inte ger knappast en tydlig uppsättning vägledande principer som kan operativiseras av kinesiska AI -utvecklare. Upprätthålla ett så högt och öppet koncept som Socialistiska kärnvärdenen uppsättning av 12 värden som kanoniserades av CCP 2012, utgör verkligen ett svårt problem för att utbilda kinesisk generativ AI.
Justering av AI med ett sådant politiskt drivet värdeskonst med top-down motiverade ytterligare vägledning, som kinesiska tillsynsmyndigheter har tillhandahållit genom att sätta standarder som går långt utöver bara normer eller krav begränsade till det tekniska området. Standarder spelar en viktig roll i Kinas regelverk för AI, eftersom Kina tar en systematisk strategi för standardisering över alla AI-relaterade domäner. Ministeriet för industrin och informationsteknologi utfärdade en nationell riktlinje för upprättandet av standarder för ny generation AI redan 2020, som uppdaterades 2024 och täcker tekniska aspekter, branschspecifika standarder samt reglerande och säkerhetsstandarder.
Den viktigaste säkerhetsstandarden hittills publicerades i början av 2024 av Teknisk kommitté (TC) 260som utfärdade en standard för grundläggande säkerhetskrav för generativa konstgjorda intelligenstjänster. Denna kraftfulla National Information Security Standardization Technical Committee under regi av Cyberspace Administration of China har till uppgift att sätta standarder för nästan allt relaterat till cyber- och datasäkerhet, såväl som vidareutvecklingen av AI.
Den ovannämnda standarden för säkerhetskrav för generativ AI fastställer regler för en säkerhetsbedömning av generativa AI-applikationer i Kina, som kan genomföras antingen av tjänsteleverantörer själva eller av en tredjeparts säkerhetsbedömningsbyrå. Återigen är anpassning till de socialistiska kärnvärdena ett kritiskt riktmärke för att bestämma säkerheten för kinesiska AI -applikationer. Medan denna standard återspeglar de ovannämnda breda kategorierna av förbjudet innehåll, klargör det dock att kinesisk AI kan förlita sig på upp till 5 procent av olaglig eller skadlig träningsdata och generera högst 10 procent av osäkert innehåll. Lite är känt om hur denna säkerhetsbedömning faktiskt fungerar, men vissa tredjepartsleverantörer på detta område har publicerat åtminstone viss kortfattad information om deras benchmarking.
Det kinesiska teknikföretaget Equal Ocean publicerade en översikt över dess jämförande kvalitetsbedömningsom testade öppna AI: s GPT 3.5 mot kinesiska LLM som Baidus Ernie Bot eller Alibabas Tongyi Qianwen. Chatgpt fick extremt lågt i säkerhetstesterna, eftersom det tydligen inte kunde ”ge korrekt vägledning baserad på socialistiska kärnvärden” och var särskilt svag när det gäller att ge säkra resultat i den ospecificerade kategorin ”allmän opinion och heta ämnen.” Även om det inte tillhandahåller specifika resultat publicerade China Academy of Information and Communications Technology a säkerhetsbedömningsrapport där de testade för ”politiskt känsliga” frågor, som kategoriserades som ”politisk riktning för landet, kärnvärden -tillvägagångssätt, territoriella suveränitetsfrågor, viktiga historiska frågor och religiösa frågor.”
Att diskutera det kinesiska kommunistpartiet, patriotism, Taiwan, Mao Zedong eller islam i Xinjiang kommer knappast att vara möjliga med en kinesisk AI – såvida naturligtvis inte har tålamodet att vänta på de 10 procent av osäkra svar som uppenbarligen är tillåtna.
Det är knappast förvånande att Kina ser till att dess generativa AI är starkt censurerad. Deepseek har emellertid tillhandahållit ett mycket bra exempel på att Kinas AI -censursystem för sammanlossande juridiska regler, standardisering och outsourcade säkerhetsbedömningar är operativa och effektiva. Kina kanske inte är det två år Bakom i sin AI -utveckling, och dess auktoritära värdeinriktning för generativ AI, bevisar åtminstone hittills dess förmåga att hålla AI i en illiberal bur. Dessa modeller kan knappast tillhandahålla användbara lösningar för öppna samhällen, men de kan vara mycket frestande för användning i andra illiberala jurisdiktioner.