Planerar Elon Musk att använda konstgjord intelligens för att driva den amerikanska regeringen? Det verkar vara hans plan, men experter säger att det är en ”mycket dålig idé”.
Musk har avfyrat tiotusentals federala regeringsanställda genom sin avdelning för regeringens effektivitet (DOGE), och han kräver enligt uppgift att de återstående arbetarna skickar avdelningen ett e -postmeddelande varje vecka med fem punktpunkter som beskriver vad de åstadkom den veckan.
Eftersom det utan tvekan kommer att översvämma doge med hundratusentals av dessa typer av e -postmeddelanden, förlitar Musk på konstgjord intelligens för att bearbeta svar och hjälpa till att avgöra vem som ska förbli anställda. En del av planen är enligt uppgift också att ersätta många statliga arbetare med AI -system.
Det är ännu inte klart hur något av dessa AI -system ser ut eller hur de fungerar – något demokrater i USA: s kongress kräver att bli fyllda på – men experter varnar för att använda AI i den federala regeringen utan robust testning och verifiering av dessa verktyg kan få katastrofala konsekvenser.
”För att använda AI -verktyg på ett ansvarsfullt sätt måste de utformas med ett särskilt syfte i åtanke. De måste testas och valideras. Det är inte klart om något av det görs här, säger Cary Coglianese, professor i juridik och statsvetenskap vid University of Pennsylvania.
Coglianese säger att om AI används för att fatta beslut om vem som ska avslutas från sitt jobb, skulle han vara ”mycket skeptisk” av den strategin. Han säger att det finns en mycket verklig potential för misstag att göra för att AI är partisk och för andra potentiella problem.
”Det är en mycket dålig idé. Vi vet ingenting om hur en AI skulle fatta sådana beslut [including how it was trained and the underlying algorithms]de uppgifter som sådana beslut skulle baseras på, eller varför vi bör tro att det är pålitligt, säger Shobita Parthasarathy, professor i offentlig politik vid University of Michigan.
Dessa oro verkar inte hålla tillbaka den nuvarande regeringen, särskilt med Musk – en miljardärs affärsman och en nära rådgivare för USA: s president Donald Trump – vilket leder anklagelsen om dessa ansträngningar.
Det amerikanska statsdepartementet planerar till exempel att använda AI för att skanna de sociala mediekonton för utländska medborgare för att identifiera alla som kan vara en Hamas -anhängare i ett försök att återkalla sina visum. Den amerikanska regeringen har hittills inte varit transparent om hur dessa typer av system kan fungera.
Oupptäckta skador
”Trump -administrationen är verkligen intresserad av att fortsätta AI till varje pris, och jag skulle vilja se en rättvis, rättvis och rättvis användning av AI,” säger Hilke Schellmann, professor i journalistik vid New York University och en expert på konstgjord intelligens. ”Det kan finnas många skador som inte upptäcks.”
AI -experter säger att det finns många sätt på vilka regeringens användning av AI kan gå fel, varför den måste antas noggrant och samvetsgrant. Coglianese säger att regeringar runt om i världen, inklusive Nederländerna och Storbritannien, har haft problem med dåligt avrättat AI som kan göra misstag eller visa partiskhet och som ett resultat har felaktigt förnekat invånare välfärdsförmåner som de behöver, till exempel.
I USA hade staten Michigan ett problem med AI som användes för att hitta bedrägeri i sitt arbetslöshetssystem när det felaktigt identifierade tusentals fall av påstådd bedrägeri. Många av de nekade förmånerna behandlades hårt, inklusive att bli träffade med flera påföljder och anklagade för bedrägeri. Människor arresterades och lämnades till och med för konkurs. Efter en femårsperiod medgav staten att systemet var felaktigt och ett år senare slutade det med att återbetala 21 miljoner dollar till invånarna felaktigt anklagade för bedrägeri.
”För det mesta vet de tjänstemän som köper och distribuerar dessa tekniker lite om hur de fungerar, sina fördomar och begränsningar och fel,” säger Parthasarathy. ”Eftersom låginkomst- och på annat sätt marginaliserade samhällen tenderar att ha mest kontakt med regeringar genom sociala tjänster [such as unemployment benefits, foster care, law enforcement]de tenderar att påverkas mest av problematisk AI. ”
AI har också orsakat problem i regeringen när den har använts i domstolarna för att avgöra saker som någons prövningsberättigande eller i polisavdelningar när det har använts för att försöka förutsäga var brott troligen kommer att inträffa.
Schellmann säger att AI som används av polisavdelningarna vanligtvis utbildas på historiska data från dessa avdelningar, och som kan få AI att rekommendera överpolicingområden som länge har överpolicerats, särskilt färgsamhällen.
AI förstår ingenting
Ett av problemen med att potentiellt använda AI för att ersätta arbetare i den federala regeringen är att det finns så många olika typer av jobb i regeringen som kräver specifika färdigheter och kunskaper. En IT -person vid justitiedepartementet kan ha ett helt annat jobb än ett i jordbruksdepartementet, till exempel även om de har samma jobb. Ett AI -program måste därför vara komplex och mycket utbildad för att till och med göra ett medioker jobb för att ersätta en mänsklig arbetare.
”Jag tror inte att du slumpmässigt kan minska människors jobb och sedan [replace them with any AI]”Säger Coglianese. ”De uppgifter som dessa människor utförde är ofta mycket specialiserade och specifika.”
Schellmann säger att du kan använda AI för att göra delar av någons jobb som kan vara förutsägbara eller repetitiva, men du kan inte bara ersätta någon. Det skulle teoretiskt vara möjligt om du skulle spendera år på att utveckla rätt AI -verktyg för att göra många, många olika typer av jobb – en mycket svår uppgift och inte vad regeringen verkar för närvarande göra.
”Dessa arbetare har verklig expertis och en nyanserad förståelse av frågorna, som AI inte gör. AI förstår faktiskt inte ”någonting”, säger Parthasarathy. ”Det är en användning av beräkningsmetoder för att hitta mönster, baserade på historiska data. Och så kommer det troligtvis att ha begränsad användbarhet och till och med förstärka historiska fördomar. ”
Administrationen av före detta USA: s president Joe Biden utfärdade en verkställande order 2023 fokuserade på ansvarsfull användning av AI i regeringen och hur AI skulle testas och verifieras, men denna order upphävdes av Trump -administrationen i januari. Schellmann säger att detta har gjort det mindre troligt att AI kommer att användas ansvarsfullt i regeringen eller att forskare kommer att kunna förstå hur AI används.
Allt detta sagt, om AI utvecklas på ett ansvarsfullt sätt kan det vara till stor hjälp. AI kan automatisera repetitiva uppgifter så att arbetare kan fokusera på viktigare saker eller hjälpa arbetare att lösa problem de kämpar med. Men det behöver ges tid att distribueras på rätt sätt.
”Det är inte att säga att vi inte kunde använda AI -verktyg klokt,” säger Coglianese. ”Men regeringar går vilse när de försöker rusa och göra saker snabbt utan ordentlig offentlig input och grundlig validering och verifiering av hur algoritmen faktiskt fungerar.”